Как дипфейки стали золотой жилой для мошенников и почему с ними трудно бороться

14.09.2024, 15:15

Видеосюжет: Михаил Богданов
Видео программы «Центральное телевидение»

С помощью современных технологий преступники очень реалистично подделывают видео с участием жертвы, а затем это видео используют для финансовых махинаций или изощренного шантажа.

В Сеуле молодые люди лихорадочно удаляют свои фотографии и видео из соцсетей, чтобы не стать очередными жертвами порно-шантажа. С помощью ИИ преступники делают их участниками довольно реалистичных сексуальных оргий, а если жертва отказывается платить, поддельное видео моментально разлетается по десяткам чатов в Telegram. Пострадавших — десятки тысяч, среди них много студенток и школьниц.

Александр Ильин, руководитель компании по кибербезопасности: «Сегодня уже ни голос, ни видео никакой сложности не составляет синтезировать. Мы видим, как мы можем сделать несуществующее видео с лицом одного человека, подставив другое».

А значит, лица известных людей можно использовать для рекламы, например, финансовой пирамиды. Получается, дипфейки — золотая жила. И даже полная достоверность не требуется, ведь большинство не обратят внимание на мелкие нестыковки.

Актриса озвучания и дубляжа Алёна Андронова еще до бурной славы нейросетей и ИИ заключила один типовой договор, который ей потом ее же голосом аукнулся. Ее голосом озвучили рекламу для взрослых, которая для нее стала антирекламой.

Алёна Андронова, актриса: «Это огромный репутационный ущерб. Очень тяжело доказать, что ты не ты и не имеешь к этому отношения, если там твой голос».

И сейчас Алёна пытается отсудить свой голос. Но возможно ли вообще остановить это? Ведь сейчас, кажется, технологии обгоняют законодательство, рассказывает юрист Союза дикторов Тамара Богданова. И ситуация с голосом никак не регулируется.

В США Скарлетт Йоханссон уже судится с теми, кто использует ее дипфейк без разрешения. Да и многие другие живые артисты завидуют мертвым. В судах лежат иски наследников Леннона и Элвиса Пресли к создателям их дипфейков, поющим песни, написанные после смерти легенд рок-н-ролла. Кроме того, нейросеть уже может сама озвучивать иностранного актера его же голосом. И вообще, похоже, готова заменить его полностью.

Вот только если дипфейки с развитием технологий сможет создавать каждый, не приведет ли это к тому, что большинство пользователей соцсетсей будут подражать суеверным мамочкам, которые, даже продавая детские вещи, закрывают свои детям лица. Не окажется ли будущее и его соцети в прямом смысле обезличенными?

Все выпуски программы «Центральное телевидение».

Связанные новости

Читайте также