С помощью современных технологий преступники очень реалистично подделывают видео с участием жертвы, а затем это видео используют для финансовых махинаций или изощренного шантажа.
В Сеуле молодые люди лихорадочно удаляют свои фотографии и видео из соцсетей, чтобы не стать очередными жертвами
Александр Ильин, руководитель компании по кибербезопасности: «Сегодня уже ни голос, ни видео никакой сложности не составляет синтезировать. Мы видим, как мы можем сделать несуществующее видео с лицом одного человека, подставив другое».
А значит, лица известных людей можно использовать для рекламы, например, финансовой пирамиды. Получается, дипфейки — золотая жила. И даже полная достоверность не требуется, ведь большинство не обратят внимание на мелкие нестыковки.
Актриса озвучания и дубляжа Алёна Андронова еще до бурной славы нейросетей и ИИ заключила один типовой договор, который ей потом ее же голосом аукнулся. Ее голосом озвучили рекламу для взрослых, которая для нее стала антирекламой.
Алёна Андронова, актриса: «Это огромный репутационный ущерб. Очень тяжело доказать, что ты не ты и не имеешь к этому отношения, если там твой голос».
И сейчас Алёна пытается отсудить свой голос. Но возможно ли вообще остановить это? Ведь сейчас, кажется, технологии обгоняют законодательство, рассказывает юрист Союза дикторов Тамара Богданова. И ситуация с голосом никак не регулируется.
В США Скарлетт Йоханссон уже судится с теми, кто использует ее дипфейк без разрешения. Да и многие другие живые артисты завидуют мертвым. В судах лежат иски наследников Леннона и Элвиса Пресли к создателям их дипфейков, поющим песни, написанные после смерти легенд
Вот только если дипфейки с развитием технологий сможет создавать каждый, не приведет ли это к тому, что большинство пользователей соцсетсей будут подражать суеверным мамочкам, которые, даже продавая детские вещи, закрывают свои детям лица. Не окажется ли будущее и его соцети в прямом смысле обезличенными?
Все выпуски программы «Центральное телевидение».