Видео программы «Сегодня»
Мошенники все чаще стали использовать дипфейки, которые создают при помощи нейросетей для кражи денег. По оценкам аналитиков, преступники применяют сгенерированное изображение, чтобы получить доступ к интернет-банку и соцсетям.
Для убедительности злоумышленники шантажируют и психологически манипулируют своими жертвами. Чтобы обезопасить людей, в Госдуме предложили маркировать подобные видео.
Российские разработчики придумали, как заставить нейросеть работать на 40 процентов быстрее. Это расширит список задач, которые она будет выполнять, а также снизит траты на оборудование. Однако возможности искусственного интеллекта уже сейчас таковы, что в мире всерьез задумываются о необходимости юридически регулировать эту деятельность.
В прошлом году во время массовой забастовки в Голливуде актеры требовали ограничить использование нейросетей при создании фильмов. А в России обсуждают, как обезопасить граждан от мошенников, которые все чаще прибегают к этим инструментам.
Когда блогеру Анастасии Богдановой пришло сообщение от подруги с просьбой одолжить 15 тысяч рублей на карту мамы, она с готовностью откликнулась. Позже девушка позвонила подруге и попросила вернуть долг.
Анастасия Богданова, блогер: «А она мне говорит: „Насть, я не просила, меня взломали в Telegram“».
С развитием интернета мошенничество вышло на новый уровень. Теперь аферисты, взламывая аккаунт, изучают, как и какими словами его владелец общается с друзьями, а голосовые сообщения прогоняют через нейросети. Используя нейросети, теперь подделывают даже видеосообщения.
Александр Журавлев, управляющий партнер юридической компании: «Обрабатывают изображения, голос родственников и направляют кружочек, просят деньги перечислить».
Впрочем, это мелкое хулиганство по сравнению с крупными дипфейками так называют видеоролики, в которых лицо одного человека с помощью компьютерных технологий подменяют другим.
Дипфейки сейчас пугают весь мир даже не как инструмент в руках мошенников, а как оружие политтехнологов. Можно вспомнить недавний случай в США, когда людям звонил якобы Байден с просьбой не голосовать за его партию. Но в то же время нейросети генерируют невероятно творческие продукты. Например, благодаря искусственному интеллекту поклонники легендарной группы ABBA смогли воочию увидеть на сцене своих кумиров такими, какими они были 50 лет назад.
Кинопродюсеры также активно используют эти технологии. Так, скоро на экраны выйдет фильм с молодым Юрием Никулиным виртуальным. На Западе же активно анонсируют новую нейросеть Sora, которая способна создавать целые видеоролики по простому текстовому запросу. Авторы Sora предрекают революцию в мире кино и музыки, ведь, по их словам, всего за минуту нейросеть сможет сделать
Антон Горелкин, депутат Госдумы: «Для нас что важно чтобы в России появилась эффективная система выявления использования технологий ИИ при производств роликов. Также должна появиться уголовная ответственность для мошенников, которые используют технологии искусственного интеллекта».
Сколько времени уйдет на создание такой системы, пока неизвестно. Но нужна она точно и не только для того, чтобы вычислять мошенников, но и тех, кто взял моду
Читайте также
- Песков рассказал о звонках мошенников
- Петербургские мошенники стали использовать дипфейки против своих жертв
- FT: Евросоюз, США и Великобритания заключат первое соглашение о стандартах ИИ
- Аферы с дипфейками: как с помощью ИИ крадут личность и деньги
- Импортозамещение в важнейшем из искусств: перспективы российского кино
- Зачем ресторанный бизнес в РФ внедряет искусственный интеллект