Разработчики сервиса DeepNude, создающего поддельные фотографии обнаженных женщин с помощью нейросети, заявили, что «мир пока не готов к DeepNude», и закрыли проект.
DeepNude отказалась от дальнейших обновлений программы. О закрытии проекта разработчики сообщили сегодня в Twitter.
В команде, работающей над приложением, заявили, что недооценили спрос на свой продукт. «Если приложение используют 500 тысяч человек, то вероятность того, что люди станут злоупотреблять им, слишком высока. Мир пока не готов к DeepNude», — говорится в сообщении.
— deepnudeapp (@deepnudeapp) 27 июня 2019 г.
DeepNude — программа, которая с помощью нейросети редактирует фотографии женщин, «снимая» с них одежду и дорисовывая части обнаженного тела. Накануне о приложении написали многие мировые СМИ, после чего его скачали сотни тысяч пользователей.
За несколько дней работы сервиса создатели кроме восторженных откликов начали получать угрозы, претензии и обвинения во вторжении в личную жизнь. А в российской компании «Лаборатория Касперского» предостерегали, что приложение может стать причиной психологических детских травм
Разработчик приложения (представился Альбертом) ранее рассказывал журналистам, что на создание DeepNude его вдохновили журналы