В последние месяцы буквально никуда не скрыться от новостей о нейросетях, а прежде всего о ChatGPT.
ChatGPT — это диалоговая программа на базе искусственного интеллекта, которая обучает себя сама по всей мировой копилке знаний, может отвечать текстом почти как живой человек (причем на огромном множестве языков, включая русский); решать вопросы любой сложности и из разных областей; делать подборки статей для научных работ, писать эссе, стихотворения и даже компьютерные коды. Крупнейшие корпорации забеспокоились и спешно начали разрабатывать свои умные
Владимир Арлазаров — один из создателей отечественной системы, построенной на искусственном интеллекте. Она легко и быстро считывает данные платежных карт, текстовых и личных документов. Разработка успешно применяется банками и помогает выявлять поддельные паспорта на автоматических пунктах контроля в аэропортах. Чтобы натренировать систему, Владимир с командой создали еще одну модель, которая сгенерировала образцы для обучения — всё, даже фотографии, личные данные и подписи компьютер выдумал сам.
Но главная причина успеха именно ChatGPT — универсальность. Ей легко воспользоваться, определенное число запросов в день разработчики предоставляют бесплатно, дальше просят всего 20 долларов в месяц.
Экономить на сотрудниках с помощью нейросети тут же бросились специалисты по соцсетям, рекламщики, программисты. Но эксперты предупреждают об опасности утечки вводимых данных. Впитывая всё как губка, нейросеть постоянно обучается: любую информацию, которую загружает один пользователь, она запоминает, обрабатывает и хранит, а потом может выдать по запросу и другому человеку. В марте разработчики ChatGPT сами признались в случаях утечки и даже ненадолго отключали систему для исправлений. Посторонним тогда были видны чужие сообщения, личная информация и даже данные банковских карт. После этого в Италии использование нейросети и вовсе решили запретить. Такое же решение приняли и власти Китая, но с другой мотивировкой: информация, которую выдает
Угрозу признаёт и один из создателей ChatGPT — в недавнем интервью Сэм Олтмен заявил, что возможность применения системы злоумышленниками пугает. Ведь она запросто может написать и вирус. Опасений по поводу нейросетей становится всё больше: многие боятся остаться без работы. Компьютер выполняет задачи быстрее, не делает перерывов на обед и обходится работодателю куда дешевле.
Судя по опросам, больше всего за свои места беспокоятся программисты и дизайнеры. Есть опасения и у фотографов: некоторые нейросети так продвинулись в создании снимков, что жюри престижных конкурсов уже не могут отличить, что сделано человеком, а что — машиной.
Опасения выразили дикторы озвучки — синтезированные голоса, порой украденные у реальных людей, звучат как настоящие и стоят копейки. Искусственный интеллект научился неожиданно неплохо писать тексты. Распознать работу, сделанную электронным автором, оказалось нелегко даже профессионалам.
Недавно Илон Маск, Стив Возняк и еще более тысячи
Есть и другая проблема: достоверность информации. Нейросети порой начинают
Удастся ли искусственному интеллекту в итоге управлять нами? Журналисты не раз задавали нейросети вопрос о возможном побеге
Все выпуски программы «Чудо техники»