Стремительное развитие нейросетей остановить уже невозможно. Но и бояться этого не надо, говорят российские исследователи. В ближайшее время искусственный интеллект вряд ли обретет самосознание, поэтому ни тотальная безработица, ни восстание машин человечеству не грозят.
Кому мешают нейросети?
Глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Apple Стив Возняк и еще тысячи экспертов и руководителей компаний в сфере искусственного интеллекта подписали письмо с призывом остановить разработку и обучение нейросетей. Запрет, по их мнению, нужно ввести хотя бы на ближайшие полгода, пока не появятся общие протоколы безопасности. В противном случае машины могут «наводнить информационные каналы пропагандой, автоматизировать рабочие места» и даже заменить человека.
Особый акцент в обращении сделан на необходимости прекратить тренировки систем мощнее
Чем опасны нейросети?
Сами по себе нейросети с их текущим уровнем развития безопасны для человека, считают опрошенные НТВ эксперты. По мнению профессора кафедры ИУ10 «Защита информации» МГТУ им. Н. Э. Баумана Сергея Смирнова, опасность может представлять только способ применения нейросети (языковой модели).
Сергей Смирнов: «Я сомневаюсь, что нейросеть может вести себя не так, как задумано. Но я уверен, что исходную „задумку“ злоумышленник может существенно изменить».
Реальная угроза от нейросетей заключается в том, что недоброжелатели могут насыщать электронные источники информации фейками, уточнил исследователь.
«Информационный мусор» может быть не только в виде искаженных текстов, но и в формате фото-, видео- и аудиозаписей, замечает, в свою очередь, директор Центра прикладного искусственного интеллекта «Сколтеха» Евгений Бурнаев. Нейросеть также могут неправильно научить распознавать лица, что грозит неправомерными задержаниями невинных людей. А в руках аферистов искусственный интеллект рискует стать инструментом шантажа, вымогательств и краж данных.
Эксперт выделил несколько возможных форм кибератак с применением нейросетей:
фишинг (создание фальшивых электронных писем, например якобы от банков);
взлом паролей (перебор всех возможных комбинаций паролей или создание поддельных отпечатков пальцев);
кардинг (создание фальшивых кредиток);
взлом систем безопасности (генерация вредоносного кода, способного обойти системы безопасности, а также создание ботнетов для запуска
социальная инженерия (создание фальшивых профилей в соцсетях с целью обмана людей и получения доступа к их личной информации).
Однако орудием или оружием нейросети становятся только в руках человека, обращает внимание исследователь команды проекта разговорного искусственного интеллекта DeepPavlov.ai МФТИ Денис Кузнецов. Нейросети, как подчеркнул эксперт, не обладают самосознанием, чтобы действовать
Денис Кузнецов: «Они в принципе не могут отрастить ноги и убежать в интернет. Их могут перенести в интернет люди, чтобы они там работали при тех же условиях получения последовательности данных и выдачи последовательности данных. Поэтому текущее поколение нейронных сетей может работать только как инструменты».
При этом нейросети могут вести себя не так, как задумано, и стать причиной настоящей трагедии. Так, в Бельгии мужчина покончил с собой после двух месяцев общения с
На непредсказуемость результатов работы с нейросетями обратил внимание и руководитель образовательной программы «Киберфизические системы» (кафедра
Тимур Идиатуллов: «Например, сеть ChatGPT содержит 175 миллиардов параметров, которые определяют ее работу, и не существует инструмента, который позволил бы нам отследить, как сеть пришла к тому или иному решению».
Могут ли нейросети оставить людей без работы?
В этом вопросе среди экспертов нет единого мнения. Сергей Смирнов полагает, что от моделей уровня
По мнению Евгения Бурнаева, на нейросети можно переложить ряд обязанностей сотрудников производственной сферы, включая распознавание образов, классификацию данных и выявление сбоев в работе оборудования. Но человеческий интеллект, креативность и способность адаптироваться к новым ситуациям они пока заменить не могут.
Евгений Бурнаев: «Что касается потери рабочих мест
Нейросетям пока можно доверить творческие решения, качество которых не критично, заметил, в свою очередь, Денис Кузнецов. Остальное, по его словам,
Тимур Идиатуллов пояснил, что людей сейчас не удается заместить нейросетями, поскольку часто требуется принятие решений, выходящих за рамки простой обработки заявок. Но развитие нейросетевых технологий приведет к смене целого класса профессий, как это произошло, когда появились конвейеры, мануфактуры, станки и компьютеры.
Тимур Идиатуллов: «Вероятно, что люди будут вытесняться из некоторых профессий сервисной сферы и торговли в профессии, где требуется больше физической работы, но автоматизация (роботизация) в которых затруднена. И, конечно, функции общего контроля и обслуживания оборудования тоже останутся за человеком».
Приведет ли развитие нейросетей к восстанию машин?
Это фантастический сценарий, успокаивают собеседники НТВ. Нейросети не обладают сознанием и намерениями, пояснил Евгений Бурнаев. Важно только, чтобы искусственный интеллект не использовался самими людьми в радикальных целях.
Сергей Смирнов называет восстание машин страшилкой для малообразованных людей. Опасность, по словам эксперта, представляют успешные работы исследователей, у которых нет моральных ограничений. Нейросети это электронная начинка оружия будущего, полагает специалист. Они могут быть применены в системах летального оружия, автоматизированном производстве фейков, масштабных атаках соцсетей и т. п.
Если даже произойдет
Денис Кузнецов: «Восстание машин на нас может повлиять так же, как и восстание куриц на курином комбинате. Возможно, с
Тимур Идиатуллов также считает, что в ближайшее время машины вряд ли обретут самосознание, поэтому восстания ждать не стоит.
Надо ли остановить обучение нейросетей?
Нет, идти по такому пути не нужно и даже невозможно, уверены опрошенные эксперты. Денис Кузнецов называет призыв Илона Маска и других экспертов прекратить обучение нейросетей «мораторием на ИИ», а также попыткой замедлить развитие компаний лидеров этой сферы.
Остановить нейросети уже невозможно, продолжает Тимур Идиатуллов. Нужно, по его словам, не прекращать их обучение, а развивать инструменты, позволяющие понимать, как искусственный интеллект принимает то или иное решение.
Евгений Бурнаев также призвал не ограничивать обучение нейронных сетей. Эксперт при этом выступает за создание эффективных механизмов регулирования использования ИИ, чтобы в том числе применять его для защиты от кибератак и киберпреступлений.
Призыв Маска и группы специалистов выглядит неубедительно, обращает внимание Сергей Смирнов. В частности, смущает пункт о приостановке обучения ИИ до появления протоколов безопасности. «Но кто будет писать эти протоколы и будут ли они соблюдаться большой вопрос», заключил Смирнов.
Читайте также
- Ничего не потеряли: как онкологи спасают пациентов в условиях санкций
- Кому достанутся сокровища Луны
- В Госдуме объяснили, почему России незачем блокировать YouTube
- «Игроник» и Tele2 подписали соглашение на ПМЭФ
- В России расширят сеть умных дорог и введут выделенки для электрокаров
- Эксперты рассказали, как сотрудники случайно сливают данные компании