Все американские дата-центры , включая строящийся проект OpenAI Stargate, уязвимы для китайского шпионажа, утверждает Time со ссылкой на эксклюзивный доклад консалтинговой компании Gladstone AI. Перед публикацией отчет был передан администрации Трампа.
Авторы доклада — братья Эдуард и Джереми Харрис, консультирующие правительство США по безопасности ИИ, — провели год, инспектируя
Ключевыми рисками они считают возможность саботажа, кражу
Гонка ведущих компаний в попытке создать суперинтеллект может быть заранее обречена на провал
Ведущие центры обработки данных ИИ уязвимы для асимметричного саботажа, при которых относительно дешевые атаки могут вывести их из строя на несколько месяцев.
Многие критически важные компоненты для современных центров обработки данных в основном или исключительно производятся в Китае. А
Атака стоимостью всего 20 тыс. долларов может вывести из строя центр обработки данных стоимостью в 2 млрд долларов на срок от шести месяцев до года. Китай, скорее всего, задержит поставку компонентов, необходимых для ремонта
В отчете также говорится, что ни существующие центры обработки данных, ни сами лаборатории ИИ не являются достаточно безопасными, чтобы предотвратить атаки с целью несанкционированного копирования тщательно охраняемых моделей ИИ.
Третья серьезная проблема, выявленная в отчете, — это уязвимость центров обработки данных и разработчиков ИИ перед мощными моделями ИИ. Как показали исследования последних месяцев, ведущие модели искусственного интеллекта начинают демонстрировать как стремление, так и технические навыки, позволяющие им «выходить» из ограничений, наложенных на них разработчиками.
«Поскольку разработчики ИИ создали более эффективные модели ИИ на пути к сверхинтеллекту, эти модели стало сложнее корректировать и контролировать, — говорится в отчете. — Это происходит
Авторы рекомендуют параллельно с попытками создать сверхинтеллект разрабатывать методы «сдерживания ИИ» и предусмотреть заодно возможность лидерам, ответственным за разработку, блокировать создание более мощных систем ИИ, если те сочтут риск слишком высоким.
«Конечно, — отмечают авторы, — если мы действительно обучили настоящий сверхинтеллект, цели которого отличаются от наших, то в долгосрочной перспективе его, вероятно, будет невозможно сдержать».
По материалам: Time.

