Решение о нанесении ядерного удара принимается при участии искусственного интеллекта, который используется военными, и в этом заключается серьезная опасность. Об этом заявил бывший заместитель министра обороны США Роберт Уорк.
Уорк считает, что системы искусственного интеллекта нельзя применять для контроля ядерного вооружения.
Роберт Уорк, бывший заместитель министра обороны США: «Представьте, что в системе ядерного командования и контроля есть прогностическая система искусственного интеллекта, которая запускается по определенным параметрам. Это гораздо, гораздо, гораздо более тревожная перспектива, чем все то, что вы можете придумать в терминах конкретного оружия».
Уорк заявил, что искусственный интеллект может неопасные факторы принять за реальную угрозу, и в качестве примера привел российскую систему «Периметр», которая может сейсмическую активность расценить как ядерные взрывы и направить запрос в штаб войск, после чего, если не дождется ответа, может запустить межконтинентальные баллистические ракеты.
Бывший заместитель министра обороны США уверен, что военное применение искусственного интеллекта может привести к тяжелым последствиям и без его прямого участия в управлении ядерным оружием. Уорк убежден, что искусственный интеллект в армии использовать можно, но ограничено, чтобы избежать «катастрофического сценария».
По материалам: Breaking Defense.
Читайте также
- Деменция или хитрый план: почему Байден разрешил Киеву бить по РФ ракетами НАТО
- NYT: на Западе задумались о возвращении Киеву ядерного оружия
- Крах, кризис и новое начало: как изменится мир
- Белый дом и Пентагон отмахиваются от вопросов об ATACMS и ядерной доктрине РФ
- «Придется уничтожать»: Сергей Караганов о ядерной бомбе Зеленского
- Сергей Караганов: ядерное оружие это оружие мира