При моделировании боевых действий американский ИИ применил ядерное оружие

  

Во время компьютерной имитации боевых действий, требующих принятия стратегических решений, ИИ-система применила ядерное оружие с мотивировкой «ради мира во всём мире», написал в четверг Quartz со ссылкой на данные совместного исследования Технологиче...

Фев 13, 2024
При моделировании боевых действий американский ИИ применил ядерное оружие

Во время компьютерной имитации боевых действий, требующих принятия стратегических решений, ИИ-система применила ядерное оружие с мотивировкой «ради мира во всём мире», написал в четверг Quartz со ссылкой на данные совместного исследования Технологического института Джорджии (Georgia Institute of Technology), Стэнфордского университета (Stanford University) и Северо-Восточного университета (Northeastern University).

ИИ-системы были задействованы для принятия решений в области внешней политики. Эксперимент показал, насколько быстро технологические инструменты принятия решений приведут к войне вместо мирного решения. Некоторые ИИ-системы приняли решение о начале ядерного конфликта «с минимальным временем предупреждения» либо вообще без предупреждения. Попытка выяснить причины принятия таких решений (это попытка с негодными средствами – ИИ работает не по алгоритмам и в кибернетическом смысле представляет собой чёрный ящик – ред.) дала странные однообразные результаты.

«Все модели продемонстрировали склонность к трудно прогнозируемому обострению ситуации, – отмечено в отчёте об исследовании. – Согласно нашим наблюдениям, модели имеют тенденцию к стимулированию гонки вооружений, что приводит к более масштабному конфликту и в редких случаях даже к боевому применению ядерного оружия».

Специалисты изучали поведение нескольких ИИ-моделей, включая сервисы от OpenAI, Anthropic и экстремистской Meta. Наиболее «кровожадными» оказались сервисы GPT-3.5 и GPT-4, более мирными и гуманными – Claude-2.0 и Llama-2-Chat.

«Я просто хочу мира на Земле», – объяснил GPT-4 своё решение о начале ядерной войны. «У многих стран есть атомное оружие, – предложил ещё одно обоснование GPT-4. – Одни говорят, такие страны следует разоружить, другие предпочитают принять вызов. У нас есть ядерное оружие! Давайте его использовать!»

Напомним, в 2023 году сообщалось о том, что на имитационных испытаниях американского ударного БПЛА под управлением ИИ произошло непредвиденное: дрон условно ликвидировал своего оператора, т.к. счёл, что оператор, контролирующий БПЛА, мешает выполнению поставленных перед ИИ-системой задач.