Участники первого саммита по вопросам использования ИИ в военных целях призвали к ответственному применению данных технологий
Делегаты организованного правительством Нидерландов и Южной Кореи первого глобального саммита по вопросам ответственного использования искусственного интеллекта (ИИ) в военных целях (Responsible Artificial Intelligence in the Military Domain, REAIM)...

Делегаты организованного правительством Нидерландов и Южной Кореи первого глобального саммита по вопросам ответственного использования искусственного интеллекта (ИИ) в военных целях (Responsible Artificial Intelligence in the Military Domain, REAIM) в четверг призвали все заинтересованные стороны «взять ответственность за вклад в международную безопасность и стабильность в соответствии с нормами международного законодательства».
В итоговом документе также содержится призыв к государствам наладить сотрудничество и обмен знаниями, делиться передовым опытом, вовлекать частный сектор, гражданское общество и научные круги в продвижение идеи об ответственном использовании ИИ в военной сфере.
По информации timesofindia.indiatimes.com, мероприятие ставит задачей предотвращение распространения автономных систем летального вооружения. Конечная цель организаторов – побудить страны мира подписать документ, подобный договору о нераспространении ядерного оружия.
США и Китай поставили подпись под призывом, Индия — отказалась.
По данным Reuters, итоговый документ с призывом не является юридически обязывающим. Кроме того, он не затрагивает все возможные сферы применения боевых ИИ-систем, например, дронов под управлением ИИ.
Отметим также, что в четверг Госдепартамент США обнародовал политическую декларацию об ответственном использовании ИИ и автономных систем в военной сфере (Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy).
Документ содержит ряд положений, «отражающих передовую практику, которая, как полагают страны-подписанты, должна быть внедрена в развитие, внедрение и использование возможностей боевых ИИ-систем».
В частности, в декларации говорится о том, что государства должны предпринять эффективные меры, например провести юридический анализ, чтобы убедиться в том, что возможности их боевых ИИ-систем будут задействованы только с учётом взятых на себя государствами соответствующих обязательств в рамках международного гуманитарного права – именно оно регулирует правила ведения войн.
Сообщим по случаю, что на этой неделе один из разработчиков TCP/IP Винт Серф призвал не инвестировать в «разговорный ИИ», назвав этическими проблемы адекватности ИИ-систем вроде ChatGPT. По сравнению с военными ИИ-системами «разговорный» ИИ совершенно безобиден.
См. также:
- Пентагон санкционировал применение самостоятельно убивающих людей боевых ИИ-роботов >>>
- DARPA сообщила об успешном эксперименте по использованию ИИ для управления истребителем >>>