Три европейские страны договорились учесть недовольство США разрабатываемым в ЕС законом об ИИ — СМИ

  

Франция, Германия и Италия решили учесть недовольство Госдепа разрабатываемым в ЕС законом (AI Act) об искусственном интеллекте (ИИ) и руководствоваться принципом, согласно которому риски исходят не от самих ИИ-технологий, а от их применения на практ...

Нояб 20, 2023
Три европейские страны договорились учесть недовольство США разрабатываемым в ЕС законом об ИИ — СМИ

Франция, Германия и Италия решили учесть недовольство Госдепа разрабатываемым в ЕС законом (AI Act) об искусственном интеллекте (ИИ) и руководствоваться принципом, согласно которому риски исходят не от самих ИИ-технологий, а от их применения на практике, сообщило в субботу агентство Reuters.

«Вместе мы подчёркиваем, что AI Act регулирует применение ИИ, а не саму технологию, как таковую», – цитирует агентство заявление сторон. Законы и государственный надзор, по мнению Франции, Германии и Италии, должны распространяться не на сам ИИ, а на его использование.

«Нам необходимо регулировать варианты применения, а не технологию, если мы хотим играть в высшей мировой ИИ-лиге», – подчеркнул представитель Германии.

Напомним, в мае Европарламент согласовал новые положения AI Act. В октябре в рамках «сотрудничества и унификации общих ценностей» Госдеп США переписал европейцам ряд положений закона об ИИ, утверждая, что в случае, если правки не будут учтены, конкурентоспособность компаний из ЕС, создающих ИИ-системы, понизится.

Госдепу не понравилось, что Европарламент сконцентрировался на вопросе разработки моделей ИИ, т.е. на том, как и на каких данных обучают ИИ-системы. США вместо этого хотели бы, чтобы «ЕС использовал подход, фокусирующийся на рисках, связанных с тем, как эти модели используются на деле».

Разница европейского и американского подходов к контролю ИИ-систем

В этом контексте американский подход состоит в следующем: неважно, как ИИ-систему сделали, важно, как она работает.

Недостаток такого подхода состоит в том, что ИИ – не алгоритмическая система, залезть к ней «под капот», что проконтролировать работу, невозможно. Контролировать ИИ-систему «изнутри» полностью, очевидно, вообще нельзя.

Контроль состава данных для обучения ИИ-систем, как это определено законом ЕС, даёт больше понимания о том, чего следует ожидать от ИИ-системы, и позволяет избежать рисков на стадии проектирования.

Возражения США, которые решило высказать внешнеполитическое ведомство этой страны, связаны не с опасениями того, что компании – разработчики ИИ-систем поедут в американскую юрисдикцию. Такая перспектива США должна, наоборот, радовать. Дело в другом. Законодательство ЕС создаёт препятствия для бесконтрольного применения ИИ-систем, и это может стать проблемой для американских поставщиков ИИ-сервисов.

Во многом аналогичная ситуация имела место в связи с «безопасной гаванью». Этим термином обозначалось разрешение американским IT-компаниям получать и хранить у себя принадлежащие европейцам данные, в том числе персональные.

Предположение о том, что американцы используют эти данные для обучения ИИ-систем, не выглядит фантастическим. Это только один, в данном случае гипотетический, пример того, почему США возражают против требований ЕС публиковать сведения о том, как ИИ-системы обучались. 

См. также: В Европарламенте согласовали ключевые положения готовящегося закона об ИИ >>>