Еврокомиссия заявила о необходимости маркировки сгенерированных ИИ текстов и произведений
Компании, которые внедряют инструменты генеративного искусственного интеллекта (ИИ), такие как ChatGPT или Bard, потенциально способные «генерировать дезинформацию», должны помечать подобный контент в рамках борьбы с фейковыми новостями, сообщает в п...

Компании, которые внедряют инструменты генеративного искусственного интеллекта (ИИ), такие как ChatGPT или Bard, потенциально способные «генерировать дезинформацию», должны помечать подобный контент в рамках борьбы с фейковыми новостями, сообщает в понедельник Reuters со ссылкой на заявление еврокомиссара по вопросам ценностей и открытости Веры Юровой (Vera Jourova).
«Подписанты [Кодекса практик против дезинформации], интегрирующие генеративный ИИ в свои сервисы наподобие Bingchat (Microsoft) или Bard (Google), должны встроить необходимые защитные механизмы таким образом, чтобы эти сервисы не могли бы быть использованы злоумышленниками для генерации дезинформации», – пояснила Юрова.
«Подписанты, которые владеют сервисами с возможностью распространять созданную ИИ дезинформацию, должны внедрить технологию распознавания подобных материалов и их чёткой маркировки», – отметила еврокомиссар.
В мае, напомним, Европарламент согласовал новые положения законопроекта об ИИ. Так, создатели генеративных базовых моделей будут должны выполнять дополнительные требования для обеспечения прозрачности — указывать, что контент создан при помощи ИИ, разрабатывать модель использования ИИ таким образом, чтобы не допустить генерацию незаконного контента, а также публиковать сведения о защищённых авторскими правами данных, использованных при обучении ИИ-систем.
См. также: В Европарламенте согласовали ключевые положения готовящегося закона об ИИ >>>