Чат-боты выдают неверную информацию по запросам в 3-27% случаев — исследование
Чат-боты различных разработчиков склонны придумывать информацию как минимум в 3% случаев, а бывает, и в 27%, написала в понедельник газета The New York Times со ссылкой на исследование основанной бывшими работниками Google компании Vectara. Как отмеч...

Чат-боты различных разработчиков склонны придумывать информацию как минимум в 3% случаев, а бывает, и в 27%, написала в понедельник газета The New York Times со ссылкой на исследование основанной бывшими работниками Google компании Vectara.
Как отмечает издание, подобная тенденция — серьёзная проблема для тех, кто пользуется технологией при работе с судебными документами, медицинскими данными или с конфиденциальной информацией компаний.
В ходе эксперимента Vectara поставила перед различными чат-ботами простую задачу — пересказать содержание новостной статьи. Но даже в этом случае ИИ-системы непременно придумывали то, о чём в оригинальном тексте не сообщалось.
Исследователи считают, что это происходит потому, что чат-боты «не понимают поставленной задачи».
Напомним, о склонности сервисов генеративного ИИ выдумывать факты сообщалось и ранее. Так, при попытке пересказать новость один из сервисов указал неправильно имя и возраст жертвы, напутал с местом, где произошло событие, фальсифицировал цитату мэра Буэнос-Айреса, указал неверно имя мэра и пр.
См. также:
- Alphabet потеряла $100+ млрд после неудачной презентации ИИ-бота Bard >>>
- ChatGPT причислил австралийского борца с коррупцией ко взяточникам >>>