Американские врачи взяли на вооружение страдающий от «галлюцинаций» ИИ-инструмент
Около 30 тысяч сотрудников американских медицинских учреждений используют в работе ИИ-инструмент для расшифровки записей Whisper от компании OpenAI, который страдает от «галлюцинаций» — регулярно придумывает куски высказываний за человека на записи,...
Около 30 тысяч сотрудников американских медицинских учреждений используют в работе ИИ-инструмент для расшифровки записей Whisper от компании OpenAI, который страдает от «галлюцинаций» — регулярно придумывает куски высказываний за человека на записи, сообщил в понедельник Ars Technica.
Доработанный для нужд здравоохранения помощник на основе Whisper полюбился американским медработникам, несмотря на предупреждение OpenAI не использовать ИИ-инструмент «в сопряжённых с высоким риском сферах».
Помимо придумывания не имевших места высказываний, помощник ещё и стирает оригинальные записи в целях сохранения врачебной тайны.
Причина, по которой врачи прибегают к пользованию откровенно «сырыми» инструментами, может быть обусловлена стремлением медицинских компаний снизить издержки, отмечает издание.
Напомним, в 2023 году британская служба здравоохранения задействовала ИИ для снижения количества «лишних обращений» в перегруженные больницы.
См. также:
- Apple выявила дефекты популярных языковых моделей в области логического мышления >>>
- Как ChatGPT использовали для написания новости — результат >>>