Почти половина ответов — с ошибками: чем опасны медицинские советы ИИ

 ©ИИ (recraft.ai)
Фото: ©ИИ (recraft.ai)

Популярные чат-боты на базе искусственного интеллекта нередко дают неточные ответы на медицинские вопросы. Согласно исследованию, опубликованному в BMJ Open, доля проблемных ответов достигает почти 50%, сообщает El.kz.

Ученые предупреждают: использовать такие сервисы для самодиагностики или выбора лечения может быть рискованно.

Что показало исследование

Работа под названием «Generative artificial intelligence-driven chatbots and medical misinformation» была опубликована в апреле 2026 года. В исследовании участвовали специалисты из Wake Forest University School of Medicine.

Эксперты протестировали пять популярных ИИ-сервисов: ChatGPT, Gemini, Meta AI, Grok и DeepSeek.

Им задали 250 вопросов по темам, где чаще всего встречается дезинформация: онкология, вакцинация, питание, стволовые клетки и спорт.

Почти 49,6% ответов оказались неточными или вводящими в заблуждение. При этом около 19,6% содержали критические ошибки, потенциально опасные для здоровья.

Почему ИИ ошибается

Главная причина - принцип работы таких систем. Они не «понимают» медицину, а формируют ответы на основе вероятностных моделей языка.

Это означает, что при наличии недостоверных данных в обучающей выборке бот может воспроизвести их как факт.

Дополнительная проблема - уверенный тон. Ответы формулируются так, будто информация проверена, даже если это не так.

Также ИИ не способен полноценно учитывать индивидуальные особенности пациента. В отличие от врача, он не собирает анамнез, не анализирует динамику состояния и не проводит обследование.

Еще один фактор - ограниченность данных. Модели могут не учитывать последние изменения в клинических рекомендациях.

Какие ошибки самые опасные

Исследователи выделяют несколько типов критических сбоев. ИИ может рекомендовать неправильные дозировки препаратов или не распознать симптомы, требующие срочной помощи.

В некоторых случаях серьезные состояния интерпретируются как менее опасные - например, признаки инфаркта могут быть ошибочно отнесены к тревожности.

Также фиксируются случаи, когда вместо обращения к врачу предлагаются альтернативные или неподтвержденные методы лечения.

Проблема «галлюцинаций»

Отдельное внимание уделено так называемым «галлюцинациям» - ситуациям, когда ИИ выдает несуществующие факты. В исследовании отмечено, что примерно в 40% случаев чат-боты приводили некорректные или вымышленные научные ссылки.

Это создает иллюзию достоверности и усложняет проверку информации пользователем.

Рост популярности ИИ в повседневной жизни усиливает риск неправильного использования таких инструментов. Медицинская информация требует точности и учета множества факторов, что пока остается сложной задачей для алгоритмов.

Даже при высокой скорости и удобстве ИИ не заменяет клиническое мышление врача.

Что делать пользователям

Эксперты рекомендуют использовать чат-боты только как вспомогательный инструмент.

С их помощью можно подготовить вопросы или разобраться в общих терминах. Однако решения о лечении и диагностике должны приниматься только с участием специалиста.

Главный вывод исследования - доверять ИИ в вопросах здоровья без консультации врача небезопасно.

Ранее мы рассказали, что в Шымкенте построят первый IT-город Казахстана

El рекомендует