Популярные чат-боты на базе искусственного интеллекта нередко дают неточные ответы на медицинские вопросы. Согласно исследованию, опубликованному в BMJ Open, доля проблемных ответов достигает почти 50%, сообщает El.kz.
Ученые предупреждают: использовать такие сервисы для самодиагностики или выбора лечения может быть рискованно.
Что показало исследование
Работа под названием «Generative artificial intelligence-driven chatbots and medical misinformation» была опубликована в апреле 2026 года. В исследовании участвовали специалисты из Wake Forest University School of Medicine.
Эксперты протестировали пять популярных ИИ-сервисов: ChatGPT, Gemini, Meta AI, Grok и DeepSeek.
Им задали 250 вопросов по темам, где чаще всего встречается дезинформация: онкология, вакцинация, питание, стволовые клетки и спорт.
Почти 49,6% ответов оказались неточными или вводящими в заблуждение. При этом около 19,6% содержали критические ошибки, потенциально опасные для здоровья.
Почему ИИ ошибается
Главная причина - принцип работы таких систем. Они не «понимают» медицину, а формируют ответы на основе вероятностных моделей языка.
Это означает, что при наличии недостоверных данных в обучающей выборке бот может воспроизвести их как факт.
Дополнительная проблема - уверенный тон. Ответы формулируются так, будто информация проверена, даже если это не так.
Также ИИ не способен полноценно учитывать индивидуальные особенности пациента. В отличие от врача, он не собирает анамнез, не анализирует динамику состояния и не проводит обследование.
Еще один фактор - ограниченность данных. Модели могут не учитывать последние изменения в клинических рекомендациях.
Какие ошибки самые опасные
Исследователи выделяют несколько типов критических сбоев. ИИ может рекомендовать неправильные дозировки препаратов или не распознать симптомы, требующие срочной помощи.
В некоторых случаях серьезные состояния интерпретируются как менее опасные - например, признаки инфаркта могут быть ошибочно отнесены к тревожности.
Также фиксируются случаи, когда вместо обращения к врачу предлагаются альтернативные или неподтвержденные методы лечения.
Проблема «галлюцинаций»
Отдельное внимание уделено так называемым «галлюцинациям» - ситуациям, когда ИИ выдает несуществующие факты. В исследовании отмечено, что примерно в 40% случаев чат-боты приводили некорректные или вымышленные научные ссылки.
Это создает иллюзию достоверности и усложняет проверку информации пользователем.
Рост популярности ИИ в повседневной жизни усиливает риск неправильного использования таких инструментов. Медицинская информация требует точности и учета множества факторов, что пока остается сложной задачей для алгоритмов.
Даже при высокой скорости и удобстве ИИ не заменяет клиническое мышление врача.
Что делать пользователям
Эксперты рекомендуют использовать чат-боты только как вспомогательный инструмент.
С их помощью можно подготовить вопросы или разобраться в общих терминах. Однако решения о лечении и диагностике должны приниматься только с участием специалиста.
Главный вывод исследования - доверять ИИ в вопросах здоровья без консультации врача небезопасно.
Ранее мы рассказали, что в Шымкенте построят первый IT-город Казахстана