Врач рассказала, как ИИ чуть не погубил ее пациентку
В эпоху стремительного развития технологий всё больше людей обращаются за медицинскими советами к нейросетям и чат-ботам. Однако опыт показывает, что такие консультации могут быть опасны для здоровья. Невролог Ирина Галеева поделилась историей, которая наглядно демонстрирует риски отказа от очного приёма у специалиста, сообщает интернет-портал El.kz.
По словам врача, многие её пациенты всё чаще консультируются у искусственного интеллекта по поводу лечения и диагностики. Чтобы проверить, насколько это безопасно, Галеева сама провела эксперимент.
«ChatGPT угробил мою пациентку. Многие консультируются у нейросетей по поводу здоровья. Я невролог и решила проверить, сможет ли ChatGPT помочь пациенту с мигренью. Я притворилась такой пациенткой. Начало было хорошее. Чат GPT прислал огромный список вопросов, которые я и сама задаю на приёме. Я ответила как типичная пациентка с мигренью», - рассказала она.
Однако далее ситуация, по её словам, пошла по опасному сценарию.
«GPT заподозрил совсем другие диагнозы - «головную боль напряжения», «тензионную головную боль», что вообще одно и то же, а ещё «цервикогенную головную боль», хотя в большинстве случаев это является мракобесным диагнозом. Он отправил меня на бесполезные исследования типа МРТ головного мозга, МРТ шейного отдела позвоночника, УЗИ сосудов шеи, которые никак не связаны даже с головной болью напряжения», — уточнила Галеева.
Невролог подчеркнула, что искусственный интеллект проигнорировал важный симптом — частый приём обезболивающего препарата.
«А ещё он проигнорировал огромный красный флаг — это частый приём обезболивающих. Я уже рассказывала, почему приём подобных препаратов опасен при головной боли, а ещё GPT считает, что их можно принимать 2–3 раза в неделю. Приём обезболивающих всего лишь два раза в неделю на протяжении трёх месяцев и более грозит мучительной лекарственной головной болью и повреждением внутренних органов», — предупредила специалист.
История Ирины Галеевой вызвала активное обсуждение среди пользователей соцсетей. Одни благодарили врача за откровенность и напоминание о рисках, другие делились личным опытом онлайн-консультаций.
«Мне ДипСик поставил диагноз (точнее дал подозрение, подтвердили анализы), спустя 2 года мучений, адских болей, врачей и сдачи всех анализов сосудов для МРТ всех органов».
«Мне кажется, такие нейронки должны выдавать какую-то краткую информацию и дальше говорить, что не могут быть вопросы по вашим симптомам и т.д.»
«Приходила к врачу, он назвал анализы, посмотрел анализы, сказал свое слово, потом по вкинула симптомы ИИ, назвал мне те же самые анализы, потом по их результатам выяснилось все то же самое, что и врач».
Медики отмечают, что нейросети могут быть полезны для справочной информации или как вспомогательный инструмент, но не могут заменить профессиональную диагностику. Только очный приём, сбор анамнеза и анализ медицинской документации позволяют поставить точный диагноз и назначить безопасное лечение.
Эксперты подчёркивают: использование искусственного интеллекта без контроля врача может привести к неверной интерпретации симптомов, лишним обследованиям, опасным рекомендациям по препаратам и, как следствие, ухудшению здоровья.
Ранее мы рассказали, что исследователи выявили скрытые формы лжи у ИИ.

