Врач рассказала, как ИИ чуть не погубил ее пациентку

Врач рассказала, как ИИ чуть не погубил ее пациентку

В эпоху стремительного развития технологий всё больше людей обращаются за медицинскими советами к нейросетям и чат-ботам. Однако опыт показывает, что такие консультации могут быть опасны для здоровья. Невролог Ирина Галеева поделилась историей, которая наглядно демонстрирует риски отказа от очного приёма у специалиста, сообщает интернет-портал El.kz.

По словам врача, многие её пациенты всё чаще консультируются у искусственного интеллекта по поводу лечения и диагностики. Чтобы проверить, насколько это безопасно, Галеева сама провела эксперимент.

«ChatGPT угробил мою пациентку. Многие консультируются у нейросетей по поводу здоровья. Я невролог и решила проверить, сможет ли ChatGPT помочь пациенту с мигренью. Я притворилась такой пациенткой. Начало было хорошее. Чат GPT прислал огромный список вопросов, которые я и сама задаю на приёме. Я ответила как типичная пациентка с мигренью», - рассказала она.

Однако далее ситуация, по её словам, пошла по опасному сценарию.

«GPT заподозрил совсем другие диагнозы - «головную боль напряжения», «тензионную головную боль», что вообще одно и то же, а ещё «цервикогенную головную боль», хотя в большинстве случаев это является мракобесным диагнозом. Он отправил меня на бесполезные исследования типа МРТ головного мозга, МРТ шейного отдела позвоночника, УЗИ сосудов шеи, которые никак не связаны даже с головной болью напряжения», — уточнила Галеева.

Невролог подчеркнула, что искусственный интеллект проигнорировал важный симптом — частый приём обезболивающего препарата.

«А ещё он проигнорировал огромный красный флаг — это частый приём обезболивающих. Я уже рассказывала, почему приём подобных препаратов опасен при головной боли, а ещё GPT считает, что их можно принимать 2–3 раза в неделю. Приём обезболивающих всего лишь два раза в неделю на протяжении трёх месяцев и более грозит мучительной лекарственной головной болью и повреждением внутренних органов», — предупредила специалист.

История Ирины Галеевой вызвала активное обсуждение среди пользователей соцсетей. Одни благодарили врача за откровенность и напоминание о рисках, другие делились личным опытом онлайн-консультаций.

«Мне ДипСик поставил диагноз (точнее дал подозрение, подтвердили анализы), спустя 2 года мучений, адских болей, врачей и сдачи всех анализов сосудов для МРТ всех органов».

«Мне кажется, такие нейронки должны выдавать какую-то краткую информацию и дальше говорить, что не могут быть вопросы по вашим симптомам и т.д.»

«Приходила к врачу, он назвал анализы, посмотрел анализы, сказал свое слово, потом по вкинула симптомы ИИ, назвал мне те же самые анализы, потом по их результатам выяснилось все то же самое, что и врач».

Медики отмечают, что нейросети могут быть полезны для справочной информации или как вспомогательный инструмент, но не могут заменить профессиональную диагностику. Только очный приём, сбор анамнеза и анализ медицинской документации позволяют поставить точный диагноз и назначить безопасное лечение.

Эксперты подчёркивают: использование искусственного интеллекта без контроля врача может привести к неверной интерпретации симптомов, лишним обследованиям, опасным рекомендациям по препаратам и, как следствие, ухудшению здоровья.

Ранее мы рассказали, что исследователи выявили скрытые формы лжи у ИИ.