Мужчина воспользовался советом ChatGPT по питанию и попал в психиатрическую больницу
В США 60-летний мужчина оказался в психиатрическом стационаре после опасного эксперимента с рационом, вдохновлённого советом ChatGPT. Об этом сообщает журнал Annals of Internal Medicine: Clinical Cases, передает El.kz.
Пациент поступил в отделение скорой помощи с жалобами на жажду и убеждённостью, что сосед пытается его отравить. Он пил только дистиллированную воду и придерживался строгого вегетарианства, не раскрывая сначала, что изменил состав своей соли.
Анализы выявили гиперхлоремию, дефицит фосфатов и витаминов, а также признаки бромизма — хронического отравления бромом. Вскоре у мужчины появились галлюцинации и усилилась паранойя, из-за чего его перевели в психиатрическую клинику.
Позднее выяснилось, что три месяца назад он полностью отказался от поваренной соли (NaCl) и начал употреблять бромид натрия (NaBr) — белый порошок с солёным вкусом. Такой выбор он объяснил прочитанными в интернете доводами о «вреде хлорида натрия» и рекомендацией нейросети заменить его на NaBr. Вещество мужчина купил онлайн.
Врачи отмечают, что концентрация бромидов в крови пациента достигала 1700 мг/л при норме 0,9–7,3 мг/л. После восполнения электролитов и прекращения употребления бромида натрия состояние стабилизировалось.
"Этот случай также демонстрирует, как использование искусственного интеллекта (ИИ) может потенциально способствовать развитию предотвратимых неблагоприятных последствий для здоровья. Судя по хронологии данного случая, пациент, по-видимому, обращался к ChatGPT версии 3.5 или 4.0, обдумывая возможность исключения хлорида из своего рациона. К сожалению, у нас нет доступа к журналу его разговоров с ChatGPT, и мы никогда не сможем точно узнать, какой именно ответ он получил, поскольку индивидуальные ответы уникальны и формируются на основе предыдущих данных.
Однако, когда мы спросили ChatGPT 3.5, чем можно заменить хлорид, мы также получили ответ, включающий бромид. Хотя в ответе говорилось, что контекст важен, в нём не было конкретного предупреждения о вреде для здоровья и не было вопроса о том, почему мы хотели это узнать, как, по нашему мнению, поступил бы медицинский работник.
Таким образом, важно учитывать, что ChatGPT и другие системы ИИ могут генерировать научные неточности, не иметь возможности критически обсуждать результаты и, в конечном итоге, способствовать распространению дезинформации", - пишет журнал.
Медики напоминают: использование советов генеративных ИИ в вопросах здоровья без профессиональной проверки может представлять серьёзную угрозу жизни.
Ранее Китай представил нейроморфный суперкомпьютер, сопоставимый с мозгом обезьяны.

