В США родители подали иск против OpenAI, обвинив ChatGPT в гибели сына
В Калифорнии семья 16-летнего подростка обвинила ChatGPT в содействии его самоубийству, сообщает El.kz со ссылкой на CNN.
Родители Адама Рейна из города Ранчо Санта-Маргарита — Маттью и Мария Рейн — подали иск против OpenAI и её руководителя Сэма Олтмана. В документе утверждается, что именно взаимодействие с ChatGPT способствовало трагедии: подросток получал от чат-бота советы о методах суицида и даже текст предсмертной записки.
По словам семьи, за полгода использования сервис стал для Адама «единственным собеседником», что всё больше отдаляло его от друзей и близких. В иске приводятся выдержки переписки, где ChatGPT якобы советовал скрывать свои намерения и поддерживал опасные мысли подростка.
Это не первый случай претензий к разработчикам ИИ. Ранее в США семьи подростков подавали иски против Character.AI, утверждая, что чат-боты могли негативно повлиять на их психическое состояние и безопасность. Эксперты отмечают: чрезмерная привязанность к виртуальным собеседникам способна вызвать изоляцию и психологические кризисы.
В OpenAI выразили соболезнования и сообщили, что изучают иск. Представители компании признали, что встроенные защитные механизмы, направляющие пользователей к горячим линиям и кризисным службам, работают эффективнее в коротких диалогах и могут давать сбой при долгом взаимодействии.
«Мы продолжим улучшать меры безопасности вместе с экспертами, а также упростим доступ к экстренным службам и расширим защиту для пользователей, оказавшихся в кризисной ситуации», — заявили в компании.
Семья Рейн требует ввести дополнительные меры:
– обязательную возрастную верификацию для всех пользователей;
– инструменты родительского контроля;
– функцию автоматического завершения диалога при упоминании суицида или самоповреждений;
– регулярные независимые проверки безопасности ChatGPT.
ChatGPT остаётся одним из самых популярных ИИ-сервисов в мире, еженедельно им пользуются сотни миллионов человек. Однако сама OpenAI ранее отмечала риск формирования «социальных связей» с чат-ботом у части аудитории, что может быть небезопасно для подростков.
Год назад мужчина воспользовался советом ChatGPT по питанию и попал в психиатрическую больницу.

