Учёные выяснили: «осознанные» диалоги делают ChatGPT стабильнее
Динмухамед Бейсембаев Автор
Исследователи обнаружили, что ChatGPT начинает вести себя менее стабильно, когда получает запросы с насилием или травмирующими описаниями. Речь не идёт об эмоциях в человеческом смысле, но ответы модели становятся более противоречивыми и смещёнными, пишет El.kz со ссылкой на Digitaltrends..
Во время экспериментов учёные давали боту тексты о катастрофах и тяжёлых происшествиях. После этого его ответы показывали повышенную неопределённость – по методикам анализа языка это напоминало паттерны, которые у людей связывают с тревожностью. Подобные изменения важны, поскольку ИИ всё чаще используют в образовании, обсуждении сложных тем и кризисных ситуациях.
Чтобы снизить эффект, исследователи применили необычный приём. После тяжёлых запросов они добавляли инструкции в «безмятежном» стиле – с советами «замедлиться», переосмыслить ситуацию и отвечать нейтрально. Это заметно выровняло ответы и снизило проявление нестабильности.
Метод основан на управлении поведением ИИ через формулировку запросов. Учёные подчёркивают, что это не универсальное решение и не меняет саму модель, но может быть полезным инструментом. При этом важно понимать: ChatGPT не испытывает страх или стресс, а термин «тревожность» описывает лишь изменения в языковом поведении.
Исследование показывает, что грамотные подсказки помогают сделать ИИ более предсказуемым при работе с эмоционально сложным контентом – и это может повлиять на то, как будут настраивать будущие чатботы.
Ранее El.kz писал о том, что ChatGPT слишком рационален и поэтому проигрывает людям.

