© El.kz / Grok / Динмухамед БЕЙСЕМБАЕВ

Учёные скрывают помощь ChatGPT при публикации статей

12.09.2025 20:47

Искусственный интеллект всё чаще проникает в научные статьи и даже рецензии. Специальный инструмент показал, что многие авторы и рецензенты используют ChatGPT и другие ИИ, но предпочитают не раскрывать это, несмотря на правила журналов, рассказывает El.kz со ссылкой на Nature.

Анализ десятков тысяч рукописей выявил тревожную тенденцию: всё больше научных текстов пишутся не людьми, а алгоритмами. По данным Американской ассоциации по исследованию рака, в 2024 году почти четверть аннотаций и 5% рецензий оказались созданными при помощи ИИ. Однако лишь немногие авторы честно признались в этом.

Для проверки используется специальный инструмент, разработанный компанией Pangram Labs. Он способен выявлять характерные признаки машинного письма с точностью 99,85%. С его помощью были проанализированы десятки тысяч научных материалов за последние годы, и после появления ChatGPT количество «подозрительных» текстов выросло почти линейно.

Интересно, что после официального запрета использовать ИИ для рецензий, число таких случаев сначала резко упало, но вскоре вновь начало расти. Это говорит о том, что некоторые исследователи продолжают использовать запрещённые инструменты, несмотря на правила.

Особенно часто языковые модели применяются для разделов «Методы». Здесь риск особенно велик: любая неточность в формулировке может исказить результаты исследований. Более того, статьи с подозрительными аннотациями в 2025 году стали вдвое чаще отклоняться редакторами ещё на этапе предварительной проверки.

Эксперты отмечают: действующая политика раскрытия использования ИИ пока не работает. Многие авторы умалчивают о помощи алгоритмов, и это ставит под угрозу доверие к научным публикациям. По мнению исследователей, издателям придётся ужесточать контроль и, возможно, пересматривать систему проверки научных статей.

Также El.kz рассказывал, как OpenAI разрабатывает GPT-6 с долговременной памятью и эмпатией.