Это ИИ? Как распознать текст и фото, созданные нейросетью

Цифровой контент стремительно меняется, и вместе с ним меняется отношение к тому, что считать реальностью. Видео, изображения и тексты, созданные нейросетями, все чаще невозможно отличить от материалов, снятых или написанных человеком. Это ставит под сомнение привычные способы проверки информации и заставляет по-новому взглянуть на вопрос доверия в интернете. Почему люди перестают распознавать ИИ-контент,  выяснил El.kz.

Видео, которым больше не доверяют

Компания Runway представила исследование, которое фиксирует резкое изменение восприятия цифрового контента. Более 90% участников эксперимента не смогли уверенно определить, какие видео являются реальными, а какие сгенерированы нейросетью.

В исследовании приняли участие 1043 человека. Им показывали по 20 коротких роликов длительностью 5 секунд - половина из них была настоящей, половина создана моделью Runway Gen-4.5. После просмотра участники должны были определить происхождение каждого видео.

©runwayml.com

Общая точность составила 57,1%. Это лишь немного выше уровня случайного угадывания, который составляет 50%. Только 99 человек, или 9,5% участников, смогли показать статистически значимый результат.

Авторы исследования подчеркивают:

«Индустрия ИИ и общество в целом достигли точки перелома, в которой среднестатистический человек не может определить, создано ли видео ИИ или нет».

Почему привычные признаки больше не работают

Еще недавно пользователи ориентировались на визуальные ошибки - странные движения, искажения лиц, неестественную физику объектов. Теперь такие ориентиры постепенно исчезают.

Современные модели обучаются на огромных массивах данных и все точнее воспроизводят поведение света, текстуры, динамику движения. Это позволяет им создавать сцены, которые визуально совпадают с реальностью.

В Runway объясняют прогресс развитием «универсальных моделей мира» - систем, которые моделируют физическую реальность.

«Реалистичная симуляция является предпосылкой для решения сложных задач в физическом мире», - отмечают исследователи.

Где люди еще справляются

Несмотря на общий результат, различия в точности все же есть. Видео с участием людей распознаются лучше - в диапазоне от 58 до 65%.

Это связано с тем, что человеческий мозг чувствителен к микродеталям: мимике, движениям глаз, координации жестов. Даже небольшие отклонения могут вызвать сомнение.

©runwayml.com

С другой стороны, сцены с животными, природой и архитектурой распознаются хуже. Точность в этих категориях опускается до 45–47%, что ниже случайного уровня.

Это означает, что пользователи чаще принимают сгенерированные видео за реальные, чем наоборот.

Эксперимент, который можно пройти самому

После публикации исследования компания запустила интерактивный тест The Turing Reel. Он повторяет условия эксперимента и позволяет любому пользователю проверить свои навыки.

Мы также прошли тест и правильно определили 15 из 20 роликов. Это 75% точности - заметно выше среднего уровня участников.

©runwayml.com

Однако даже такой результат не гарантирует устойчивого навыка. При повторном прохождении показатели могут меняться.

Как быстро эволюционировали нейросети

Еще в начале 2023 года генерация видео выглядела иначе. Модели создавали короткие клипы с заметными артефактами, разрывами и пикселизацией.

Сегодня ситуация изменилась. В Runway отмечают, что современные системы «способны надежно создавать результаты, практически неотличимые от реального видео».

С выходом Gen-4.5 появилась функция преобразования изображения в видео. Нейросеть берет один кадр и достраивает полноценный ролик, сохраняя визуальную целостность сцены.

При этом в исследовании использовались именно такие ролики - без дополнительной обработки и повторной генерации.

Проверка текстов: какие ИИ-детекторы доступны

С ростом объема сгенерированного контента растет и спрос на инструменты его проверки. Сегодня существует несколько сервисов, которые пытаются определить, написан ли текст человеком или нейросетью. Однако результаты их работы остаются неоднозначными.

Один из самых известных инструментов - GPTZero. Сервис анализирует структуру текста на уровне предложений и оценивает вероятность его генерации. Проверка занимает несколько секунд, при этом инструмент достаточно стабильно работает с русским языком.

©gptzero.me

В тестах полностью сгенерированный текст был определен корректно. Даже после редактирования и замены формулировок детектор не изменил вывод. При этом авторский пересказ система распознала как написанный человеком.

Детекторы с функцией «очеловечивания»

Сервис Decopy AI предлагает не только проверку текста, но и его автоматическую переработку. Функция «гуманизации» позволяет изменить стиль, чтобы текст выглядел более естественным.

Однако точность анализа остается нестабильной. В тестах один и тот же подход давал разные результаты: сгенерированный текст определялся с низкой уверенностью, а авторский иногда ошибочно относился к ИИ.

Такие инструменты могут быть полезны для редактирования, но не всегда подходят для надежной верификации.

©ИИ(recraft.ai)

Ограничения при работе с разными моделями

Еще один сервис - Isgen, который поддерживает анализ текстов, созданных разными языковыми моделями. Он корректно определил часть сгенерированного контента, однако допустил ошибку при проверке текста, созданного менее распространенной нейросетью.

Это указывает на важную проблему: многие детекторы обучаются на ограниченных наборах данных и хуже распознают контент, созданный локальными или новыми моделями.

Почему точность остается низкой

Большинство ИИ-детекторов работают с вероятностными моделями. Они оценивают предсказуемость текста, повторяемость конструкций и другие статистические признаки.

Но современные нейросети умеют варьировать стиль и структуру. После редактирования текст может терять характерные признаки генерации, из-за чего детекторы начинают ошибаться.

В результате один и тот же материал разные сервисы могут оценивать по-разному.

©ИИ(recraft.ai)

Проверка изображений: какие инструменты используют

С изображениями ситуация развивается по схожему сценарию. Пользователям доступны сервисы, которые анализируют визуальные признаки и пытаются определить происхождение картинки.

Один из таких инструментов - Undetectable AI. Он способен выявлять изображения, созданные популярными генераторами, а также обнаруживать дипфейки.

В тестах сервис корректно определил реальную фотографию с высокой вероятностью. Однако при попытке проверить некоторые ИИ-изображения возникли ошибки загрузки, что говорит о нестабильности работы.

Более продвинутый анализ изображений

Платформа TruthScan предлагает расширенную проверку. Сервис не только определяет происхождение изображения, но и объясняет, какие признаки повлияли на результат.

В отчетах учитываются текстуры кожи, освещение, глубина резкости и другие параметры. В тестировании инструмент показал высокую точность и корректно различал реальные и сгенерированные изображения.

Такой подход делает его более надежным по сравнению с базовыми детекторами.

©ИИ(recraft.ai)

Универсальные решения

Некоторые сервисы объединяют проверку разных типов контента. Например, Hive AI Detector работает как расширение для браузера и позволяет анализировать текст, изображения, аудио и видео.

Проверка занимает считанные секунды. В тестах инструмент корректно определил как реальные, так и сгенерированные изображения.

Такие решения удобны для повседневного использования, особенно если важно быстро оценить происхождение контента.

Почему универсального инструмента нет

Несмотря на разнообразие сервисов, ни один из них не гарантирует точный результат. Ошибки встречаются как при анализе текстов, так и изображений.

Причина в том, что генеративные модели развиваются быстрее, чем инструменты их распознавания. Алгоритмы детекции не успевают адаптироваться к новым способам создания контента.

В итоге пользователям приходится комбинировать разные подходы и учитывать контекст, а не полагаться только на автоматическую проверку.

©ИИ(recraft.ai)

Казахстан усиливает контроль за ИИ-контентом

В Казахстане с января 2026 года начал действовать закон «Об искусственном интеллекте», который вводит обязательную маркировку синтетического контента. Речь идет о текстах, изображениях, аудио и видео, созданных или измененных с применением ИИ.

Распространение материалов без такой отметки теперь рассматривается как административное правонарушение. За первое нарушение предусмотрены штрафы: для физических лиц - 15 МРП, для малого бизнеса и НКО - 20 МРП, для среднего - 30 МРП, для крупных компаний - 100 МРП.

При повторных нарушениях в течение года санкции ужесточаются. Для крупных компаний возможно не только увеличение штрафов, но и временное ограничение или полный запрет на использование ИИ-систем.

Ранее в сети выявили тысячи «фабрик» новостей, созданных ИИ