Искусственный интеллект уже способен создавать реалистичные компрометирующие фотографии людей без их участия, и эксперты называют это одной из главных угроз цифровой эпохи. О масштабах проблемы и способах защиты пользователей, рассказывает El.kz со ссылкой на международные исследования.
Ещё совсем недавно фотография воспринималась как подтверждение факта. Однако к 2026 году ситуация изменилась настолько, что специалисты по кибербезопасности говорят о новом этапе информационной среды, где изображению доверяют значительно меньше, чем даже 3 года назад.
Развитие генеративных моделей позволило создавать изображения людей в любых обстоятельствах — от деловых встреч до откровенно компрометирующих сцен, которые никогда не происходили в реальности.
Deepfake вышел из политики в обычную жизнь
Если первые громкие случаи касались мировых лидеров и знаменитостей, то теперь основной целью становятся обычные пользователи. По данным британской организации Internet Watch Foundation, количество обращений, связанных с фейковыми изображениями частных лиц, выросло почти в 4 раза за последний период наблюдений.
Главная причина проста — технологии стали доступными и больше не требуют профессиональных навыков монтажа.
Как создаётся компрометирующее изображение
Современные нейросети обучаются на открытых фотографиях из интернета. Даже несколько снимков из социальных сетей позволяют алгоритму построить цифровую модель лица с точностью около 80 процентов визуального совпадения для неподготовленного наблюдателя.
После этого человека можно “поместить” практически в любую ситуацию, включая сцены, способные нанести репутационный ущерб.
Международные организации уже бьют тревогу
В отчётах OECD и UNICEF отмечается, что распространение синтетического контента стало новой формой цифрового насилия. Особую обеспокоенность вызывает использование ИИ против подростков и женщин, поскольку именно их изображения чаще всего становятся объектом манипуляций.
Исследования показывают, что значительная часть пользователей узнаёт о существовании поддельного контента только после его массового распространения.
Государства начали вводить ответственность
В течение последнего года несколько стран приняли законы против создания несанкционированных deepfake-изображений. В отдельных юрисдикциях публикация подобных материалов уже рассматривается как уголовное правонарушение, а штрафы могут достигать десятков тысяч долларов.
Европейский союз параллельно внедряет требования маркировки контента, созданного искусственным интеллектом.
Почему отличить подделку становится всё сложнее
Исследования университетов США показывают, что люди распознают ИИ-сгенерированные изображения лишь немного лучше случайного выбора, примерно в 60 процентах случаев.
Алгоритмы научились корректно воспроизводить освещение, текстуру кожи и даже мелкие эмоциональные детали, которые раньше выдавали фальсификацию.
Как снизить риск использования ваших фото
Эксперты по цифровой безопасности всё чаще говорят о необходимости личной цифровой гигиены. Ограничение публичного доступа к изображениям высокого качества существенно снижает вероятность использования фотографий для обучения моделей.
Особенно осторожно рекомендуется относиться к публикации крупных портретных снимков и фотографий с нейтральным фоном, которые легче всего обрабатываются нейросетями.
Если фейковое фото уже появилось
Специалисты советуют сразу фиксировать источник публикации и обращаться к администрации платформы. Практика показывает, что удаление контента наиболее эффективно в первые 24 часа после появления изображения в сети.
Дополнительно юристы рекомендуют сохранять доказательства распространения, поскольку во многих странах формируется судебная практика по защите цифровой репутации.
Мир вступает в эпоху проверки реальности
Технологические компании уже работают над системами подтверждения подлинности изображений прямо на уровне камеры устройства. Предполагается, что такие решения могут стать стандартом в течение ближайших 5 лет.
Парадокс цифровой эпохи заключается в том, что чем совершеннее становятся технологии создания изображений, тем важнее становится способность доказать, что фотография настоящая.
Как распознать дипфейк: фейковые видео заполонили Интернет.