©El.kz/Марина РУЗМАТОВА/ ИИ (ChatGPT)

ИИ сможет делать компроментирующее фото: как защититься

Искусственный интеллект уже способен создавать реалистичные компрометирующие фотографии людей без их участия, и эксперты называют это одной из главных угроз цифровой эпохи. О масштабах проблемы и способах защиты пользователей, рассказывает El.kz со ссылкой на международные исследования.

Ещё совсем недавно фотография воспринималась как подтверждение факта. Однако к 2026 году ситуация изменилась настолько, что специалисты по кибербезопасности говорят о новом этапе информационной среды, где изображению доверяют значительно меньше, чем даже 3 года назад.

Развитие генеративных моделей позволило создавать изображения людей в любых обстоятельствах — от деловых встреч до откровенно компрометирующих сцен, которые никогда не происходили в реальности.

©El.kz/Марина РУЗМАТОВА/ ИИ (ChatGPT)

Deepfake вышел из политики в обычную жизнь

Если первые громкие случаи касались мировых лидеров и знаменитостей, то теперь основной целью становятся обычные пользователи. По данным британской организации Internet Watch Foundation, количество обращений, связанных с фейковыми изображениями частных лиц, выросло почти в 4 раза за последний период наблюдений.

Главная причина проста — технологии стали доступными и больше не требуют профессиональных навыков монтажа.

Как создаётся компрометирующее изображение

Современные нейросети обучаются на открытых фотографиях из интернета. Даже несколько снимков из социальных сетей позволяют алгоритму построить цифровую модель лица с точностью около 80 процентов визуального совпадения для неподготовленного наблюдателя.

©El.kz/Марина РУЗМАТОВА/ ИИ (ChatGPT)

После этого человека можно “поместить” практически в любую ситуацию, включая сцены, способные нанести репутационный ущерб.

Международные организации уже бьют тревогу

В отчётах OECD и UNICEF отмечается, что распространение синтетического контента стало новой формой цифрового насилия. Особую обеспокоенность вызывает использование ИИ против подростков и женщин, поскольку именно их изображения чаще всего становятся объектом манипуляций.

Исследования показывают, что значительная часть пользователей узнаёт о существовании поддельного контента только после его массового распространения.

©El.kz/Марина РУЗМАТОВА/ ИИ (ChatGPT)

Государства начали вводить ответственность

В течение последнего года несколько стран приняли законы против создания несанкционированных deepfake-изображений. В отдельных юрисдикциях публикация подобных материалов уже рассматривается как уголовное правонарушение, а штрафы могут достигать десятков тысяч долларов.

Европейский союз параллельно внедряет требования маркировки контента, созданного искусственным интеллектом.

Почему отличить подделку становится всё сложнее

Исследования университетов США показывают, что люди распознают ИИ-сгенерированные изображения лишь немного лучше случайного выбора, примерно в 60 процентах случаев.

©El.kz/Марина РУЗМАТОВА/ ИИ (ChatGPT)

Алгоритмы научились корректно воспроизводить освещение, текстуру кожи и даже мелкие эмоциональные детали, которые раньше выдавали фальсификацию.

Как снизить риск использования ваших фото

Эксперты по цифровой безопасности всё чаще говорят о необходимости личной цифровой гигиены. Ограничение публичного доступа к изображениям высокого качества существенно снижает вероятность использования фотографий для обучения моделей.

Особенно осторожно рекомендуется относиться к публикации крупных портретных снимков и фотографий с нейтральным фоном, которые легче всего обрабатываются нейросетями.

Если фейковое фото уже появилось

Специалисты советуют сразу фиксировать источник публикации и обращаться к администрации платформы. Практика показывает, что удаление контента наиболее эффективно в первые 24 часа после появления изображения в сети.

©El.kz/Марина РУЗМАТОВА/ ИИ (ChatGPT)

Дополнительно юристы рекомендуют сохранять доказательства распространения, поскольку во многих странах формируется судебная практика по защите цифровой репутации.

Мир вступает в эпоху проверки реальности

Технологические компании уже работают над системами подтверждения подлинности изображений прямо на уровне камеры устройства. Предполагается, что такие решения могут стать стандартом в течение ближайших 5 лет.

Парадокс цифровой эпохи заключается в том, что чем совершеннее становятся технологии создания изображений, тем важнее становится способность доказать, что фотография настоящая.

Как распознать дипфейк: фейковые видео заполонили Интернет.