Скриншот видео

Иллюзия или реальность: девушка показала, как ИИ может стать оружием мошенников

ИИ-обман нового уровня: девушка показала, как мошенники могут использовать нейросети — сообщает El.kz.

В Instagram набирает вирусную популярность видео, в котором блогер под ником natalieart.news показала, как искусственный интеллект способен убедительно подделывать лица, голоса и поведение известных людей. В ролике «участвуют» Ксения Собчак, Джек Воробей, Егор Крид, Жириновский, Шрек и другие «звёзды» — хотя на деле это полностью сгенерированные ИИ копии.

Суть видео — предупредить о том, насколько легко сегодня нейросети могут быть использованы в преступных схемах. Создательница ролика демонстрирует, что с помощью deepfake-технологий можно заставить «позвонить» любого человека, в том числе родственника или чиновника, и убедительно попросить перевести деньги или сообщить коды из SMS.

 
 
 
 
 
Посмотреть эту публикацию в Instagram
 
 
 
 
 
 
 
 
 
 
 

Публикация от Наталия Артамонова (@natalieart.news)

Пользователи в комментариях признались, что ролик вызвал у них тревогу.

«Теперь вообще никому нельзя верить», — пишут одни.

«Если бы мне позвонил Жириновский, я бы и коды сказал», — шутят другие.

«Это уже не шутки — скоро нас всех можно будет подставить», — отмечают третьи.

Многие комментаторы призвали законодательно обязать авторов помечать такие видео как созданные с помощью ИИ. Другие — признались, что теперь планируют завести «кодовые слова» в семье, чтобы защититься от возможных deepfake-звонков.

Эксперты по кибербезопасности предупреждают: с развитием генеративных нейросетей риск фальсификаций возрастает, и для защиты нужно использовать двухфакторную аутентификацию, личные кодовые фразы и недоверие к «чудесным» звонкам даже от близких.

Ранее новая волна дипфейков была зафиксирована в Казахстане.