Microsoft: хакеры начали использовать ИИ на всех этапах кибератак
Динмухамед Бейсембаев Автор
Киберпреступники всё активнее применяют инструменты искусственного интеллекта при подготовке и проведении атак, что ускоряет операции и упрощает многие технические задачи, пишет El.kz со ссылкой на Bleeping Computer.
Такие выводы содержатся в новом отчёте Microsoft Threat Intelligence. По данным аналитиков компании, злоумышленники используют генеративный ИИ на разных стадиях кибератак — от разведки и подготовки фишинговых кампаний до разработки вредоносного кода и действий после взлома.
Чаще всего языковые модели применяют для создания текстов и программного кода. С их помощью преступники пишут фишинговые письма, переводят сообщения на разные языки, анализируют украденные данные и исправляют ошибки в вредоносных программах. ИИ также помогает создавать скрипты и настраивать инфраструктуру, необходимую для проведения атак.
В Microsoft отмечают, что искусственный интеллект выступает своеобразным «ускорителем» киберпреступной активности. Он снижает технические барьеры и ускоряет выполнение задач, однако ключевые решения по целям атаки и её проведению по-прежнему принимают люди.
В таких операциях искусственный интеллект помогает создавать реалистичные цифровые личности. С его помощью формируются списки имён, электронные адреса, резюме и деловая переписка, что позволяет злоумышленникам выдавать себя за настоящих специалистов и получать доступ к корпоративным системам.
Кроме того, ИИ используют для анализа вакансий на платформах поиска работы. Инструменты автоматически выделяют необходимые навыки и требования к кандидатам, после чего мошенники корректируют под них фальшивые профили.
В отчёте также говорится, что преступники применяют ИИ для разработки вредоносного программного обеспечения. Системы генерации кода помогают писать новые элементы вредоносных программ, переносить их на другие языки программирования и устранять ошибки.
Исследователи также заметили, что злоумышленники используют искусственный интеллект для быстрого создания поддельных сайтов компаний и настройки инфраструктуры для атак. Если защитные механизмы ИИ пытаются блокировать подобные запросы, хакеры применяют так называемые техники «джейлбрейка», чтобы обойти ограничения и заставить модели генерировать вредоносный код. При этом специалисты отмечают, что автономные атаки с использованием ИИ пока встречаются редко. Чаще всего искусственный интеллект используется как инструмент поддержки, а решения остаются за человеком, - говорится в сообщении.
Эксперты предупреждают, что подобные схемы нередко связаны с использованием легитимного доступа к системам компаний. Поэтому организациям советуют рассматривать такие случаи как потенциальные внутренние угрозы и уделять больше внимания контролю доступа, защите учётных записей и предотвращению фишинговых атак.
Также El.kz сообщал о том, что китайские хакеры впервые провели почти полностью автономную кибератаку с помощью ИИ Anthropic.

