ИИ пишет код с уязвимостями: почти половина решений небезопасна - исследование
Динмухамед Бейсембаев Автор
Согласно новому исследованию компании Veracode, почти 45% программного кода, создаваемого при помощи больших языковых моделей (LLM), содержит уязвимости. Несмотря на внешний профессиональный вид и соответствие синтаксису, такой код нередко оказывается небезопасным для использования в продакшне, пишет El.kz со ссылкой на Techradar.
Анализ охватил свыше 100 различных LLM и 80 типовых задач по программированию. Выяснилось, что ни масштаб моделей, ни их недавняя дата выпуска не гарантируют более высокого уровня безопасности.
Модели действительно стали лучше справляться с синтаксисом, но это не означает, что они обеспечивают защиту от уязвимостей, - прокомментировал технический директор Veracode Йенс Вёсслинг.
Наибольшее количество уязвимостей было зафиксировано в коде на Java - более 70% примеров. Высокие показатели также наблюдаются в Python, C# и JavaScript, где доля небезопасных решений варьируется от 38% до 45%.
Особенно плохо языковые модели справляются с защитой от XSS-атак (86% сбоев) и log-инъекций (88%). При этом всё больше разработчиков используют ИИ не просто как вспомогательный инструмент, а как полноценного генератора решений.
Йенс Вёсслинг связывает ситуацию с новой тенденцией - так называемым «вайб-кодингом», когда приоритет отдаётся удобству, скорости и внешней завершённости, а не качеству архитектуры и безопасности. Это, по его мнению, меняет саму логику современной разработки.
В Veracode подчёркивают: будущее - за ассистентами и автоматизированными пайплайнами, но вопросы безопасности должны закладываться с самого начала. Эксперты призывают разработчиков использовать инструменты автоматической проверки, внедрять ИИ-решения для устранения уязвимостей и обучаться работе с генеративным кодом с учётом потенциальных рисков. В противном случае накопление уязвимостей может приобрести системный и необратимый характер.
El.kz также сообщал о 40 профессиях, которые могут исчезнуть из-за ИИ.

