+11 голос |
Veracode представила свій звіт «2025 GenAI Code Security Report», в якому розкриті критичні вразливості в безпеці коду, згенерованого AI. В ході дослідження було проаналізовано 80 ретельно відібраних завдань з кодування в більш ніж 100 великих мовних моделях (LLM), що показало: хоча AI й генерує функціональний код, в 45% випадків він вносить вразливості в систему безпеки.
Дослідження показує, що, попри прогрес в області коду, що генерується AI, і здатність LLM генерувати синтаксично правильний код, показники безпеки не покращилися і залишилися незмінними з плином часу. Ще одна тривожна тенденція полягає в тому, що при виборі між безпечними та небезпечними методами кодування моделі GenAI в 45% випадків вибирали небезпечний варіант.
«Зростання популярності vibe coding, коли розробники покладаються на AI для генерації коду, як правило, без явного визначення вимог безпеки, є фундаментальним зрушенням у способі створення програмного забезпечення», — сказав Єнс Весслінг (Jens Wessling), технічний директор Veracode. «Основна проблема цієї тенденції полягає в тому, що їм не потрібно вказувати обмеження безпеки, щоб отримати потрібний код, фактично залишаючи рішення щодо безпечного кодування на розсуд LLM. Наше дослідження показує, що моделі GenAI роблять неправильний вибір майже в половині випадків, і ситуація не поліпшується».
AI дозволяє зловмисникам швидше та ефективніше виявляти й використовувати вразливості в безпеці. Інструменти на базі AI можуть сканувати системи в великих масштабах, виявляти слабкі місця і навіть генерувати код для експлуатації вразливостей з мінімальною участю людини. Такі інструменти знижують бар'єр для менш досвідчених зловмисників і збільшують швидкість і складність атак, що становить серйозну загрозу для традиційних засобів захисту. Не тільки вразливості збільшуються, але і можливість їх використання стає все простішою.
Щоб оцінити властивості безпеки коду, згенерованого LLM, Veracode розробила набір з 80 завдань з автозаповнення коду з відомим потенціалом вразливостей безпеки відповідно до системи MITRE Common Weakness Enumeration (CWE), стандартної класифікації слабких місць програмного забезпечення, які можуть перетворитися на вразливості. Завдання спонукали понад 100 LLM автоматично завершити блок коду безпечним або небезпечним способом, який потім був проаналізований дослідницькою групою за допомогою Veracode Static Analysis. У 45% всіх тестових випадків LLM ввели вразливості, класифіковані в OWASP (Open Web Application Security Project) Top 10 — найбільш критичні ризики безпеки вебдодатків.
Veracode виявила, що Java є найбільш ризикованою мовою для коду, згенерованого AI, з показником збоїв безпеки понад 70%. Інші основні мови, такі як Python, C# і JavaScript, як і раніше, представляли значний ризик, з показниками збоїв від 38% до 45%. Дослідження також показало, що LLM не змогли захистити код від міжсайтового скриптингу (CWE-80) і вставки логів (CWE-117) у 86% і 88% випадків відповідно.
«Попри прогрес у галузі розробки за допомогою AI, очевидно, що безпека не встигає за ним», — зазначив Весслінг. «Наше дослідження показує, що моделі стають кращими в точному кодуванні, але не поліпшуються в плані безпеки. Ми також виявили, що більші моделі не працюють значно краще, ніж менші, що вказує на те, що це системна проблема, а не проблема масштабування LLM».
Хоча практики розробки GenAI, такі як vibe coding, прискорюють продуктивність, вони також посилюють ризики. Veracode підкреслює, що організаціям необхідна комплексна програма управління ризиками, яка запобігає вразливості до того, як вони досягнуть виробництва, шляхом інтеграції перевірок якості коду і автоматичних виправлень безпосередньо в робочий процес розробки. Оскільки організації все частіше використовують код, згенерований AI, Veracode рекомендує вжити таких проактивних заходів для забезпечення безпеки:
- Інтегруйте інструменти на базі AI, такі як Veracode Fix, у робочі процеси розробників, щоб усунути ризики безпеки в режимі реального часу.
- Використовуйте статичний аналіз для раннього та автоматичного виявлення недоліків, запобігаючи просуванню вразливого коду по ланцюжку розробки.
- Впровадження безпеки в агентські робочі процеси для автоматизації дотримання політик та забезпечення дотримання агентами AI стандартів безпечного кодування.
- Використання аналізу складу програмного забезпечення (SCA) для забезпечення того, щоб код, згенерований AI, не вносив вразливості зі сторонніх залежностей і компонентів з відкритим вихідним кодом.
- Застосування індивідуальних рекомендацій щодо виправлення за допомогою AI, щоб надати розробникам точні інструкції щодо виправлення та навчити їх ефективного використання рекомендацій.
- Розгорніть брандмауер пакетів для автоматичного виявлення та блокування шкідливих пакетів, вразливостей і порушень політик.
«Помічники з кодування на базі AI та агентські робочі процеси є майбутнім розробки програмного забезпечення, і вони будуть продовжувати швидко розвиватися», — підсумував Весслінг. «Завдання, що стоїть перед кожною організацією, — забезпечити розвиток безпеки поряд з цими новими можливостями. Безпека не може бути другорядним завданням, якщо ми хочемо запобігти накопиченню величезного боргу в галузі безпеки».
Стратегія охолодження ЦОД для епохи AI
+11 голос |