| 0 |
|
Компанія OpenAI оголосила про запуск GPT-5.4-Cyber — спеціалізованої версії своєї останньої моделі, розробленої виключно для оборонних завдань у сфері кібербезпеки.
Як повідомляється, нова модель є «кібер-пермісивною» (cyber-permissive), що означає зниження порогу відмов системи при виконанні специфічних технічних завдань, які зазвичай блокуються стандартними фільтрами безпеки. Однією з головних особливостей моделі стала можливість бінарного реверс-інжинірингу, що дозволяє аналізувати скомпільоване ПЗ на наявність malware та вразливостей без доступу до вихідного коду.
Разом із запуском моделі OpenAI значно розширює свою програму Trusted Access for Cyber, запущену в лютому. Тепер доступ до інструментів отримають тисячі перевірених професієналів та сотні команд безпеки. Програма запроваджує багаторівневу систему верифікації: найвищий рівень розблоковує повний потенціал GPT-5.4-Cyber. Індивідуальні користувачі можуть підтвердити свою особу через спеціальну сторінку на https://www.google.com/search?q=chatgpt.com, а підприємства — через своїх представників в OpenAI.
Цей реліз став відповіддю на запуск моделі Mythos від конкурента Anthropic минулого тижня, доступ до якої отримала лише обмежена група з 40 організацій. OpenAI обрала шлях ширшого охоплення, намагаючись забезпечити захисників інструментами, що випереджають можливості зловмисників. Компанія також відзначила успіхи свого продукту Codex Security, який допоміг виправити понад 3 000 критичних вразливостей у різних екосистемах з моменту його запуску в бета-версії.
OpenAI підкреслює, що підхід до розробки змінюється: замість повної заборони певних функцій компанія переходить до контролю доступу на основі ідентифікації користувача. У планах компанії — підготовка до ще потужніших моделей, які з'являться пізніше цього року. Усі майбутні релізи оцінюватимуться в межах концепції Preparedness Framework, виходячи з припущення, що кожна нова модель може досягти «високого» рівня кібернетичних можливостей.
Вихід GPT-5.4-Cyber знаменує перехід від "захисту через обмеження" до "захисту через верифікацію". OpenAI усвідомлює, що надто суворі етичні фільтри робили AI марним для реальних білих хакерів, залишаючи їх без інструментарію в той час, як зловмисники вже навчилися обходити ці бар'єри. Можливість бінарного аналізу — це стратегічний прорив, який дозволить автоматизувати найбільш рутинні та складні аспекти кіберзахисту.
Стратегія охолодження ЦОД для епохи AI
| 0 |
|

