| 0 |
|
Комітет з безпеки та захисту, як називається група, складається з дев'яти членів. Його очолить генеральний директор OpenAI Сем Альтман (Sam Altman) і троє інших директорів, включаючи голову правління Брета Тейлора (Bret Taylor). П'ять інших членів комітету - інженерні керівники OpenAI Олександр Мадрі (Aleksander Madry), Ліліан Венг (Lilian Weng), Джон Шульман (John Schulman), Метт Найт (Matt Knight) і Якуб Пачоцкі (Jakub Pachocki).
Комітет було сформовано через кілька днів після того, як з'явилася інформація про те, що розробник GPT-4 розпустив внутрішню команду, яка займалася питаннями безпеки АІ. Команда Superalignment, як відомо, була створена в липні минулого року під керівництвом співзасновника OpenAI Іллі Суцкевера і тодішнього керівника відділу вирівнювання Яна Лейке ( (Jan Leike)). Вона зосередилася на зниженні ризиків, які можуть бути пов'язані з майбутніми системами штучного інтелекту компанії.
Суцкевер і Лейке покинули OpenAI на початку цього місяця. Лейке написав у пості на X після своєї відставки, що "останні кілька місяців моя команда пливла проти вітру". Повідомляється, що члени групи Superalignment або пішли у відставку, або приєдналися до інших команд в рамках OpenAI. Сьогодні Лейке приєднався до Anthropic PBC.
Група повністю складається з інсайдерів OpenAI, що, на думку деяких спостерігачів, може призвести до того, що незалежний нагляд буде незначним або взагалі відсутній.
Згідно з повідомленням компанії, першочерговим завданням нового комітету з безпеки та захисту буде визначення шляхів вдосконалення робочих процесів щодо зменшення ризиків у сфері АІ. Протягом 90 днів комітет подасть свої рекомендації на розгляд повного складу правління OpenAI. Після цього компанія планує публічно повідомити, які з рекомендацій будуть прийняті
Стратегія охолодження ЦОД для епохи AI
| 0 |
|

