Опублікована нова заява, підписана більш ніж 375 вченими та бізнес-лідерами, що попереджає про серйозні ризики зловживання штучним інтелектом. Також в ній йдеться про те, що потенційні проблеми, пов’язані з цією технологією, мають бути розглянуті так само терміново, як і пандемії та ядерна війна.
«Зниження ризику вимирання через АІ має бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна», - йдеться в заяві Центру безпеки АІ, некомерційної організації, що займається зниженням ризиків, пов’язаних зі штучним інтелектом.
Ця заява стала продовженням шквалу нещодавніх закликів дослідників АІ та компаній, що розробляють технології на основі штучного інтелекту, запровадити певну форму державного регулювання моделей, щоб запобігти їхньому зловживанню або створенню непередбачуваних негативних наслідків.
Раніше цього місяця Сем Альтман (Sam Altman) з OpenAI заявив у підкомітеті Сенату з питань правосуддя, що уряд США повинен розглянути питання про ліцензування або реєстрацію моделей АІ, а компанії, які їх розробляють, повинні дотримуватися «відповідного набору вимог безпеки, включаючи внутрішнє і зовнішнє тестування перед випуском і публікацією результатів оцінювання».
Минулого тижня Microsoft закликала ввести ряд правил для систем, що використовуються в критичній інфраструктурі, а також розширити закони, що роз’яснюють юридичні зобов’язання моделей АІ і маркування, які дають зрозуміти, коли комп’ютер виробляє зображення або відео.
Альтман, а також співзасновник OpenAI Ілля Суцкевер були серед тих, хто підписав нову заяву. Серед інших - Деміс Хассабіс (Demis Hassabis), виконавчий директор Google DeepMind; головний технічний директор Microsoft Кевін Скотт (Kevin Scott); експерт з кібербезпеки Брюс Шнайер (Bruce Schneier). Джеффрі Хінтон (Geoffrey Hinton), лауреат премії Тьюринга, який раніше цього місяця залишив Google через занепокоєння щодо потенціалу зловживань АІ, також підписав заяву.
Центр безпеки ШІ виділяє вісім основних ризиків, притаманних АІ. До них відносяться військова озброєність, зловмисна дезінформація і «знесилення», при якому «людство втрачає здатність до самоврядування і стає повністю залежним від машин.
Центр також висловлює побоювання, що висококомпетентні системи можуть дати невеликим групам людей занадто багато влади, демонструвати незрозумілу поведінку і навіть навмисно обманювати громадян.
Вся ця активність з’явилася після публічного релізу в листопаді минулого року інтелектуального чат-бота ChatGPT. Неймовірні інтерактивні можливості генеративної моделі привернули увагу до потенціалу штучного інтелекту.
Однак подальші повідомлення в ЗМІ, в яких детально описувалася схильність моделей іноді демонструвати химерну і «галюцинаторну» поведінку, також викликали занепокоєння з приводу того, що деякі моделі АІ працюють як «чорні скриньки», і стали приводом для закликів до більшої прозорості та підзвітності.
Не всі переконані в тому, що АІ може спричинити кінець світу, а дехто ставить під сумнів мотиви групи, яка так агресивно оприлюднила цю заяву.
«Якщо топ-менеджери провідних AI-компаній вважають, що технологія створює ризик вимирання людства, чому б їм не припинити роботу над ним замість того, щоб публікувати прес-релізи?» - написав розробник програмного забезпечення Даре Обасанджо (Dare Obasanjo).
Керівники підприємств були захоплені цією темою. Нещодавнє опитування топ-менеджерів, проведене компанією Gartner, показало, що Аі - це технологія, яка, на їхню думку, найбільш суттєво вплине на їхні галузі протягом наступних трьох років.
Стратегія охолодження ЦОД для епохи AI