`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

В ЕС ухвалили AI Act, націлений на регулювання використання штучного інтелекту

0 
 
Європарламентом ухвалено AI Act, закон який встановлює вимоги для розробників систем на базі штучного інтелекту, та націлений на гарантування безпеки, прозорості та етичності використання АІ.
https://www.europarl.europa.eu/news/en/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-rules-on-artificial-intelligence
 
AI Act формулює зобов'язання для розробників і користувачів базуючись на оцінці ризиків використання штучного інтелекту.
 
Закон про штучний інтелект є флагманським законодавчим актом, який регулює використання АІ з огляду на його потенційну можливість заподіяння шкоди. Парламентські комітети з питань громадянських свобод та внутрішнього ринку спільно ухвалили текст закону переважною більшістю голосів.
 
Наступним кроком буде пленарне ухвалення, попередньо заплановане на 14 червня. Після того, як депутати Європарламенту формалізують свою позицію, пропозиція увійде в останню стадію законодавчого процесу, розпочавши переговори з Радою та Комісією ЄС.
 
"Ми стоїмо на порозі створення справжнього знакового законодавства для цифрового ландшафту не лише для Європи, але й для всього світу", - сказав Брандо Беніфей (Brando Benifei), один зі співдоповідачів документа, своїм колегам напередодні голосування.
 
Визначення штучного інтелекту є критично важливим аспектом законодавства, оскільки воно визначає сферу його застосування. Консервативні депутати Європарламенту домоглися узгодження визначення з пропозицією Організації економічного співробітництва та розвитку (ОЕСР), клубу 38 багатих країн.
 
"Система штучного інтелекту означає машинну систему, розроблену для роботи з різним рівнем автономії, що може, з явними або неявними цілями, генерувати такі результати, як прогнози, рекомендації або рішення, що впливають на фізичне або віртуальне середовище".
 
Закон про штучний інтелект забороняє конкретні застосування, такі як маніпулятивні методи та соціальний скоринг, які вважаються такими, що становлять неприйнятний ризик. Список цих заборонених практик був значно розширений за наполяганням лівоцентристських депутатів Європарламенту.
 
Заборона поширилася на моделі штучного інтелекту для біометричної категоризації, предиктивної поліцейської діяльності та сканування зображень обличчя для створення баз даних. Програмне забезпечення для розпізнавання емоцій заборонено використовувати в правоохоронних органах, управлінні кордонами та в освіті.
 
Біометричні системи ідентифікації, спочатку дозволені в особливих ситуаціях, таких як викрадення людей або терористичні атаки, були більш суперечливим питанням. Парламент мав більшість голосів за повну заборону, попри те, що консервативна Європейська народна партія чинила опір до останньої хвилини.
 
Початкова версія закону про АІ не включала в себе системи без конкретного призначення. Стрімкий успіх ChatGPT та інших великих мовних моделей змусив законодавців ЄС замислитися над тим, як найкраще регулювати цей тип АІ. Результатом став багаторівневий підхід.
 
За замовчуванням правила АІ не поширюватимуться на системи загального призначення (GPAI). Основна частина зобов'язань ляже на операторів, які інтегрують ці системи в додатки, що вважаються високоризиковими.
 
Однак постачальники GPAI повинні будуть підтримувати дотримання вимог операторами, які працюють далі, шляхом надання всієї необхідної інформації та документації щодо моделі штучного інтелекту.
 
Більш жорсткі вимоги пропонуються для базових моделей, потужних систем АІ загального призначення, таких як Stable Diffusion, які можуть забезпечувати роботу інших додатків АІ. Зобов'язання охоплюють управління ризиками, управління даними та рівень надійності фундаментальної моделі, який має бути перевірений незалежними експертами.
 
Верхній рівень призначений для генеративних моделей АІ, таких як ChatGPT, які повинні будуть розкривати інформацію про те, що текст згенерований штучним інтелектом. А також надавати детальний звіт про навчальні дані, на які поширюється дія закону про авторське право.
 
Регламент вводить більш суворий режим для високоризикованих додатків АІ. Спочатку високий ризик визначався на основі переліку критичних сфер і варіантів використання, наведених у Додатку III. Однак депутати Європарламенту прибрали цей автоматизм, додавши як додатковий рівень, що для того, щоб бути віднесеною до категорії високого ризику, система АІ також повинна становити значний ризик для здоров'я, безпеки або основних прав людей.
 
Якщо системи ШІ підпадають під дію Додатку III, але провайдери вважають, що значного ризику немає, вони повинні будуть повідомити про це відповідний орган, який матиме три місяці, щоб заперечити проти цього. За цей час провайдери зможуть запустити своє рішення зі штучного інтелекту, але за неправильну класифікацію будуть накладені штрафні санкції.
 
Додаток III також зазнав значних змін, завдяки чому формулювання стали більш точними у сферах критичної інфраструктури, освіти, зайнятості та доступу до основних послуг. Було розширено сфери правоохоронної діяльності, міграційного контролю та відправлення правосуддя.

Стратегія охолодження ЦОД для епохи AI

0 
 

Напечатать Отправить другу

Читайте также

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT