`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Штучний інтелект. Європейський вимір

+33
голоса

Офіційна позиція Європейського Союзу з концептуальних питань штучного інтелекту отримала неочікуваний розвиток.

Європейський парламент ще у кінці минулого року прийняв пакет резолюцій з регулювання штучного інтелекту в частині етичних аспектів, режиму відповідальності та прав інтелектуальної власності. Досвід із відомим як GDPR актом про захист персональних даних, вплив якого поширився далеко за межі ЄС, робить ці законодавчі ініціативи зовсім не другорядними.

Ці резолюції складаються з запропонованих проектів регуляторних актів й обґрунтувань на користь їх впровадження. З огляду на особливості законотворчої процедури, дослівне збереження втіленого у проектах змісту регуляторних актів — це далеко не факт. А ось наведені в обґрунтування позиції, з яких виходив Європейський парламент заслуговують на увагу. Адже ініціювання цих питань з цих позицій отримало підтримку парламентарів у більш ніж 80% голосів «за», та саме врахування цих позицій матиме вирішальне значення для кінцевого змісту регуляторних актів.

Окрім вже набивших оскому висловлювань, Європейський парламент вийшов з низкою цікавих позицій, що характеризують погляд на штучний інтелект.

Щодо етичних аспектів:

• розробка, впровадження та використання ШІ здійснюється людьми, та їх вибір визначає потенціал технології

• правове регулювання ШІ має підкорятися принципам прозорості, здатності до пояснення, справедливості, відповідального ставлення, відповідальності

• правове регулювання має бути розраховане на майбутнє, ліквідовувати лише існуючі правові прогалини, підвищуючи правову визначеність одночасно для бізнесу та громадян

• за неналежного використання, ШІ може загрожувати фундаментальним правам на свободу слова й інформації, а також свободі ЗМІ і розмаїттю думок

• правове регулювання має поширюватися на ШІ розроблений, впроваджений чи використовуваний на території ЄС, та на випадки знаходження частини технології за межами ЄС й випадки відсутності будь-якого конкретного місця розташування

• існує асиметрія між тими, хто запроваджує ШІ та тими, хто взаємодіє з ним й підпадає під його дію

• ШІ з високим ризиком має розроблятися із забезпеченням можливості участі людини, демократичного нагляду та повернення контролю людині за потреби

• споживачі мають бути наділені правом на зрозумілу, своєчасну, стандартизовану, точну й доступну інформацію щодо наявності ШІ, логіки алгоритмічних систем та можливих їх результатів й впливів на споживачів, щодо того, як дістатися людини із повноваженнями прийняття рішень та як рішення систем мають бути перевірені, оскаржені й виправленні

• питання упередженості й дискримінації мають вирішуватися зокрема через набори даних з усування упередженості та правила обробки даних

• ШІ має виключати створення досьє на осіб, бути вільним від упередження й дискримінації задля ефективної боротьби з викривленими новинами й дезінформацією

• екологічний вплив ШІ підлягає оцінюванню впродовж життєвого циклу, включаючи видобування необхідних матеріалів, споживання енергії та викиди парникових газів

• впровадження ШІ у процедури прийняття владних рішень може втілюватися у брутальне нецільове використання, як от масові стеження, застосування правоохоронних заходів на упередження та порушення права на додержання процедури

• із технологією з забезпечення автоматизованих рішень слід поводитись із найбільшою пересторогою, особливо у сфері правосуддя й правоохоронної діяльності

• правове регулювання має поширюватися на всіх розробників та всіх, з ким вони перебувають у прямих або опосередкованих відносинах з цього приводу

• у випадках залучення публічних фінансів, код, генеровані дані та тренована модель ШІ мають бути визначені як загальнодоступні за замовчуванням

• має бути встановлено міжнародну заборону на системи смертельної автономної зброї із здійсненням ударів поза ґрунтовним людським контролем та без додержання принципу наявності людини у процесі, що відповідає позиції провідних світових дослідників ШІ у їх відкритому листі 2015 року

• ШІ є технологією подвійного призначення

• важливим є інвестування у розвиток людського капіталу для ШІ

• вдосконалення гнучкості, надійності й стійкості інфраструктур ШІ за допомогою розподілених моделей шифрування даних вимагає розгляду використання заснованих на блокчейні протоколів та програм

• вся повнота відповідальності за рішення з розробки, розвитку, впровадження та використання систем ШІ має лежати на операторах зі складу людей

• ШІ має потенціал використання для всіх автономних засобів дорожнього, залізничного, водного й авіаційного транспорту, а також для стрімкої зміни режимів перевезень та інтермодальних перевезень

• заявники на вакансію та працівники мають бути належним чином поінформовані письмово, коли ШІ використовується під час процедур найму та інших кадрових рішень, та як у цьому випадку перегляд людиною може бути запитаний задля зміни автоматичного рішення

• використовуваний на робочому місці ШІ має бути доступним для всіх та заснований на принципі розробки із призначенням загального характеру, на відміну від призначення для вузької групи спеціалістів

• впровадження нових систем ШІ у школах не має призводити до збільшення цифрового розриву у суспільстві, а персоналізовані за допомогою ШІ системи навчання не мають замінювати традиційні форми освіти

• європейська модель забезпечення відповідності вимогам етики має мати глобальне поширення

Щодо відповідальності:

• правовий виклик зокрема становить неможливість визначити того, хто контролював пов’язаний із системою ШІ ризик, або ж, який саме програмний код, який саме ввод чи які саме дані безпосередньо обумовили шкідливу операцію, ускладнюючи зв’язок між шкодою та поведінкою, яка це спричинила

• правові виклики також обумовлені зв’язком системи ШІ з іншими системами, залежністю від зовнішніх даних, вразливістю до зламу, так само й як від розробки систем ШІ із зростаючим рівнем автономності, використанням техніки машинного навчання й глибокого навчання

• стандарти цивільної відповідальності за шкоду, заподіяну пристроями або системами із використанням ШІ мають просуватися на міжнародному рівні

• немає необхідності повністю переглядати режими відповідальності, проте виклик їх ефективності становить складність, рівень пов’язаності, непрозорість, уразливість, здатність до зміни через оновлення, здатність до самонавчання, потенційна автономія систем ШІ, широке коло залучених діючих осіб

• шкода від систем ШІ майже завжди є результатом того, що хтось створює, впроваджує або втручається до цих систем

• необхідно розглянути перетворення директиви з питань відповідальності за продукти в акт прямої дії, уточнивши значення «продуктів» та розглянувши адаптацію концепцій «шкода», «дефект» та «виробник», включивши до останньої розробників, програмістів, постачальників послуг та операторів системи

• цивільна відповідальність має бути сконцентрована на операторі системи ШІ, оскільки він контролює пов’язаний з нею ризик (як у ситуації із власником автомобіля) та у багатьох випадках є першою видимою точкою контакту для потерпілої особи

• видається обґрунтованим встановлення режиму відповідальності незалежно від вини для систем ШІ з високим ризиком

• системи ШІ без високого ризику мають підпадати під режим відповідальності, заснований на вині, із презумпцією вини з боку оператора та можливістю визнання невинним через доведення додержання ним обов’язку щодо належного ставлення

• потребує оцінки встановлення вимог до контрактів, коли договірні умови із звільнення від відповідальності мають бути виключені

• всі оператори систем ШІ з високим ризиком мають застрахувати відповідальність

Щодо інтелектуальної власності:

• технології ШІ можуть утруднити відслідковування прав ІВ та їх використання для генерованих ШІ результатів, позбавляючи справедливої винагороди творців з числа людей, чиї оригінальні твори використані для цих технологій

• ШІ заснований на обчислювальних моделях й алгоритмах, що розглядаються як математичні методи, та не підлягають патентуванню як такі, а також на створенні й виконанні комп’ютерних програм, щодо яких тільки форма може бути захищена

• сприяння творчості й іноваціям через заохочення використання технологій ШІ творцями не має відбуватися за рахунок інтересів творців з числа людей

• у випадку використання ШІ лише як інструмента під час створення, підлягає застосуванню поточне правове регулювання ІВ

• автономно вироблені штучними агентами й роботами твори можуть не підлягати захисту з огляду на те, що концепція «інтелектуальне творіння» охоплює особистість автора

• використання ШІ для реєстраційних процедур щодо прав ІВ та для визначення відповідальності за їх порушення не може бути заміною людського розгляду, здійсненого за принципом розгляду кожної справи

Всі ці позиції так чи інакше втілені у доданих до резолюцій проектах регуляторних актів.

Повертаючись до особливостей законодавчої процедури ЄС. Майже монопольне право на подачу законопроекту має Європейська комісія, а Європейський парламент може лише запросити до цього та надати бачення питання. Що й було зроблено. Європейська комісія не має обов’язку вчинити це та вчинити це саме так. Проте, враховуючи наявність формалізованих останнім часом відносин між цими інституціями у питаннях покращення законотворчості, використання за основу попередньо висловленої офіційної позиції Європейської комісії з питань штучного інтелекту та рівень підтримки парламентарів, це цілком може статися і статися саме так. Формулювання у законопроектах скоріш за все зазнають змін, але позиції — навряд.

Повертаючись до співставного із GDPR значення цього пакету резолюцій. Для всіх запропонованих регуляторних актів окреслено ту саму форму — так званий регламент (Regulation). На відміну від директиви (Directive), іншої поширеної у ЄС форми, ця має наслідком пряму дію на територіях всіх держав-членів без додаткової імплементації на рівні національного законодавства.

Чому це матиме значення в Україні

ЄС перебуває у вкрай піднесеному стані від ефекту GDPR на увесь світ та наголошує на цьому як на приголомшливому успіху. Та у випадку з регулюванням штучного інтелекту, встановлення правил у глобальному вимірі прямо проголошується від самого початку.

ЄС додатково ставить на меті просування цього підходу до регулювання штучного інтелекту у міжнародному вимірі — як через двосторонні угоди, так й через усі можливі міжнародні платформи, включаючи Раду Європи, ЮНЕСКО, НАТО, OECD, G7 та G20.

Питання штучного інтелекту є складовою Єдиного цифрового ринку як одного з найпотужніших напрямків ЄС, з яким Україна має перетин на рівні Угоди про асоціацію та інтеграція до якого чітко артикулюється Україною як одне з основних прагнень.

Профільна галузь в Україні бурхливо розвивається на тлі відсутнього правового регулювання. Прагнення ЄС врегулювати питання штучного інтелекту є чи не єдиною реальною спробою у всьому світі, що має непогані перспективи втілення. Врахування представниками галузі цих прагнень зараз, принаймні дозволяє уникнути холодного душу у разі набрання чинності регуляторними актами ЄС, не кажучи вже про ймовірну конкурентну перевагу.

Замість післямови

У 2017 році, спроба ЄС зробити якісь кроки у напрямку визначення правил гри у сфері штучного інтелекту наштовхнулася на «складність провести лінію між тим, що є штучним інтелектом і тим, що ним не є». Рівень зрілості галузі не дотягував навіть до того, про що зараз йдеться як про слабкий штучний інтелект.

У 2020 році, той самий ЄС навіть у перспективі не припускає чогось, що перевищуватиме потенціал так званого слабкого штучного інтелекту. А галузь та загальний рівень технологій продовжують стрімкий розвиток.

Що галузь штучного інтелекту буде взмозі запропонувати через 3 роки?

Ніщо не заважає нам в Україні просуватися у цьому напряму зараз. Ми, хто почали замислюватися над правилами гри вже сьогодні, матимемо величезну перевагу коли це буде на часі.

Защита промышленных сетей: основные риски и сценарии атак

+33
голоса

Напечатать Отправить другу

Читайте также

 
 

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT