`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Леонід Бараш

Будет ли безопасен ИИ для человека?

+22
голоса

Проблемы отношений роботов и человека обсуждаются с той или иной активностью уже более полувека. Пожалуй, первая явная попытка обеспечить безопасность человека была предпринята Айзеком Азимовым в рассказе «Хоровод», в котором он сформулировал Три закона робототехники:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Однако законы содержали ряд неопределенностей и лазеек, которые впоследствии были неоднократно обыграны в других рассказах писателя-фантаста.

Время шло, и то, что казалось принадлежит к области научной фантастики, уже вырисовывается на пороге нашей реальности. Речь идет о бурном развитии направления ИИ. Возможная опасность развитого ИИ для человека была обозначена в известном сериале «Терминатор».

Каким должен быть ИИ, чтобы в будущем не навредить человеку? Эта проблема обсуждалась, в частности, на конференции Beneficial A. I. 2017, организованной Future of Life Institute в начале января в Азиломаре, государственном парке Калифорнии, США.

На этой конференции были предложены 23 принципа (Asilomar A.I. Principles), следуя которым можно избежать того, что ИИ, может быть, не убьет всех нас в будущем.

Принципы были разработаны десятками экспертов в области робототехники, физики, экономики, философии, собравшихся вместе на конференции. После ожесточенных дебатов о безопасности ИИ, его экономическом воздействии и этике программирования, был сформулирован ряд принципов, выполнение которых должно было, по идее, обезопасит человечество. Для включения принципа в окончательный список, он должен был быть одобрен 90% экспертов. В результате был сформирован список из 23 принципов, относящихся к широкому ряду проблем, от научно-исследовательских стратегий в области прав на данные до будущих проблем, связанных с потенциальным суперинтеллектом.

Как объясняет Институт Future of Life, этот список принципов ни в коем случае не является всеобъемлющим, и он, безусловно, открыт для различных интерпретаций. Но он также показывает, как текущее поведение "по умолчанию" вокруг многих смежных вопросов может нарушить принципы, которые являются важными, по мнению большинство участников.

С тех пор 892 исследователей в области ИИ и робототехники и 1445 других экспертов, в том числе генеральный директор Tesla Илон Маск и знаменитый астрофизик Стивен Хокинг, одобрили эти принципы.

Некоторые из принципов, такие как прозрачность и открытый обмен результатами исследований среди конкурентных компаний, кажутся менее вероятными, чем другие. Однако даже если они и не будут выполняться в полном объеме, то 23 принципа могли бы пройти долгий путь в направлении улучшения разработки ИИ и обеспечение этики, чтобы предотвратить возникновение ИИ Skynet из сериала «Терминатор».

Для понимания духа и буквы сформулированных принципов приведем несколько из них.

1. Цель исследования. Целью исследований в области ИИ должно быть не создание неуправляемого интеллекта, а полезного интеллекта.
3. Связка политика-наука. Должен быть конструктивный и здоровый обмен между исследователями ИИ и политиками.
4. Культура исследования. Следует поощрять среди исследователей и разработчиков ИИ культуру сотрудничества, доверия и прозрачности.
5. Избегание соревнований. Команды, разрабатывающие системы ИИ, должны активно сотрудничать, чтобы избежать получения преимуществ за счет пренебрежения стандартами безопасности.
6. Безопасность. Системы ИИ должны быть безопасными, обеспечивать безопасность на протяжении всего срока их эксплуатации и поддаваться проверке там, где это применимо и выполнимо.

Будет ли безопасен ИИ для человека?

Один из моментов обсуждения 23 принципов ИИ

Ready, set, buy! Посібник для початківців - як придбати Copilot для Microsoft 365

+22
голоса

Напечатать Отправить другу

Читайте также

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT