Кто боится AI-3. Artifical Stupidity

31 июль, 2015 - 16:45Александр Черников

Как говаривал Козьма Прутков, – «Зри в корень». В чем реальная проблема, которая уже проявляет себя? Началось взаимное проникновение двух обширных групп технологий, AI и IoT. Эксперты в различных областях промышленности пока не видят причин бояться последствий этого, но «люди беспокоятся».

«Если мы сможем извлечь пользу из AI и ее связи с другими технологиями так, чтобы это было плодотворно и благоприятно для человечества, я думаю, что вот это и будет настоящая фантастика»

Ян Пирсон (Dr.Ian Pearson), футуролог

Этот блог не был бы написан, если бы группа главных технических лидеров и ученых, включая Стивена Хокинга и Стива Возняка, не издала 28 июля новое строгое предупреждение нашей цивилизации против разработки «роботов-убийц».

Это, безусловно, важная и нужная инициатива. Она фактически повторяет движение ученых в 60-х годах прошлого века против применения ядерного оружия. Однако сейчас, по отношению к AI, положение не то чтобы сложнее и опаснее, но несколько запутаннее.

Страхи глобальные и локальные

Прежде всего, давайте разделим «AI-страхи» на две области. К глобальному, ложному страху относится страх перед искусственным интеллектом типа Skynet. Такая система по определению имеет органы чувств в виде самых различных датчиков и сенсоров, и также средства воздействия на окружающую среду в виде различных исполняющих устройств и механизмов (кадр из фильма, 1984).

Кто боится AI-3. Artifical Stupidity

К локальным реальным страхам следует отнести тех самых «роботов-убийц», которые типично действуют в ограниченном трехмерном пространстве, выполняя определенные заданные миссии, но принимая решения самостоятельно. Ученые говорят сегодня о запрещении именно таких локальных систем, прекрасно понимая, что Skynet – это для кино.

Однако большинство «почтенной публики» до сих пор находится под впечатлением именно Skynet, как нового жестокого киберправителя планеты. Любопытно, что системы типа тех, с которыми боролся Робокоп, беспокоят людей почему-то гораздо меньше (кадр из фильма, 1987).

Кто боится AI-3. Artifical Stupidity

Мне казалось, что двух предыдущих публикаций серии «Кто боится AI?» было вполне достаточно для описания ситуации в данной области. Однако мировая пресса, особенно нетехническая, явственно чувствуя запах жареного, – если хотите, «предсенсации», – снова подняла целую (и, в общем, пустопорожнюю) волну публикаций о страхах, связанных с AI.

Однако нашлось несколько человек, которые постарались рассмотреть происходящее без стонов и спекуляций по поводу «машинного апокалипсиса». Я бы хотел присоединиться к разумному мнению технического фриланс-журналиста Энди Мика (Andy Meek), который по этому поводу написал 24 июля в The Guardian статью под совсем не сенсационным, сухим техническим названием – «Connecting Artificial Intelligence with the Internet of Things».

И это, по сути, очень точное отражение того, чего именно сейчас боится средний обыватель (по крайней мере, в США). Потому что для него война идет где-то далеко, а террористов, безусловно, переловит полиция. Но вот если у него не открывается электронный дверной замок или кто-то хакнул его новенькую «Теслу», вот это – настоящая беда, с которой нужно бороться всему миру. Это – явный признак несовершенства современных AI/ IoT систем.

Что же касается систем вооружений с элементами AI, то их появляется все больше, и еще больше разрабатывается в секретных лабораториях. Этот процесс (по крайней мере, разработки) остановить вряд ли возможно. И довольно глупо рассуждать о таких системах журналистам, которые слабо разбираются в предмете и вообще не имеют доступа к рабочим материалам и планам военных.

Поэтому я предпочел бы выделить «роботов-убийц» в отдельную тему, которую каждый может смаковать на основании Google Images в меру своего желания. А рассмотреть только реальную на сегодня составляющую гипотетических «страхов общего применения» типа Skynet, – и закрыть эту тему.

Вот в кратком изложении, без кавычек, содержание точки зрения Энди Мика на происходящее.

Необходимость интерфейса

Элон Маск и Билл Гейтс говорят о том, человечество как бы флиртует с предполагаемым глобальным бедствием. Другими словами, мы имеем цифровую версию мифа об Икаре, – в нашем случае искусственный интеллект выполняет роль солнца, которое в конечном счете обожжет наши крылья.

Но даже в том случае, если с этим согласны «широкие массы» (которым всегда нужно только дать понятную идею и соответствующие лозунги), то находится достаточно рассудительных, самостоятельных умов, которые вовсе не так уж и встревожены.

Один из них – Джон Андеркоффлер (John Underkoffler), – СЕО компании Oblong Industries. Он более известен как парень, который создал футуристический человеко-машинный интерфейс, основанный на жестах.

Кто боится AI-3. Artifical Stupidity

Том Круз в роли детектива Джона Андертона в фильме Minority Report (2002)

Он основал свою компанию в 2006 г. как первый шаг к реализации идей интерфейса, показанного в Minority Report. Безусловно, он в числе тех, кто знает, где кончается научная фантастика и начинается хайтек-действительность. В результате сегодня его компания продает то, что описывает как «коммерческую версию компьютеров из Minority Report».

Согласно прогнозу Cisco, количество связей в сети IoT к 2020 г. составит около 50 млрд. Эти связи образуют совершенно новую вселенную онлайн-устройств. И они нарушают, или того хуже, разрушают привычные устои нашей жизни. Вот в чем, оказывается, главный страх – люди на самом деле боятся не восстания роботов, а примитивного подглядывания за ними в ванной.

Именно поэтому, как человек со здоровой психикой, Андеркоффлер не видит никакой причины бояться заполненного машинами будущего. Вместо этого он считает, что просто есть некоторые основные вопросы, которые нуждаются в рассмотрении до того, как отдавать их на откуп AI. Это, собственно, к тому, что если есть миллиарды онлайн-устройств, то, видимо, требуется и соответствующий интерфейс для доступа к ним и интерактивного общения с ними.

«А мы пока впустую волнуемся по неправильным поводам и не задаем правильных вопросов для решения истинных проблем», – сказал Андеркоффлер.

Artificial Stupidity

Профессор Ник Бостром (Nick Bostrom), директор Future of Humanity Institute Оксфордского университета, составил и привел в своей книге «Superintelligence: Paths, Dangers, Strategies» (2014) вот такую любопытную «шкалу интеллектуальности».

Кто боится AI-3. Artifical Stupidity

Конечно, можно спорить о реальном удалении «рекурсивно самосовершенствующегося AI» от белковых существ, также как о минимальной разнице интеллекта Эйнштейна и «неотесанной деревенщины». Однако бесспорно то, что группа белковых в силу своей неторопливой эволюции интеллектуально практически статична, а вот AI может свободно двигаться по шкале и будет все быстрее уходить вправо, увеличивая разрыв.

Однако профессор Санджэй Сарма (Sanjay Sarma) – директор направления цифрового обучения (digital learning) в MIT и пионер RFID, разрабатывавший основные технические понятия и первые стандарты в этой области, говорит следующее.

Если у меня есть проблемы, то я стараюсь их правильно определить и правильно решить. Меня не слишком беспокоят системы, настолько интеллектуальные, что они превосходят людей. Я гораздо больше волнуюсь по поводу «искусственной глупости». (Artificial Stupidity).

Я беспокоюсь о том, что мы строим системы искусственного интеллекта, которые «слишком умны наполовину» (too smart by half). Они способны вытворить что-то действительно очень тупое, – например, организовать каскадную серию событий (cascading series of events), которая в итоге приводит к идиотскому решению управляющего компьютерами AI об отключении электроэнергии в городе, штате или целой стране. В относительно небольшом масштабе и на короткое время это уже случалось.

Другой пример – плохо разработанная система, которая легко взламывается внешним вмешательством «плохих парней» и вызывает хаос. То есть, я более обеспокоен, что мы создаем изначально несовершенные системы, которые неумышленно ставят под угрозу и нашу частную жизнь, и нашу безопасность.

В общем, это неизбежно, поскольку все и всё несовершенны. Мы определенно движемся к этому и первая большая компьютерная катастрофа – только вопрос времени. И тогда обвинение будет выдвинуто AI. Люди же обязательно скажут – «мы здесь ни при чем», – чтобы избежать наказания.

До сих пор все большие IT-системы были основаны на ясном и простом понимании их архитектуры. Типичный пример – WWW, жестко основанная на гиперссылках. Теперь же у нас нет ясного архитектурного понимания того, что представляет из себя всемирная сеть IoT, управляемая AI.

Возможно, пока расхожие разговоры об AI вообще бессмысленны, потому что мы вовсе не имеем настоящего AI. Например, Machine Learning Systems (MLS) не имеют ни малейшей возможности для принятия решений по управлению окружающим нас миром (decision to manipulate the surrounding world)

Системы, которые мы строим сегодня, не имеют никаких алгоритмов для изменения самих себя. Машина с элементами AI для сортировки почты никогда самостоятельно не примет решения превратиться в машину для уничтожения человечества. Диапазон ее функциональности жестко задан и никогда не меняется.

Заключение будет кратким

Не секрет, что сегодня большинство из того, что разработчики называют AI, в практическом отношении является безнадежным мусором. Так что прежде, чем пугаться, давайте действительно, как говорит Андеркоффлер, научимся задавать правильные вопросы, – в частности, по отношению к системам AI.

Это – один из основных принципов здравого подхода и, вообще, построения здравого мира, – для того, чтобы спокойно и счастливо жить в нем. Мира, где люди являются определяющей и руководящей силой, – и могут взять на себя полную ответственность за этот мир, изменяя его в лучшую сторону.

Как написал в комментариях один из читателей, – «Самая последняя вещь, которую я хотел бы сделать с моим холодильником, это дать ему какую бы то ни было степень интеллекта или соединить его с интернетом. Это, в конце концов, просто холодильник».

Что же касается страхов, то давайте остановимся на том, что применение «настоящего» AI (которого пока нет) ожидается прежде всего в тех случаях, когда решение без «человеческого фактора» оказывается более эффективным. Вот тогда, возможно, и проявится «проблема Skynet».