`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Денис Хлєбосолов

Історія розвитку Штучного Інтелекту - криза антропоцентризму

+44
голоса

Сьогодні легко можна знайти сотню матеріалів та роликів, які розповідають про основні сходинки розвитку AI, що пройшов шлях від тесту Тюринга у 1950 р. до комп'ютерних симуляцій у наукових дослідженнях у 2026 р.

Загальновідомі факти, на яких зазвичай загострюють увагу такі матеріали:

• Тест Тюринга - 1950 р.
• Офіційне народження терміна «Artificial Intelligence» на Дартмутській конференції - 1956 р.
• Шаховий турнір між Каспаровим та комп'ютером IBM DEEP Blue - 1997 р.
• Турнір у Go між Лі Седолем та програмою AlphaGo - 2016 р.
• Поява фундаментальної наукової праці «Attention Is All You Need» - 2017 р.
• Поява першої доступної моделі ChatGPT - 2022 р.

Всі ці події детально описані та розкладені по поличках, з поясненням, що, навіщо і до чого призвело. Якщо ви з якихось причин пропустили ці матеріали, обов'язково знайдіть їх, без них розуміння того, що собою являє штучний інтелект, абсолютно точно не прийде.

У межах цього матеріалу спробуємо навести цікаві факти про AI, які мало популяризовані, і спробуємо поглянути на проблему розвитку AI з дещо іншого, не такого звичного боку.

Непопулярна історія AI

Для початку, ось ряд маловідомих фактів, які вплинули на долю розвитку AI, анітрохи не менше.

"Давній Тюрінг" - чернець Луллій (XIII століття)

Спроби вивести інтелект, як явище, поза межі людини виникли зовсім не в середині минулого століття. Такі спроби робилися ще з XIII століття (хоча можливо, що й набагато раніше), коли про напівпровідники ще ніхто не чув. Мабуть, найвідоміший випадок, який документально дійшов до наших днів, приписується ченцю Раймунду Луллію, який створив систему з паперових дисків, комбінація обертання яких “допомагала” шукати логічні рішення. Це факт дуже значущий для розуміння філософії AI, і, сподіваємося, прочитавши цей матеріал до кінця, ви зрозумієте чому.

Перша «зима» нейромереж: «Перцептрони» - Книга, яка зупинила прогрес (1958-1969)

Мало хто знає, що розвиток нейромереж був заморожений майже на 15 років через одну книгу. 1969 року титани комп'ютерної думки Марвін Мінський і Сеймур Пейперт (засновники MIT AI Lab) опублікували працю «Перцептрони». У ній вони математично довели, що найпростіший перцептрон Френка Розенблатта (створений ще 1958 р. як модель інформаційного сприйняття мозку) принципово нездатний вирішити завдання «що виключає АБО» (XOR).

Якщо говорити простими словами, перцептрон виявився «надто лінійним». Він міг розділяти образи лише однією прямою лінією. Але наш світ не складається з прямих ліній, і навіть найпростіше логічне завдання XOR (де потрібно вибрати «або те, чи інше, але не обидва одразу») ставила цю модель у глухий кут.

Замість того щоб шукати способи зробити архітектуру багатошаровою та «гнучкою», наукова спільнота прийняла доказ вчених як остаточний вирок усьому напрямку. Підсумок був сумний: фінансування нейромереж припинилося («звіт Лайтхілла» у Британії та згортання програм DARPA у США, про яке нижче). Настала «Зима AI»: людство на десятиліття пішло у глухий кут створення «Експертних систем». Вчені та інженери намагалися втиснути математичну складність світу в жорсткі правила системи IF-THEN (ЯКЩО-ТО), наївно вважаючи, що інтелект — це дуже довгий список інструкцій, написаний еволюцією людського мозку. Ми втратили час, намагаючись навчити машину підкорятися людській логіці замість того, щоб вчити її сприймати досвід навколишнього світу.

"Британський вирок": Звіт Лайтхілла (1973)
Якщо у США розвиток нейромереж пригальмувала книга Мінського, то в Європі «цвях у кришку труни» забив сер Джеймс Лайтхілл. У своєму звіті для британського уряду він запровадив термін «комбінаторний вибух». Інженерна суть - доказ того факту, що методи AI (тоді) працюють тільки в «простих лінійних іграшкових світах». При спробі масштабувати на реальні завдання кількість необхідних обчислень зростала експоненціально. Це охолодило запал тих, хто вважав, що досить просто написати правильний складний алгоритм і все запрацює. Стало ясно: без колосального стрибка в обчислювальній потужності та обсягах необхідної пам'яті AI залишиться лабораторною забавою. Це була перемога прагматизму жорстких реалій над романтизмом туманного майбутнього.

Парадокс Моравека (1980)
Цей парадокс є фундаментом для розуміння того, чому інженерні підходи до AI десятиліттями буксували, намагаючись імітувати людське мислення. Ганс Моравек, Родні Брукс та інші дослідники сформулювали контрінтуїтивний висновок: всупереч нашим очікуванням, високорівневі когнітивні завдання (вища математика, гра в шахи, логічний аналіз) вимагають мізерних біологічних обчислювальних потужностей порівняно з «простими» сенсомоторними.

Розпізнавання об'єктів у зашумленому середовищі чи утримання рівноваги під час ходьби пересіченою місцевістю - завдання, які людський мозок вирішує «фоном», - вимагають колосальних ресурсів. Виявилося, що з погляду обчислювальної складності, «просто жити» і сприймати світ на порядок важче, ніж вирішувати диференціальні рівняння. Ми помилково брали складність навчання (для людини) за складність алгоритмічну. Сенсомоторні навички (зір, рух) оптимізувалися природним відбором мільярди років. На ці завдання у нашому мозку виділено колосальні обсяги нейронних мереж, що працюють паралельно та вкрай ефективно. Це, як не дивно, «важкий код»на апаратному рівні біології. Логіка та абстрактне мислення - це «надбудова», якій лише кілька десятків тисяч років. Вона займає мізерну частину ресурсів мозку, що, погодьтеся, зовсім не інтуїтивно для середньої людини.

Парадокс Моравека досі є бетонною стіною для робототехніки. На момент написання статті поточний AI може легко скласти іспит на адвоката або програміста, але йому все ще важко акуратно і швидко скласти сорочку, що чудово підтверджує вірність парадокса.

«Випадкова революція»: Як ігрова індустрія врятувала AI (2000-ті)
Це факт, який дуже люблять згадувати IT-інженери. Аж до середини 2000-х нейромережі вважалися повільними, вузькоспеціалізованими та безперспективними. Але у 2007 році NVIDIA випустила CUDA (програмно-апаратну архітектуру паралельних обчислень). З'ясувалося, що архітектура графічних процесорів (GPU), яка створена для відтворення текстур в іграх, ідеально підходить для матричних обчислень у нейромережах. Паралелізм GPU виявився в сотні разів ефективнішим за послідовні обчислення CPU. AI переміг не завдяки появі нових формул (багато основних алгоритмів були відомі з 80-х), а тому, що ми отримали необхідну «грубу силу» майже випадково. Технічна іронія, що змінила світ - сучасні мовні моделі зобов'язані своїм існуванням геймерам, які хотіли бачити більш реалістичні вибухи та тіні у 3D-стрілялках.

ImageNet та «Диктатура даних» (2010–2012)
До 2010 року всі дослідники сперечалися про «чистоту алгоритмів». Фей-Фей Лі (американська вчена китайського походження) здійснила переворот, створивши ImageNet - базу мільйонів розмічених фото. Вона підсвітила проблему розвитку AI того часу - справа не в алгоритмах, а в «паливі» для них. Фей-Фей Лі запропонувала ідею: щоб комп'ютер побачив світ, йому не потрібні наші людські описи ознак, йому потрібна просто критична маса даних.

Алгоритм AlexNet у 2012 році на конкурсі ImageNet показав, що глибоке навчання (Deep Learning) - це не магія, а результат поєднання трьох базових компонентів: Дані (паливо) + GPU (обчислення) + “Старі” алгоритми (методи). Це був перший момент, коли AI перестали сприймати на основі «людського» підходу до мислення. Обчислювальним машинам просто згодовували дані, а вони самі шукали в них патерни, які людина навіть не могла логічно позначити чи описати словами.

«Хід 37»: Прощавай, людська логіко (2016)
Тут ми змушені повернутися до вищезазначеного популярного факту - Матчу AlphaGo (Google) проти Лі Седоля. Фундаментальною подією, що розірвала наукову громадськість, стала друга партія, а саме 37-й хід. Програма AlphaGo зробила хід, який усі коментатори (професіонали вищого рангу) назвали помилкою. З погляду людського досвіду цей хід був безглуздим і нелогічним. Але саме він призвів до перемоги комп'ютера над людиною. Це були перші ознаки заходу антропоцентризму, які стали відчутними та обговорюваними далеко не відразу. AI не просто "рахував швидше", він зміг побачити стратегію за межами натренованої людської інтуїції. Комп'ютер на тому ходу перестав імітувати логіку людини, він почав створювати свої методи вирішення завдання для перемоги.

Attention Is All You Need - Бунт геніїв проти послідовності (2017)
Роботу "Увага - це все, що вам потрібно" («Attention Is All You Need») можна вважати основною працею для світу сучасного AI. Якщо всі вищеописані нами дослідження укладаються у формат «Старого завіту», то ця стаття буквально «Новий завіт». Вона розділила історію AI на «до» та «після». Основа роботи – архітектура Transformer. З її допомогою AI остаточно уникнув послідовної логіки рекурентних нейронних мереж (RNN). Головна проблема RNN полягала в тому, що вони читали текст як людина - слово за словом, що унеможливлювало масове розпаралелювання обчислень і призводило до втрати контексту в довгих реченнях. Механізм уваги (Attention) дозволив моделі дивитися на весь обсяг даних одночасно, виділяючи найважливіше.

Заголовок статті - це пряме посилання на пісню The Beatles "All You Need Is Love", що задало вірусний тренд в AI-спільноті на десятиліття вперед. Назву «Transformer» (та сама буква Т у назві ChatGPT) запропонував Якоб Ушкорейт. Спочатку команда скептично поставилася до цього, вважаючи, що вона звучить як назва іграшки. В одному з перших внутрішніх документів була навіть ілюстрація з персонажами з франшизи «Трансформери». Отже, назва цієї фундаментальної праці - це не глибока математична філософія, а поп-культура: Бітлз і автоботи.

У статті зазначено вісім авторів, і у виносці зафіксовано рідкісний факт: "Порядок авторів було визначено випадковим чином". Це підкреслює, що архітектура була наслідком колективного розуму. В інженерному сенсі це була спроба побудувати систему такої складності, яку один людський мозок не здатний спроєктувати поодинці. 8 геніїв об'єдналися в «біологічну нейронну мережу», щоб створити фундамент для електронної мережі. Важливо - 8 авторів були експертами у різних напрямках (інженерія, математика, програмування, лінгвістика тощо). Чи не наштовхує це на певні думки?

Але концентрація такого інтелекту в одному місці - явище тимчасове. Сьогодні «діаспора легендарних Трансформерів» визначає вигляд усієї індустрії: всі вісім авторів залишили Google, заснувавши такі компанії, як Cohere, Character.ai, Mistral та Sakana AI. Google фактично подарувала світові технологію, але не змогла втримати геніїв, які її створили. Давайте разом оцінимо іронію: компанія створила фундамент, на якому конкуренти (OpenAI) збудували будинок, тоді як сам архітектор залишився у "старому офісі". Це чудовий і поширений приклад того, як корпоративна бюрократія програє гнучкості сміливого стартапу.

ChatGPT: Розмір має значення (2020)
Появі "чату з комп'ютером, що думає" передувала темна епоха "сирих" моделей. Мало хто знає навіть серед фахівців, що GPT-1 (2018) та GPT-2 (2019) взагалі не були чат-ботами. То були «доповнювачі тексту». З ними не можна було розмовляти. Якби ми запитали у ранніх моделей: «Як зварити борщ?», Модель могла відповісти щось на кшталт: «І які ще питання ставлять домогосподарки?». По суті, це було просто передбачення найбільш ймовірного продовження тексту, знайденого в інтернеті. Робота з GPT-2 та ранньою GPT-3 більше нагадувала написання коду при низькорівневому програмуванні. Щоб отримати результат, потрібно було використовувати метод "Few-Shot Prompting".

Виглядало це приблизно так:
"Вхід: "Англійська: Apple. Переклад: Яблуко. Англійська: Dog. Переклад: Собака. Англійська: AI. Переклад:" Модель не розуміла команду "переклади", вона розуміла тільки патерн. Інженери того часу були «заклинателями промптів», підбираючи структуру як синтаксис рідкісної мови програмування.

Коли з'явилася GPT-3, вона шокувала всіх не розумом, а обсягом параметрів - 175 мільярдів. В OpenAI не просто застосували архітектуру Трансформера, вони масштабували її до божевілля. Це був чистий інженерний експеримент, якщо не сказати авантюра: "А що, якщо ми заллємо в цей двигун ВЕСЬ Інтернет?"

Виявилося, що при досягненні певної маси даних, у моделі виникають емерджентні (раптові) властивості: GPT-3 раптом навчилася писати код на Python і вирішувати логічні завдання, хоча її спеціально не навчали! Це стало справжнім сюрпризом для архітекторів моделі, виявилося, що при досягненні певного рівня кількість може сама перейти в якість.

Секретним інгредієнтом розвитку став RLHF (Інструктаж). Чому ми не отримали ChatGPT у 2020 році? Тому що рання модель GPT-3 була "дикою". Вона регулярно марила (галюцинувала) і могла видавати абсолютно не логічний, з погляду людини, результат. Рішенням стала технологія RLHF (Reinforcement Learning from Human Feedback) - навчання з підкріпленням на основі зворотного зв'язку з людиною. Важливе уточнення: RLHF - це не навчання знанням, це налаштування інтерфейсу між хаотичним статистичним "комп'ютерним мозком" і людськими очікуваннями. Тисячі людей (розмітників) сиділи та оцінювали відповіді моделі: «це хороша відповідь, а це - погана», працюючи як «вчителі початкових класів» для цифрового надрозуму. Світ ще не знав такого масового «дресування» алгоритму, яке з сирого обчислювального ядра зробило «співрозмовника». Саме це перетворило сире обчислювальне ядро ​​в InstructGPT - модель, яка нарешті почала розуміти прямі накази людини, а не просто продовжувала патерни (шаблони).

Дата 30 листопада 2022 року стала "випадковим" тріумфом розміром із планету. Сам ChatGPT (версія 3.5) спочатку планувався OpenAI як скромний “дослідницький реліз” для оцінки можливої ​​сфери застосування. Як би це зараз смішно не звучало, не було впевненості, що це буде комусь цікаво. OpenAI просто прикрутили до InstructGPT зручний інтерфейс web-месенджера, як наслідок, мільйон користувачів за 5 днів. Ми прокинулися у світі, де найскладніша математична модель в історії людства заговорила нашою (зрозумілою) мовою.

Епілог: Кінець антропоцентричного дзеркала - початок ери кремнієцентризму
Шлях людства у пошуках «зовнішнього розуму» - від логічних дисків ченця Раймунда Луллія до тензорних ядер сучасних GPU - донедавна був спробою збудувати дзеркало. Дзеркало людського сприйняття процесу мислення. Алан Тюрінг, закладаючи фундамент комп'ютерної епохи, не міг думати інакше як у рамках антропоцентризму, зі зрозумілих причин. У його час не існувало інших орієнтирів інтелекту, крім біологічних, і його знаменитий тест став золотою кліткою, в якій розвиток AI нудився понад півстоліття.

Сімдесят років ми витратили на створення «цифрової копії» себе, намагаючись упакувати хаос реальності в суворі логічні причинно-наслідкові інструкції IF-THEN (ЯКЩО-ТОДІ). Але справжній прорив стався саме тоді, коли ми капітулювали перед складністю людського мислення та дозволили машинам бути «нелюдськими» у нашому розумінні. Відступ від антропоцентризму - це перехід до архітектур, які не імітують нейрони, а математично обчислюють закономірності та ймовірності в колосальних обсягах даних, що дало той самий експоненційний зліт, який спостерігається сьогодні.

На момент написання статті (весна 2026 року) ми стоїмо на порозі фундаментального зсуву. Людський ресурс, як джерело знань для навчання AI, практично вичерпаний: нові глобальні моделі ввібрали майже все, що було створено нашою цивілізацією в цифровому вигляді. Досягнута точка, коли біологічному «вчителю» більше нема чого вчити кремнієвого «учня».

Як чітко зауважив один інженер нейромереж: «Щоб зрозуміти, як думає штучний інтелект, потрібно бути трошки програмістом, інженером, філософом, істориком, математиком, фізиком, архітектором і художником. Тобто треба навпаки стати біологічною копією того, що ми називаємо штучним інтелектом». У рамках статті ми вже відійшли від суто прикладних питань, пов'язаних з АІ, як у попередніх статтях, і через “активізацію” історичного, математичного та філософського протоколів спробували поглянути на розвиток технології комп'ютерного мислення не лише зі споживчого, “людського” погляду.

Хоч би як це не звучало зухвало, настає епоха кремнієцентризму. Нам доведеться визнати, що AI виробив свої принципи обробки наших смислів (контекст + емоція + знання + досвід), і нам так чи інакше доведеться розбиратися вже у смислах, народжених кремнієвим мозком (геометричними векторами у багатовимірному просторі). Настає час, коли не ми диктуємо нейромережам правила логіки, а самі вчимося в них знаходити рішення, що лежать за межами людської інтуїції та розуміння. Щоб розуміти інтелект майбутнього, доведеться перестати шукати в ньому відображення себе та почати вивчати його як самостійну фізичну та інформаційну сутність. Наступний етап прогресу йтиме завдяки Synthetic Data (синтетичних даних), коли моделі AI будуть вже навчатися на результатах власних роздумів, взагалі не потребуючи людини як джерела і верифікатора істини.

Тисячолітня епоха антропоцентризму підходить до свого логічного завершення. Ласкаво просимо у світ, де розум більше не є монополією вуглецевої форми життя. Цілком не важливо, як ми ставимося до такої глобальної зміни, приймаючи або різко відкидаючи її. Якщо ми не зможемо адаптуватися до нової ери, залишимося за бортом розвитку.

Стратегія охолодження ЦОД для епохи AI

+44
голоса

Напечатать Отправить другу

Читайте также

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT