0 |
Нобелівський лауреат Джеффрі Хінтон (Geoffrey Hinton) дав велике інтерв'ю, в якому розповів про розвиток AI, загрози та перспективи технології. Виділю основні тези з бесіди.
Хінтон зазначає, що AI розвивається швидше, ніж він прогнозував кілька років тому. Особливо його турбують «AI-агенти», які можуть діяти в реальному світі, а не просто відповідати на запитання. За його оцінкою, надрозумний AI може з'явитися в найближчі 4-19 років, найімовірніше – вже через 10 років або раніше.
Що стосується позитивних аспектів, Хінтон виділяє кілька сфер:
1. Охорона здоров'я: AI вже не поступається експертам в аналізі медичних зображень і буде поліпшуватися завдяки досвіду обробки мільйонів знімків. «AI-доктор», який має досвід роботи зі 100 млн пацієнтів і пам'ятає всі деталі, буде набагато ефективнішим за звичайного лікаря.
2. Освіта: З особистим AI-репетитором люди зможуть вчитися в 3-4 рази швидше. При цьому Хінтон вважає, що університетська система в основному збережеться, особливо в частині оригінальних досліджень.
3. Кліматична криза: AI допоможе створювати кращі матеріали, акумулятори й, можливо, навіть кімнатну надпровідність.
Але паралельно наростають і проблеми. Якщо раніше Хінтон не надто переймався втратою робочих місць, то тепер вважає це серйозною загрозою. Під ударом будь-яка рутинна робота: контакт-центри, секретарі, юридичні помічники. Хоча журналісти-розслідувачі ще протримаються якийсь час, «тому, що їм потрібна ініціатива плюс моральне обурення».
Особливо Хінтона турбує розподіл благ від підвищення продуктивності. За його словами, «ми знаємо, що станеться: надзвичайно багаті стануть ще багатшими, а не дуже забезпеченим доведеться працювати на трьох роботах».
Найгостріше питання – ймовірність того, що AI «захопить владу» над людством. Хінтон оцінює її в 10-20%. GPT-4 уже «знає в тисячі разів більше, ніж звичайна людина», і посилюється технічною можливістю цифрових систем обмінюватися інформацією в трильйони разів швидше за людей.
Щодо регулювання – Хінтон критикує великі компанії за лобіювання проти обмежень і підкреслює, що нинішня адміністрація США навряд чи регулюватиме галузь. Цікаво, що навіть Ілон Маск, попри своє занепокоєння безпекою AI в минулому, тепер сам випускає ваги своїх мовних моделей, що Хінтон вважає «божевіллям».
Хінтон різко критикує публікацію ваг великих мовних моделей (Meta, OpenAI), порівнюючи це з продажем матеріалів, що діляться, для ядерної зброї: «Якби ви могли купити матеріал, що ділиться, на Amazon, набагато більше країн мали б ядерну зброю».
Серед компаній, що розробляють AI, Хінтон виділяє Anthropic як найбільш стурбовану питаннями безпеки. Google, де Хінтон раніше працював, за його словами, раніше була відповідальною компанією, але розчарувала його відмовою від обіцянки не підтримувати військове використання AI.
OpenAI ж викликає в нього особливе розчарування, оскільки спочатку створювалася для безпечного розвитку надінтелекту, але «безпека дедалі більше відходила на задній план».
Наприкінці інтерв'ю Хінтон згадує, що почав розподіляти свої заощадження між трьома різними банками через побоювання, що в найближчі 10 років кібератаки з використанням AI можуть «обвалити» канадський банк. Це, мабуть, найбільш наочний прояв його тривоги щодо майбутнього.
Kingston повертається у «вищу лігу» серверних NVMe SSD
0 |