Докладна стаття, яка вказує, що людство, обговорюючи питання безпеки та контролю AGI (Artificial General Intelligence, загальний штучний інтелект), коли і якщо такий виникне, упускає можливість появи «клаптикового» або розподіленого AGI, який буде утворений роєм агентів, які окремо не досягають рівня AGI, але разом демонструють розумну поведінку.
Такий собі набір агентів Смітів замість єдиної Матриці.
Правда, пропоновані механізми безпеки передбачають в основному спроби дуже людського регулювання, вразливого в багатьох точках – централізація створює єдині точки відмови, створення «проникної пісочниці» передбачає якусь фільтрацію, теж вразливу до атак або соціальної інженерії. При цьому людський контроль явно не встигатиме або гальмуватиме роботу легальних систем, а контроль за допомогою іншого AI виглядає абсурдним.
Але давайте тепер боятися розподілених агентів, звичайно.
Чи зможе людина контролювати AGI?
Стратегія охолодження ЦОД для епохи AI
| +11 голос |
|


