| +33 голоса |
|
Коли людина каже, що подія є «ймовірною», люди зазвичай мають спільне, хоч і нечітке, розуміння того, що це означає. Але було виявлено, що коли чат-бот на базі АІ, такий як ChatGPT, використовує те саме слово, він не оцінює шанси так, як ми.
Нещодавно в журналі npj Complexity було опубліковане дослідження, яке показує, що, хоча АІ на базі великих моделей мов чудово справляються з розмовами, він часто не узгоджуються з людьми, коли повідомляють про невизначеність. Дослідження зосереджувалося на словах оціночної ймовірності, які включають такі терміни, як «можливо», «ймовірно» та «майже напевно».
Порівнюючи, як моделі АІ та люди відображають ці слова на числові відсотки, були виявлені значні розбіжності між людьми та великими моделями мов. Хоча моделі, як правило, погоджуються з людьми щодо крайнощів, таких як «неможливо», вони різко розходяться щодо ключових слів, таких як «можливо». Наприклад, модель може використовувати слово «ймовірно» для позначення 80% ймовірності, тоді як людина-читач припускає, що воно означає ближче до 65%.
Це може бути пов'язано з тим, що люди можуть інтерпретувати такі слова, як «ймовірно» та «можливо», більше на основі контекстуальних підказок та особистого досвіду. Натомість, великі моделі мов можуть усереднювати суперечливі способи використання цих слів у своїх навчальних даних, що призводить до розбіжностей з людськими інтерпретаціями.
Дослідження також виявило, що великі моделі мов чутливі до гендерної мови та конкретної мови, яка використовується для підказок. Коли підказка змінювалася з «він» на «вона», оцінки ймовірності АІ часто ставали більш жорсткими, відображаючи упередження, вбудовані в його навчальні дані. Коли підказка змінювалася з англійської на китайську, оцінки ймовірності АІ часто змінювалися, можливо, через відмінності між англійською та китайською мовами у тому, як люди виражають та розуміють невизначеність.
Ця невідповідність далеко не є лінгвістичною примхою, а є фундаментальною проблемою для безпеки АІ та взаємодії людини з АІ. Оскільки великі моделі мов все частіше використовуються у відповідальних сферах, таких як охорона здоров'я, державна політика та наукова звітність, спосіб, яким вони повідомляють про ризик, стає питанням суспільної довіри.
Якщо, наприклад, помічник АІ, який допомагає лікарю, описує побічний ефект як «малоймовірний», але внутрішній розрахунок моделі щодо «малоймовірності» набагато вищий, ніж інтерпретація лікаря, отримане рішення може бути хибним.
Вчені вивчали, як люди кількісно оцінюють невизначеність з 1960-х років, галузь, яку започаткували аналітики ЦРУ для покращення звітності розвідувальних даних. Зовсім недавно спостерігався вибуховий ріст літератури про великі моделі мов, яка прагне зазирнути під капот нейронних мереж, щоб краще зрозуміти їхню «поведінку» та лінгвістичні закономірності.
Це дослідження додає рівень складності, розглядаючи взаємодію між людьми та АІ як біологічну систему, де значення може деградувати. Воно виходить за рамки простого вимірювання того, чи є АІ «розумним», і натомість запитує, чи він узгоджений.
Інші вчені зараз досліджують, чи може так званий ланцюг думок – прохання до АІ показати свою роботу – виправити ці помилки. Однак дане дослідження показало, що навіть просунуті міркування не завжди долають розрив між статистичними даними та словесними позначеннями.
Що ж далі? Метою майбутнього розвитку АІ є створення моделей, які не просто передбачають наступне ймовірне слово, а й фактично розуміють вагу невизначеності, яку воно передає. Дослідники закликають до більш надійних показників узгодженості, щоб гарантувати, що якщо модель бачить 10% ймовірність у даних, вона щоразу вибиратиме одне й те саме слово.
Оскільки ми рухаємося до світу, де АІ узагальнює наукові статті та керує розкладами людей, переконатися, що «ймовірно» означає саме «ймовірно», є життєво важливим кроком у тому, щоб зробити ці системи надійними партнерами, а не просто витонченими папугами.

Стратегія охолодження ЦОД для епохи AI
| +33 голоса |
|


