+11 голос |
Джерела повідомляють, що незадовго до звільнення Сема Альтмана OpenAI досягла суттєвого прогресу в розвитку моделі Q* (Q-Star), яка може вирішувати базові математичні завдання, з якими раніше не стикалася. Модель побудована на роботі, серед авторів якої значаться Ілля Суцкевер та Ян Лейке з OpenAI, та яка розглядає навчання моделі за допомогою process supervision – тобто коли навчання проводиться на підставі зворотного зв'язку по кожному етапу розв'язання задачі. За твердженнями авторів статті, навчена таким чином модель (робота вийшла у травні цього року) спромоглася вирішити 78% завдань із запропонованого набору, при цьому сам процес управління навчанням став ефективнішим.
Як повідомляють, досягнутий прогрес спричинив появу колективного листа співробітників OpenAI на адресу ради директорів, де повідомлялося, що цей прорив може загрожувати людству. Щоправда, самого листа журналісти не побачили.
Отримана модель, за чутками, може обійти обмеження щодо необхідності великої кількості якісних реальних даних для навчання, дозволяючи навчатися на штучно згенерованих даних.
Мені це здається схожим на інтуїцію – чисто людську (поки що?) властивість, що дозволяє приймати рішення на підставі неповних даних. Щоправда, всі ці страшні розповіді про захоплення світу у сферичному вакуумі мене не дуже вражають – не вірю в існування свідомості без органів чуття та маніпуляторів.
Розробники OpenAI злякалися свого дітища?
Ready, set, buy! Посібник для початківців - як придбати Copilot для Microsoft 365
+11 голос |