0 |
Интеллектуальные алгоритмы глубокого обучения, имитирующие работу человеческого мозга с помощью нескольких слоёв искусственных нейронов, как правило, довольно энергоемки и предъявляют серьёзные требования к вычислительным возможностям компьютерного оборудования и к ресурсам памяти.
В канадском Университете Ватерлоо, учёные удачно воспользовались для снижения аппаратных «аппетитов» таких алгоритмов эволюционным принципом, заложенным в самой природе искусственного интеллекта.
Они поместили нейросеть глубокого обучения в виртуальную среду, а затем постепенно уменьшали доступные ей ресурсы процессора и памяти. Машинный интеллект реагировал на эти ограничения адаптируясь и изменяясь — учился функционировать более экономно.
«От поколения к поколению такие сети развивались и становились меньше, стремясь выжить в этих обстоятельствах», — рассказал один из создателей этой технологии, профессор Мохаммед Джавад Шафи (Mohammad Javad Shafiee).
В работе, недавно представленной на международной конференции по компьютерном зрению в Венеции (Италия), канадские инженеры добились 200-кратного уменьшения размеров программного кода глубокого обучения, использовавшегося для задач распознавания.
Это компактное ПО может уместиться во встроенной памяти мобильных компьютерных чипов, используемых в смартфонах и промышленных роботах. Такое интеллектуальное оборудование может работать автономно (например, обеспечивать функционирование виртуального голосового ассистента в смартфоне) почти столь же эффективно, как нейросети, подключенные к Интернету.
Наряду с экономией энергии и трафика такая схема устраняет ряд серьёзных проблем, связанных с переносом в облако приватных или конфиденциальных данных.
Разработчики основали стартап под названием DarwinAI для коммерциализации своего эффективного ПО глубокого обучения.
Ready, set, buy! Посібник для початківців - як придбати Copilot для Microsoft 365
0 |