`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Что для вас является метрикой простоя серверной инфраструктуры?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

VirtualLink – новый стандарт для подключения VR-шлемов

По мере обретения зрелости технология виртуальной реальности начинает оформляться стандартами. Так новый открытый стандарт VirtualLink упрощает подключение VR-шлемов к разнообразным платформам.

VirtualLink – новый стандарт для подключения VR-шлемов
Недавно сформированный индустриальный консорциум, включающий компании NVIDIA, Oculus, Valve, AMD и Microsoft, представил стандарт VirtualLink. Он описывает протокол взаимодействия на базе интерфейса USB Type-C, что позволит отказаться от связки проводов и избежать путаницы при подсоединения их к разнообразным разъемам. Это особенно актуально в случае тонких и легких ноутбуков, где можно разместить ограниченное число портов. Поэтому порт USB Type-C является едва ли ни единственным выбором. 

Интерфейс VirtualLink позволяет подключаться к VR-шлемам одновременно по четырем высокоскоростным линиям HBR3 DisplayPort, которые при необходимости могут масштабироваться. Кроме того, используется канал передачи данных USB 3.1 с поддержкой камер и датчиков высокого разрешения. Так как по этому интерфейсу выполняется энергоснабжение VR-шлема, его потребление не может превышать 27 Вт.
VirtualLink – новый стандарт для подключения VR-шлемов
Подобный задел по возможностям интерфейса VirtualLink связан с тем, что пользователи рассчитывают на то, что шлемы должны иметь экраны с более высоким разрешением. А для создания эффектов дополненной реальности необходимы камеры высокого разрешения, которые будут также отслеживать окружающие объекты. Поэтому необходимо было обеспечить достаточную полосу пропускания.
 
В выпущенном пресс-релизе сообщается, что консорциум готов представить спецификации стандарта VirtualLink для компаний, которые желают получить подробности до предстоящего анонса VirtualLink 1.0.

ИИ научился значительно улучшать фотоснимки

Интересное применение для технологии искусственного интеллекта продемонстрировали разработчики, которые сумели устранить шумы и артефакты с фотографий, сделанных в условиях слабого освещения.

Новый метод улучшения качества фотографий, основанный на алгоритмах глубокого обучения, позволяет делать это, просто глядя на примеры фотографий с дефектом. Этот проект был выполнен исследователями из NVIDIA, Университета Аалто и Массачусетского технологического института (MIT) и представлен на этой неделе на Международной конференции по машинному обучению в Стокгольме (ICML, Швеция).

ИИ научился улучшать фотоснимки
Рис. 1. Пример для пуассоновского шума (λ=30). Результат был получен с использованием зернистых изображений.

В предыдущих проектах в этой области нейросеть обучалась восстанавливать фотографии, определяя разницу между парными изображениями – с шумом и без. Новый метод отличается тем, что нейросети «скармливаются» только изображения с шумом или зерном.
Этой нейросети никогда не показывали, как выглядит чистое изображение, но она способна устранять артефакты, шум, зерно, и автоматически улучшать качество фотографий.

ИИ научился улучшать фотоснимки
Рис. 2. Импульсный шум случайного значения. Созданная система устранения шума обучена только на парах изображений с дефектом.

“ИИ можно научить восстанавливать сигналы, даже без сравнения их с чистыми аналогами, причем с бОльшей скоростью, чем в случае использования исключительно чистых образцов, - утверждают исследователи в своей работе. – Созданная нейросеть не уступает методам, в которых нейросеть учится на основе чистых образцов, — она использует тот же самый метод и не уступает ни по времени обучения, ни по результатам работы”.

Команда проекта обучила свою систему на 50 000 изображениях из набора ImageNet с помощью графических процессоров NVIDIA Tesla P100 с фреймворком глубокого обучения TensorFlow с ускорением cuDNN. Чтобы протестировать систему, были выбраны три разных набора изображений.

Предложенный метод можно использовать не только для домашнего фотоархива, но и для улучшения МРТ-снимков. Это должно значительно усовершенствовать качество визуализации в медицине.

ИИ научился улучшать фотоснимки
Рис. 3. Восстановленный МРТ-снимок. (a) Входное изображение с 10% зафиксированного спектра с масштабированием 1/p. (b) Восстановление с помощью нейросети, обученной на примере «шумных» изображений, близких ко входному изображению. (с) Референсное изображение.

 «В обычной жизни есть ряд ситуаций, когда действительно сложно получить чистые образцы для обучения нейросети: фотографии в условиях низкой освещенности (например, астрономические снимки), физически корректный рендеринг и магнитнорезонансная визуализация, - объясняют разработчики. – Наши демонстрации позволяют потенциально получить весомые преимущества в данных областях, устраняя необходимость в зачастую трудоемком процессе получения чистых данных. Конечно, здесь есть свои ограничения. Мы не можем воссоздать объекты, которые отсутствуют в наборе для обучения. Но это ограничение относится в равной степени и к обучению на основе чистых изображений».

ИИ научился улучшать фотоснимки
Рис. 4. Устранение шума с фотографии Монте-Карло. (a) Изображение, отрисованное с плотностью в 64 выборок на пиксель (spp). (b) Изображение с устраненным шумом в 64 spp, полученное сетью, обученной на изображениях с 64 spp. (с) Референсное изображение, отрисованное с плотностью 131 072 spp.
Источник
Примечательно, что сегодня, пожалуй, наиболее часто обычные пользователи сталкиваются с технологией ИИ как раз в сфере фотографии. Ведущие производители используют ее для помощи с определением параметров съемки в зависимости от сцены. Поэтому можно ожидать дальнейшего развития мобильной фотографии уже с помощью предложенного метода улучшения снимков.

Виртуальная реальность в проектировании

С самого появления технологии виртуальной реальности ее, в первую очередь, нацеливали на игровое применение. Но и в сфере конструирования она оказывается весьма полезной.

Примером применения VR в области проектирования стал проект, реализованный в компании BluePrint Automation (BPA), которая специализируется в области автоматизации упаковочных машин и создают индивидуальные решения для пищевой промышленности. По признанию конструкторов BPA, поскольку разрабатываемое ими оборудование становится всё более сложным, визуализировать его оказывается ещё сложнее. Статичные 3D-модели уже не позволяют достаточно наглядно оценить результат. Поэтому для создания более иммерсивных впечатлений было принято решение BPA перейти на технологию VR. В этих целях было использовано бесплатное решение AMD CAD-to-VR.

Аппаратная платформа применяемой для этого рабочей станции включает графику AMD Radeon Pro WX 9100. На ней выполняется пакет SOLIDWORKS вместе с плагином AMD Radeon ProRender Game Engine Importer и Unreal Engine. Это позволило проводить визуализацию сложных моделей САПР в реальном времени и в виртуальной реальности. С помощью технологии VR конструкторы BPA получили возможность более наглядно анимировать различные механизмы, а также проверять их эргономичность, оценивая разработку до начала производства и экономя при этом время и деньги. Эти виртуальные модели позволили инженерам компании пересмотреть такие ключевые показатели, как работоспособность и ремонтопригодность еще на этапе проектирования. А клиенты BPA смогли оставлять отзывы о разработке еще до начала производства какого-либо оборудования.

А какие аналогичные решения известны вам?

HPC + AI = TOP500

Тенденцией свежего рейтинга самых суперкомпьютеров стало совмещение функций высокопроизводительных вычислений и возможностей по решению задач искусственного интеллекта.

В число новых суперкомпьютеров с поддержкой ИИ вошли первая и третья по производительности системы - Summit и Sierra из США. Графические процессоры с тензорными ядрами также находятся и в основе самого производительного суперкомпьютера Японии - ABCI.

В целом же сопроцессорами-ускорителями оснащено 110 систем из рейтинга TOP500. Причем в 96 из них установлены GPU NVIDIA, в семи – Xeon Phi, в четырех – решения PEZY, а в 20 Xeon Phi используются в качестве основных процессоров. Таким образом, новые системы рейтинга отражают изменение традиционной архитектурной парадигмы суперкомпьютеров.

Технологическим трендом стало и то, что графические процессоры обеспечивают 95% вычислительных возможностей в самых производительных системах мира. Так, первую строчку в списке TOP500 занимает суперкомпьютер Summit, который в этом месяце был запущен в Национальной Лаборатории Окриджа. Его производительность составляет 122 петафлопса (1015 вычислений с плавающей точкой) в вычислениях двойной точности, что позволило обойти систему №2 текущей редакции Sunway TaihuLight из Китая, обеспечивающую 93 петафлопса. Оказывается, что 95% производительности Summit обеспечивают 27 648 графических процессоров с тензорными ядрами – их больше, чем в каком-либо другом суперкомпьютере. По предварительным оценкам, Summit способен показать производительность в ИИ-вычислениях свыше 3 экзаопс, или 3 x 1018 операций в секунду в вычислениях произвольной точности (multi-precision). А ведь это означает достижение новых возможностей для человечества.

Среди других суперкомпьютеров, использующих GPU NVIDIA:
•    № 3: Sierra, в Ливерморской национальной лаборатории им. Лоуренса, с 17 280 GPU и производительностью в 71 петафлопс;
•    № 5: ABCI, самая мощная система Японии, с 4 352 GPU и производительностью в 19.6 петафлопс;
•    № 6: Piz Daint, самая мощная система Европы, с 5 320 GPU и производительностью в 19.5 петафлопс;
•    № 7: Titan, в Министерстве энергетики США, с 18 688 GPU и производительностью в 17.6 петафлопс.
 
Также графические процессоры NVIDIA находятся в основе самого мощного промышленного суперкомпьютера Eni HPC4, предназначенного для задач нефтегазовой промышленности. Расположенный в Италии, суперкомпьютер Eni занимает 13-е место в рейтинге и способен обеспечить 12 петафлопс благодаря 3 200 GPU.

Среди технологических трендов можно также отметить внедрение многоядреных процессоров. В настоящее время практически все суперкомпьютеры (97,8%) базируются на чипах с 8 или более ядрами, а более половины (53,2%) с 16-ядерными CPU. 

Поезд 802.11ax прибывает в июле

На самый разгар летних отпусков – 1 июля – намечено голосование, которое наконец-то должно утвердить черновик спецификации стандарта  802.11ax.

Этот стандарт станет очередной важной вехой развития технологии Wi-Fi, без которой мы уже не можем представить себе современный мир. А ведь еще в начале века он с большим трудом пробивал себе дорогу. Помнится, как на CeBIT 2001 мне довелось вести дискуссию с представителями Wi-Fi.org о перспективах этой технологии. Так что же принесет очередная итерация?

Новый стандарт должен повысить скорость передачи данных пользователей до 30% при одновременном снижении задержки почти в четыре раза. Кроме того, в той же полосе частот, что применяется в действующем сегодня стандарте 802.11ac, можно будет передавать вчетверо больше данных. Это станет возможным благодаря использованию OFDMA-модуляции, которая применяется в сотовых сетях. Будет также расширена поддержка многопользовательских MIMO-антенн и добавлен 1024 QAM.

Из-за своей сложности голосование по спецификации 802.11ax уже дважды проваливалось – в ноябре 2016 и сентябре 2017. Поэтому работа над ней ведется так долго по сравнению с предыдущими редакциями.

Впрочем, уже сегодня ведущие производители беспроводного оборудования заявляют о планах выпуска решений с поддержкой 802.11ax. Ожидается, что готовые продукты на их основе на рынок выйдут в первом квартале 2019 года.

Мобильный подводный ЦОД Microsoft. Детали

Mы уже писали об эксперименте Microsoft с затоплением специального контейнера с ЦОД у берегов Шотландии. Компания опубликовала дополнительные детали.

Как отмечается, развертывание центра обработки данных на Северных островах в Европейском центре морской энергетики (European Marine Energy Centre) - важная веха в многолетнем исследовательском проекте Microsoft Project Natick.

Мобильный подводный ЦОД Microsoft. Детали


Задача Project Natick - изучение возможностей производства и эксплуатации экологически устойчивых автономных модулей ЦОД, которые можно сделать на заказ, быстро установить на морском дне и оставить работать на долгие годы.

Project Natick глава Microsoft Сатья Наделла назвал «релевантными прорывными проектами» (relevant moonshots), способными изменить бизнес его компании и всю индустрию вычислительных технологий.

Более половины населения мира живет примерно в 200 километрах от побережья. Если размещать центры обработки данных под водой вблизи прибрежных городов, то данные пользователей из прибрежной полосы будут передаваться на небольшое расстояние, благодаря чему возрастет скорость и плавность веб-серфинга, потоковой передачи видео и игрового трафика, а также скорость обработки данных с использованием технологий искусственного интеллекта.


12-метровый центр обработки данных, развернутый на Северных островах в рамках проекта Natick, имеет 12 стеллажей, содержащих в общей сложности 864 сервера и систему их охлаждения. Этот ЦОД был собран и протестирован во Франции, после чего доставлен на грузовике в Шотландию, где его прикрепили к треугольной платформе, заполненной балластом, для погружения на морское дно. С помощью кранов и лебедок контейнер ЦОД был частично погружен в воду между понтонами промышленной катамаранной баржи.

На месте установки дистанционно управляемый аппарат достал с морского дна кабель, по которому идет оптоволокно и силовая проводка, и доставил его на поверхность, где его проверили и подключили к ЦОД. После чего опустили всю систему на глубину 35,5 метра и установили на каменную плиту дна. Команда баржи использовала 10 лебедок, кран, понтоны и дистанционно управляемый подводный аппарат, который сопровождал центр обработки данных.

Мобильный подводный ЦОД Microsoft. Детали


Опыт, полученный исследователями в процессе развертывания, и все, что они узнают в течение следующего года работы, прежде чем ЦОД будет поднят, позволит сравнить ожидания с реальностью эксплуатации подводных центров обработки данных в реальных условиях.

Кабель, идущий от электросети Оркнейских островов, где используются только возобновляемые источники, питает электроэнергией центр обработки данных, который требует всего около 250 кВт при работе на полной мощности.

Концепция подводного центра обработки данных впервые была представлена в документе, подготовленном для конференции Microsoft ThinkWeek, на которой сотрудники могут делиться своими идеями. И уже через 12 месяцев после запуска Project Natick, в июле 2014 года, был разработан прототип, испытанный на спокойном мелководье близ берегов Калифорнии на протяжении 105 дней.

По заверению инженеров Microsoft, последняя версия подводного ЦОД может работать без обслуживания до пяти лет.

Первый этап проекта Natick показал, что концепцию подводных ЦОДов можно реализовать на практике. На втором этапе предстоит выяснить, дают ли они преимущества с логистической, экологической и экономической точек зрения.

Приступая ко второму этапу, команда Microsoft понимала, что масштабируемое производство подводных центров обработки данных потребует участия сторонних экспертов. Поэтому корпорация заключила соглашение с французской компанией Naval Group, имеющей 400-летнюю историю и богатый опыт проектирования, производства и эксплуатации военных кораблей и подводных лодок, а также морских энергетических технологий.

Мобильный подводный ЦОД Microsoft. Детали


Naval Group адаптировала процесс теплообмена, обычно используемый для охлаждения подводных лодок, для подводного центра обработки данных. Система пропускает морскую воду через радиаторы на задней части каждого из 12 серверных стеллажей и выпускает обратно в океан. Как исследователи выяснили на первом этапе проекта Project Natick, вода, использованная для охлаждения, быстро рассеивается подводными течениями.

Интересно, что одна из ключевых спецификаций проекта, необходимая для оптимизации существующих логистических цепочек, требовала, чтобы размеры конструкции примерно соответствовали размерам стандартных контейнеров, используемых для перевозки грузов на судах, поездах и грузовиках.

Команда Project Natick проведет следующие 12 месяцев, наблюдая за производительностью центра обработки данных и записывая все его показатели — от температуры и потребления энергии до уровней внутренней влажности и шума.

Вода в глубинах мирового океана постоянно холодная, благодаря чему ее можно использовать для охлаждения, бесплатно и в любых объемах, а ведь охлаждение — одна из самых больших статей расходов в наземных ЦОДах. Подводные центры обработки данных могут быть главными потребителями возобновляемой энергии, получаемой с помощью приливных турбин или береговых ветряков, что позволяет этим двум индустриям совместно развиваться.

Десктопная многоядерность – большое соперничество обостряется

Извечная конкуренция Intel и AMD в очередной раз обострилась, на этот раз крупнейшие производители процессоров архитектуры x86 соперничают по числу ядер.

Сценой для представления новинок обоих компаний стала выставка Computex 2018, к которой оба игрока традиционно стараются приурочить свои важные анонсы.

Так анонсированный Intel чип Cascade Lake-X содержит 28 ядер, что позволяет обслуживать 56 вычислительных потоков. Тепловой пакет Cascade Lake-X составляет 300 Вт. Стоит напомнить, что в арсенале Intel уже имеется серверная платформа Xeon с таким же количеством ядер. Теперь аналогичное решение появится и в настольных ПК. Примечательно, что для него обещана возможность разгона до 5 ГГц, тогда как в серверных чипах этот показатель не превышает 4,4 ГГц. Ожидается, что Intel Cascade Lake-X появится на рынке к концу текущего года.

Аналогичный шаг сделала и AMD, которая анонсировала 32-ядерный процессор Threadripper второго поколения с поддержкой 64 вычислительных потоков. Примечательно, что в первых Threadripper содержалось 16 ядер. Будет выпускаться также версия новых чипов с 24 ядрами и соответственно 48 потоками. AMD собирается пошатнуть позиции своего главного конкурента не только рекордным числом ядер, но и опередив его с выводом своей новой платформы на рынок уже в августе 2018 года.

В процессорах Threadripper 2 используется архитектура Zen+, и они будут выпускаться по технологии 12 нм. Про эти чипы также известно, что они будут состоять из четырёх размещенных на общей подложке кристаллов, которые соединены между собой шиной Infinity Fabric. Довольно массивная микросхема устанавливается в процессорный 4094-контактный разъем TR4 (LGA).

Среди особенностей нового процессора AMD – суммарная поддержка только четырех каналов оперативной памяти DDR4-3200. Его тепловой пакет не превысит 250 Вт. Чип оснащен 64 МБ кэш-памяти L3, а его базовая тактовая частота составляет 3 ГГц с возможностью разгона до 3,4 ГГц. Реализована поддержка до 64 линий шины PCIe 3.0.

При знакомстве с анонсами сразу же возникает вопрос о необходимости такого большого числа ядер в настольных системах. Вспоминается, как еще несколько лет при анонсе восьмиядерных процессоров этого же класса было весьма проблематично нагрузить их все одновременно, так как фактически отсутствовали способные сделать это приложения. При том, что в серверных платформах с этим проблем нет. Поделитесь своим опытом использования настольных приложений, требовательных к большому числу вычислительных потоков. Неужели уже произошла революция, о которой меня никто не известил, и многопоточность стала нормой проектирования ПО?

О возможностях FPGA

Относительно недавно приобретенный Intel бизнес программируемой логики FPGA в последнее время стал все чаще попадать в новостные ленты благодаря своим достижениям.

Про интересные проекты, реализованные в Programmable Solutions Group (PSG), который объединяет все, что связано с FPGA, рассказал в корпоративном блоге его глава Дэниел Макнамара (Dan McNamara). Мы уже останавливались на совместном проекте Intel и Microsoft Brainwave, посвященном искусственному интеллекту, который работает в режиме реального времени на сборочных линиях Jabil. Теперь же стоит остановиться на сервисах искусственного интеллекта на базе устройств FPGA, которые отличаются исключительно высокой пропускной способностью и могут работать с глубокой нейронной сети ResNet-50, требующей выполнения почти 8 миллиардов операций. Всё это достижимо с помощью устройств FPGA, которые реализуют любое сочетание логических функций, могут быть оптимизированы по объему используемых элементов, производительности или энергопотреблению. Поскольку эта матрица реализована на аппаратном уровне, она может быть настроена под условия конкретной задачи и выполнять параллельные вычисления. Это позволяет добиться на порядки более высокой производительности по сравнению с использованием традиционной программной методологии или ресурсов графических процессоров.

В корпоративном мире давно оценили преимущества FPGA. Компании Dell EMC и Fujitsu устанавливают программируемые ускорители Intel Arria 10 GX Programmable Acceleration Cards (PAC) в свои серийные серверы и корпоративные центры обработки данных. В сочетании с процессорами Intel Xeon устройства подходят для задач, требующих интенсивной обработки огромных объёмов данных – для работы приложений на базе искусственного интеллекта, перекодирования видео, решения финансовых задач, задач кибербезопасности или геномики. Это сферы, в которых пригодятся возможности параллельных вычислений и вычислений в режиме реального времени, которые доступны в устройствах FPGA. Intel активно развивает партнерскую экосистему для создания полноценных готовых решений для масштабных задач с использованием стека AccelerationStack для процессоров Intel Xeon с устройствами FPGA.

Компания Levyx использует акселераторы Intel PAC на базе устройств FPGA Arria 10 для ускорения процессов тестирования на основе исторических финансовых данных – распространенного приема, который позволяет спрогнозировать эффективность стратегий алгоритмической торговли при работе с различными финансовыми инструментами, в том числе с самыми различными ценными бумагами, опционами и деривативами. Прежде для такой интенсивной работы с данными могло потребоваться несколько часов или даже дней. Специалисты Levyx смогли добиться увеличения производительности тестирования на основе исторических финансовых данных на 850%. На рисунке ниже представлены данные по 50 расчетам для 20 различных ценных бумаг.
О возможностях FPGA
Масштабы внедрения устройств FPGA для облачных приложений сегодня растут как никогда: предприятия активно используют эти технологии для работы с большими данными. Аналогичное изменение парадигмы наблюдается и на периферии. Согласно результатам исследования, большинство данных к 2020 году будут генерироваться в результате работы устройств, оборудования, механизмов, а не деятельности людей. Данные будут поступать из самых различных отраслей – из промышленного производства, робототехники, здравоохранения, розничной торговли, и инфраструктура должна быть готова к их обработке.

На периферии у FPGA тоже много работы – устройства могут использоваться как в бизнесе, так и в научно-исследовательской деятельности. Так, компания Dahua – поставщик решений систем видеонаблюдения – нуждалась в средствах для быстрого распознавания лиц в условиях ограниченной пропускной способности сети и с лимитами по энергопотреблению. Решением стало использование устройств FPGA в качестве платформы для построения логических выводов непосредственно на периферии. Dahua оснащает сервера DeepSense устройствами FPGA от Intel для распознавания лиц по базе данных, насчитывающей 100 000 изображений.

Intel сотрудничает с Национальным научно-исследовательским советом Канады, который участвует в создании радиотелескопов нового поколения SquareKilometreArray (SKA). Они станут крупнейшими в мире, их быстродействие будет в 10 000 раз превышать возможности существующих аналогов, а разрешающая способность будет увеличена в 50 раз. В результате телескопы будут генерировать огромные объемы видеоданных – за несколько месяцев системе придется обрабатывать объем данных, сопоставимый с годовым объемом всех передаваемых данных по Интернету.

В решении NRC в центральном пункте обработки данных SKA телескопа в Южной Африке используются устройства FPGA Intel Stratix 10 SX, которые в режиме реального времени осуществляют обработку и анализ собираемых данных непосредственно на периферии.

Объемность становится все реальнее

Активные попытки производителей дисплеев создать эффект объемности с помощью очков провалились, поэтому дальнейшие поиски ведутся преимущественно в тех направлениях, где не требуется каких-то дополнительных средств.

На стартовавшей с 21 мая выставке-конференции SID DISPLAY WEEK 2018 был впервые продемонстрирован прототип дисплея на базе технологии светового поля, разработанный совместно Japan Display и NHK Media Technology. Это устройство с диагональю 17 дюймов позволяет наблюдать картинку с полным ощущением ее объемности.
Объемность становится все реальнее
Примечательно, что в последнее время появляется все больше разработок в этой сфере, но устройства этого класса, о которых упоминалось в этом блоге, не отличались большими размерами. А 17-дюймовый экран – это серьезная заявка.

Интересно, что на SID DISPLAY WEEK 2018 отмечается 50-летие ЖК-мониторов. Понятно, что в нашу страну они попали несколько позже, но первые отдельно стоящие дисплеи с ЖК-панелями, поступившие на наш рынок, были с диагональю не более 15 дюймов. И даже страшно вспомнить по каким ценам они предлагались.

Так вот, по заявлению разработчиков прототипа, о котором идет речь, это решение должно выйти на рынок в течение следующего финансового года, который начинается 1 апреля 2019 г.

О технических особенностях решения известно лишь, что в нем используется ЖК-панель с разрешением 8K. А благодаря применению продвинутых алгоритмов сжатия удается распаковывать  в режиме реального времени большой объем информации об изображениях каждой сцены видеопотока.

Судя по тому, что разработчики ориентируют это решение, в первую очередь, в профессиональный сегмент, можно ожидать, что цена окажется, мягко говоря, заоблачной. Говорится о том, что этот дисплей окажется полезным в сфере образования и медицины. Так как формат видео для светового поля еще не стандартизован, вряд ли обычный пользователь получит удовольствие от просмотра полноценного объемного видео, которое пока просто негде взять. Поэтому будем ждать внедрения сквозных решений этого класса.

Project Brainwave – ИИ работает в реальном времени

Контрактный производитель электроники Jabil внедрил на своем сборочном конвейере систему контроля качества, построенную на базе технологии искусственного интеллекта. Для этого была использована аппаратная архитектура, разработанная для ускорения вычислений, которые выполняются искусственным интеллектом (ИИ) в реальном времени. Она была создана в рамках проекта Microsoft Project Brainwave. Причем в ней задействована программируемая логика FPGA производства Intel. Вот уж неожиданное возвращение альянса, прежде известного как Wintel. Главная особенность этого проекта заключается в возможности производить анализ методами ИИ в режиме реального времени, причем с приемлемыми расходами и с самой низкой задержкой в отрасли (про это представители Microsoft утверждают на основании внутренних измерений производительности и их сравнения с общедоступной информацией других организаций).

На прошедшей 7–9 мая в Сиэтле конференции разработчиков Build Microsoft объявила о выпуске предварительной версии Project Brainwave, интегрированной с платформой машинного обучения Azure Machine Learning. Заявлено, что это позволяет говорить про Azure, как самую эффективную облачную платформу для ИИ.

Марк Руссинович, технический директор Microsoft Azure, говорит, что предварительная версия Project Brainwave знаменует начало разработок Microsoft по применению широких возможностей FPGA в самых разных целях. «Я полагаю, это первый шаг к превращению FPGA в потребительскую платформу более широкого применения», — говорит Руссинович.

Предварительная версия Project Brainwave позволяет очень быстро распознавать изображения для различных целей, включая то, что требуется Jabil. Появляется возможность производить вычисления на основе ИИ в реальном времени, вместо того чтобы разделять задания на небольшие части и выполнять их по отдельности. Проект работает на основе TensorFlow, одной из наиболее распространенных вычислительных платформ для ИИ, которая использует глубокие нейронные сети, грубо моделирующие работу человеческого мозга. Кроме того, Microsoft работает над добавлением поддержки Microsoft Cognitive Toolkit — еще одной популярной платформы для глубокого обучения.

Microsoft объявила также о выпуске ограниченной предварительной версии Project Brainwave для умных сенсоров (Intelligent Edge). В результате пользователи получат выгоду от ускорения вычислений, производимых непосредственно на их предприятиях, даже если соответствующие системы не подключены к сети или Интернету. По признанию ИТ-менеджера Jabil Райан Литвак, доступность Project Brainwave на умных сенсорах позволяет использовать эту систему непосредственно в производственных помещениях, что очень важно для обеспечения практичности и прибыльности всех операций. В планах Jabil расширить проект, вывести его за рамки пилотного и применять для всех производственных операций. Кроме прочего, Jabil ищет способы использования ИИ в Project Brainwave для более точного определения приближающихся сроков обслуживания производственных систем, чтобы сокращать время простоя.

Примечательно, что общедоступная предварительная версия Project Brainwave выходит через пять лет после того, как Дуг Бюргер, бывший академический ученый, а теперь руководитель исследовательской группы в Microsoft, впервые предложил использовать FPGA для повышения эффективности вычислений. Пока он вынашивал эту идею, в области ИИ произошли большие сдвиги. Появился большой спрос на системы, способные обрабатывать огромные объемы данных, необходимые приложениям на основе ИИ для сканирования документов и изображений, распознавания речи, перевода текстов на другие языки и выполнения многих других задач.

Бюргер говорит, что Project Brainwave идеально подходит для удовлетворения вычислительных потребностей ИИ. Аппаратную архитектуру Project Brainwave можно быстро совершенствовать, перестраивая структуру FPGA после каждого улучшения, удовлетворяя требования динамично меняющихся алгоритмов ИИ. По всем прогнозам, спрос на системы, способные быстро и с приемлемыми расходами решать задачи ИИ, будет только расти. Поэтому компании ищут всё новые возможности для применения ИИ, например для анализа неструктурированных данных, таких как видео, и разрабатывают все более сложные алгоритмы ИИ, способные, например, находить в видеопотоке кадры с городами, стоящими на берегах океанов.

Когда Бюргер и его команда начали работать над проектом, превратившимся в Project Brainwave, микросхемы FPGA не были новинкой, но никто еще не рассматривал всерьез возможность их использования для крупномасштабных вычислений. Поэтому надо было доказать, что в использовании FPGA есть практический смысл. Так для работы над проектом, сначала получившим название Project Catapult, команда Бюргера нашла партнеров — разработчиков поисковой системы Bing и облачной платформы Azure.

Эрик Чанг, старший исследователь из группы Microsoft Silicon Systems Futures и технический руководитель Project Brainwave, охарактеризовал Bing как систему, «стесненную лишь малой задержкой». Это означает, что пользователь Bing вводит поисковый запрос и ожидает, что получит результат почти мгновенно. Поэтому инженеры, работающие над Bing, постоянно ищут способы повысить качество поиска, тогда как объем и сложность данных, которые приходится обрабатывать поисковой системе, только растут. С помощью FPGA разработчикам удалось быстро встроить в Bing поисковые технологии на основе глубоких нейронных сетей и значительно ускорить выдачу результатов поиска.

Тед Вэй, старший менеджер программ Azure Machine Learning, говорит, что программируемые микросхемы имеют еще одно большое преимущество: их можно легко перепрограммировать, когда появляются новые достижения, тогда как другое оборудование приходится полностью обновлять, что может занимать месяцы или годы. Последние несколько лет микросхемы FPGA используются и для ускорения работы облачных сетей Azure.

Для многих потребителей самое большое преимущество Project Brainwave — это возможность использовать ИИ для анализа данных по мере их поступления в режиме реального времени. Компания Esri, разрабатывающая продукты для геопространственного анализа данных, использует средства обработки трафика в реальном времени, чтобы разделять земельные участки по категориям, таким как «здания», «лес» и «вода», и прогнозировать время прибытия тысяч транспортных средств. Эти проекты требуют анализа больших объемов разнородных данных, полученных из разных источников, включая спутниковую съемку, видеонаблюдение и различные датчики.

С улучшением продуктов на основе ИИ, потребности в обработке больших объемов данных в реальном времени только увеличиваются. Например, можно извлекать информацию из тысяч видеопотоков, чтобы отслеживать автомобили, велосипеды, автобусы, пешеходов и другие объекты для выявления шаблонов и аномалий дорожного движения. Другой пример — анализ в реальном времени данных спутниковой съемки для обнаружения различных объектов, таких как поврежденные дома. Поэтому Esri обсуждает с Microsoft возможности использования Project Brainwave для более эффективного и экономичного анализа данных в реальном времени с помощью ИИ.

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT