`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Как изменилось финансирование ИТ-направления в вашей организации?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Рывок Google в квантовых вычислениях открывает новый фронт в облачной битве

В течение многих лет Google вкладывала время и деньги в одну, возможно, самую амбициозную мечту современных технологий – создание рабочего квантового компьютера. Теперь компания думает о способах превращения проекта в бизнес.

Вчера Bloomberg опубликовал развернутый материал о последних результатах Google в разработке квантовых вычислений. Причем сам заголовок этой публикации говорит уже о многом "Google’s Quantum Computing Push Opens New Front in Cloud Battle".

Google Alphabet Inc. в последние месяцы предложила научным лабораториям и исследователям ИИ ранний доступ к своим квантовым машинам через Интернет. Цель состоит в том, чтобы стимулировать разработку инструментов и приложений для этой технологии и, в конечном счете, превратить ее в более быструю и мощную службу облачных вычислений.

Квантовые вычисления все еще выходят из долгой фазы исследования, и их возможности горячо обсуждаются. Тем не менее, зарождающиеся усилия Google по их коммерциализации и аналогичные шаги со стороны IBM открывают новый этап конкуренции на быстрорастущем облачном рынке.

Джонатан Дюбуа (Jonathan DuBois), ученый из Национальной лаборатории Лоуренса в Ливерморе, сказал, что сотрудники Google ясно дали понять о планах открыть квантовую технику через облачную службу и пообещали, что правительственные и академические исследователи получат свободный доступ. В то же время, представитель Google отказался от комментариев.

Квантовые компьютеры основаны на «кубитах», которые могут иметь состояния 1, 0 или суперпозицию этих состояний. Пока неясно, работает ли это лучше, чем существующие суперкомпьютеры. И технология пока не поддерживает коммерческую деятельность.

Тем не менее, Google и все большее число других компаний считают, что они преобразуют вычисления и позволят решать некоторые важные задачи в миллионы раз быстрее. Новый гигантский фонд SoftBank Group Vision исследует инвестиции в эту область, а IBM и Microsoft работают над этим в течение многих лет наряду с D-Wave Systems Inc.

В 2014 году Google обнародовала усилия по разработке собственных квантовых компьютеров. Ранее в этом году она заявила, что система продемонстрирует свое «превосходство» - теоретический тест, который будет выполняться на уровне или лучше, чем это делают существующие суперкомпьютеры, - к концу 2017 года.

Квантовые компьютеры – это громоздкие звери, которым требуется особая забота, например, глубокое охлаждение, поэтому их, скорее всего, лучше арендовать через Интернет, чем покупать и размещать в собственных ЦОД. Если машины будут значительно быстрее, это станет основным конкурентным преимуществом для облачного сервиса. Теоретически квантовые машины резко сокращали бы время вычислений, предоставляя облачному сервису огромные ценовые преимущества.

Ранее в этом году облачный бизнес IBM начал предлагать доступ к квантовым компьютерам. В мае компания добавила 17-кубитовый прототип квантового процессора для еще экспериментального сервиса. Google заявила, что разрабатывает машину с 49 кубитами, хотя неясно, является ли это компьютером, предлагаемым через Интернет внешним пользователям. В то же время, по мнению проф. Сета Ллойда (Seth Lloyd) из МТИ, полезные приложения появятся, когда система будет иметь более 100 кубитов.

В то же время, проф. Ллойд приписывает Google интерес к более широкому кругу вопросов. Теперь появляются квантовые стартапы, «растущие как грибы», - сказал он.

Один из них - Rigetti Computing, который собрал более 69 млн. долл. для создания оборудования и программного обеспечения для квантового компьютера. Оно включает облачный сервис «Forest», выпущенный в июне, который позволяет компаниям экспериментировать с его зарождающимся механизмом.

Его основатель Чад Ригетти (Chad Rigetti) видит, что технология становится такой же горячей, как и ИИ, но он не ставит ее в планы. «Эта отрасль еще в зачаточном состоянии, - сказал он. - Никто не создал квантовый компьютер, который работает».

Надежда в этой области заключается в том, что функционирующие квантовые компьютеры, если их создадут, будут иметь множество применений, таких как улучшение солнечных панелей, открытие лекарств или даже разработку удобрений. В настоящее время единственные алгоритмы, которые работают на них, хороши для моделирования в химии, по словам Робина Блюм-Коута (Robin Blume-Kohout), технического сотрудника Sandia National Laboratories, который оценивает квантовое оборудование.

Конец sneakernet?

Не все восторгаются скоростями Интернета. Инструмент, получивший название OneDataShare и предназначенный для работы с существующей вычислительной инфраструктурой, обещает увеличить скорость передачи данных более чем в 10 раз.

Для исследователей и компаний, использующих чрезвычайно большие наборы данных, такие как карты генома или спутниковые снимки, быстрее отправлять документы автомобилем или самолетом. Замедление приводит ко всему: от потери производительности до неспособности быстро предупредить людей о стихийных бедствиях.

Университет в Буффало (UB) получил грант Национального научного фонда в размере 584 469 долларов для решения этой проблемы. Исследователи создадут инструмент, получивший название OneDataShare, предназначенный для работы с существующей вычислительной инфраструктурой, чтобы увеличить скорость передачи данных более чем в 10 раз.

«Большинство пользователей не получают даже доли теоретических скоростей, обещанных существующими сетями, а пропускная способность существует. Нам просто нужны новые инструменты, чтобы воспользоваться ею», - говорит Тевфик Косар (Tevfik Kosar), доцент кафедры компьютерных наук UB и главный получатель гранта.

Крупные предприятия, государственные учреждения и другие компании могут ежедневно генерировать 1 петабайт (или намного больше) данных. Каждый петабайт составляет один миллион гигабайт или примерно эквивалент 20 миллионов шкафов с четырьмя ящиками, заполненных бумагами. Передача этих данных через Интернет с использованием стандартных высокоскоростных сетей может занять несколько дней, если не недель.

Это узкое место вызвано несколькими факторами. Среди них: нестандартные протоколы или правила, которые определяют формат передачи данных через Интернет; проблемы с маршрутами, по которым передаются данные из своей точки отправления до места назначения; как информация хранится и ограничения вычислительной мощности компьютеров.

Вместо того чтобы ждать, пока данные передадутся через Интернет, отдельные лица и компании могут выбрать для записи данных диски и просто доставить их до места назначения. Это иногда называют sneakernet (сеть физической транспортировки) - идея в том, что физическая доставка информация более эффективна.

Провайдеры управляемых сервисов передачи файлов, такие как Globus и B2SHARE, помогают облегчить проблемы с совместным использованием данных, но д-р Косар говорит, что они по-прежнему страдают от медленных скоростей передачи, негибкости, ограниченной поддержки протокола и других недостатков.

Государственные учреждения, такие как Национальный научный фонд США (NSF) и Министерство энергетики США, хотят устранить эти ограничения, разработав высокопроизводительные и экономически эффективные технологии доступа к данным и обмена ими. Например, NSF сказал в докладе, что киберинфраструктура должна «обеспечивать надежное участие, доступ, анализ, взаимодействие и перемещение данных».
OneDataShare пытается сделать это с помощью уникальной программной и исследовательской платформы. Его основные цели заключаются в следующем:
• сократить время, необходимое для доставки данных. Это будет достигнуто посредством настройки уровня приложения и оптимизации ТСР-базированных протоколов передачи данных, таких как HTTP, SCP и т. п.
• позволить людям легко работать с разными наборами данных, которые традиционно не были совместимы.
• Снизить неопределенность в процессах принятия решений в режиме реального времени и улучшить прогнозы времени доставки.

По словам д-ра Косара, сочетание инструментов OneDataShare, улучшающее скорость обмена данными, взаимодействие между различными программами данных и услуги прогнозирования, приведет к многочисленным преимуществам.

«Все, что требует передачи больших объемов данных, от погодных условий в режиме реального времени и стихийных бедствий до обмена геномными картами и анализа поведения потребителей в режиме реального времени, извлечет пользу от OneDataShare», - сказал д-р Косар. 

       Конец sneakernet?

Наномагниты для будущего хранения данных

Новый метод осаждения отдельных намагничиваемых атомов на поверхность может быть особенно интересен для разработки новых миниатюрных устройств хранения данных.

Идея является интригующей: если для одного бита данных (в случае двоичной цифровой технологии) необходим только один атом или небольшая молекула, массивные объемы данных могут храниться в минимальном объеме пространства. Это теоретически возможно, потому что некоторые атомы могут намагничиваться только в одном из двух возможных направлений: спин вверх и спин вниз. Затем информация может быть сохранена и считана как последовательность направлений намагничивания молекул.

Однако еще предстоит преодолеть несколько препятствий, прежде чем хранение данных на одномолекулярных магнитах станет реальностью. Нахождение молекул, которые могут хранить магнитную информацию постоянно, а не просто мимолетно, является проблемой, и еще сложнее организовать эти молекулы на твердой поверхности для создания носителей хранения данных. Для решения этой проблемы международная команда исследователей, возглавляемая химиками из ETH, Цюрих, разработала новый метод, который предлагает ряд преимуществ по сравнению с другими подходами.

Кристоф Копере (Christophe Copéret), профессор Лаборатории неорганической химии в ETH, и его команда разработали молекулу с атомом диспрозия в ее центре (диспрозий представляет собой металл, относящийся к редкоземельным элементам). Этот атом окружен молекулярным каркасом, который служит в качестве носителя. Ученые также разработали метод осаждения таких молекул на поверхности наночастиц кремнезема и сплавления их путем отжига при 400 градусах Цельсия. Молекулярная структура, используемая в качестве носителя, распадается в процессе, давая наночастицы с атомами диспрозия, хорошо диспергированными на их поверхности. Ученые показали, что эти атомы могут быть намагничены и поддерживать свое магнитное состояние.

Процесс намагничивания в настоящее время работает всего около -270 градусов Цельсия (вблизи абсолютного нуля), и намагниченность может поддерживаться на протяжении полутора минут. Поэтому ученые ищут методы, которые позволят стабилизировать намагниченность при более высоких температурах и в течение более длительных отрезков времени. Они также ищут способы сплавить атомы на плоскую поверхность, а не на наночастицы.

Одним из преимуществ нового метода является его простота. «Наночастицы, связанные с диспрозием, могут быть изготовлены в любой химической лаборатории. Чистая комната и сложное оборудование не требуется», - говорит Флориан Аллуш (Florian Allouche), докторант группы проф. Копере. Кроме того, намагничиваемые наночастицы можно хранить при комнатной температуре и повторно использовать.

Другие методы включают прямое осаждение отдельных атомов на поверхность, однако полученные материалы устойчивы только при очень низких температурах, главным образом, благодаря агломерации этих отдельных атомов. Альтернативно, молекулы с идеальными магнитными свойствами могут осаждаться на поверхность, но эта иммобилизация часто отрицательно влияет на структуру и магнитные свойства конечного объекта.

Наномагниты для будущего хранения данных

А атомы диспрозия (зеленые) на поверхности наночастиц могут намагничиваться только в одном из двух возможных направлений: спин вверх и спин вниз

Настольные сканеры могут быть использованы для кибератаки

Согласно исследованию ученых из Университета Бен-Гуриона (BGU) в Негеве и Института науки Вейцмана, в сеть компании можно проникнуть через типичный офисный сканер с использованием различных источников света.

«В статье "Ой! Я думаю, что я просканировал вредоносное ПО", мы продемонстрировали, как использовать лазер или смарт-лампочку, чтобы создать скрытый канал между внешним злоумышленником и вредоносным ПО, установленным на сетевом компьютере, - сказал ведущий автор Бен Насси (Ben Nassi), аспирант отдела программного обеспечения и разработки информационных систем BGU, а также сотрудника Исследовательского центра кибербезопасности BGU (CSRC). - Сканер с открытой крышкой чувствителен к изменениям окружающего света и может использоваться в качестве черного входа в сеть компании».

Исследователи провели несколько демонстраций передачи сообщения на компьютеры, подключенные к планшетному сканеру. Используя источники прямого лазерного излучения на расстоянии до полумили (900 метров), а также на дроне вне своего офисного здания, исследователи успешно отправили сообщение для запуска вредоносного ПО через сканер.

В другой демонстрации исследователи использовали смартфон Galaxy 4 для захвата смарт-лампочки (с использованием радиосигналов) в той же комнате, что и сканер. С помощью написанной ими программы они манипулировали смарт-лампой для излучения пульсирующего света, который доставлял инициирующее сообщение всего за несколько секунд.

Чтобы смягчить эту уязвимость, исследователи рекомендуют организациям подключать сканер к сети через прокси-сервер – компьютер, который действует как посредник, что предотвратит создание скрытого канала. Однако это может считаться крайним решением, поскольку оно также ограничивает печать и отправку факсов удаленно на МФА.

«Мы считаем, что наше исследование повысит осведомленность об этой угрозе и приведет к защищенным протоколам сканирования, которые предотвратят от создания такого скрытого канала через внешний источник света, смарт-лампочку, телевизор или другое устройство IoT», - сказал Насси.

 

HPE объединяет ИТ и OT с платформой Edgeline для обработки данных IoT

На конференции Discover, прошедшей 6—8 июня в Лас-Вегасе, HPE представила свою программную платформу сервисов Edgeline и связанные с ней приложения.

Операционные технологии (ОТ) и ИТ до недавнего времени существовали как два разных мира. Однако появление датчиков в автомобилях, телефонах, термостатах, холодильниках и заводских устройствах в частности и IoT в целом изменяет положение вещей.

Теперь, когда огромные объемы данных собираются всевозможными устройствами изо всех мест, возрастает потребность в объединении ИТ и ОТ для сбора, хранения и анализа информации наиболее экономичным способом - все в режиме реального времени. По мере того как эти миры объединяются, граница сети все в большей степени становится местом, где выполняются операции.

Предприятия теперь используют граничные вычисления для создания «умных» зданий и городов, более эффективных производственных цехов и уникального опыта розничных клиентов. Это огромная возможность для таких поставщиков, как IBM, Cisco, GE и HPE.

«Мы находимся на передовых линиях, управляя интеллектуальной границей, по мере того как ваше предприятие простирается от широко подключенных цифровых рабочих мест до интеллектуально контролируемых операций для трансформационных процессов для ваших клиентов, - сказала генеральный директор HPE Мег Уитмен (Meg Whitman) в ключевом выступлении на конференции компании Discover в Лас-Вегасе. - Мы получаем все больше и больше данных на границе, поэтому данные не должны перемещаться назад и вперед в ЦОД или облако, и реальность заключается в том, что зачастую данные должны быть захвачены и проанализированы на границе сети, уменьшая тем самым латентность».

На прошлогодней конференции Discover HPE представила так называемые первые конвергентные системы для IoT. Системы Edgeline EL1000 и EL4000 базируются на процессорах Intel Xeon и предлагают встроенные вычисления, хранение и сбор данных, существенно перенося мощность центра обработки данных на периферию сети в аппаратные средства, которые могут быть установлены на всевозможные вещи, в заводские здания, вагоны или даже ветряные мельницы.

Теперь HPE запускает платформу Edgeline Services Platform (ESP), базовый слой программного обеспечения, на котором компания и ее партнеры могут создавать и подключать приложения для получения и управления данными из множества разных источников. Идея заключается в том, что, добавляя аналитику и при необходимости облачные сервисы, компании могут извлечь информацию и облегчить действия для улучшения клиентского опыта, а также своих собственных результатов.

ESP – открытая платформа: она может работать на Xeon, Linux или Windows, включает в себя стандарт модульного измерительного оборудования PXI, и HPE публикует спецификации для нее.

«Когда мы добираемся до границы далеко от центра обработки данных, мы видим совершенно новый мир, который довольно распространен и очень велик, но это не ИТ, - сказал Том Брадичич (Tom Bradicich), генеральный менеджер HPE по серверам, конвергентным системам и IoT. - Причина, по которой мы объединяем ИТ и ОТ, та, что клиенты хотят, чтобы мы это сделали. Существуют разные границы, но самые распространенные - это IoT, потому что он достиг статуса знаменитости».

Наряду с внедрением новой платформы HPE использует специальный термин для того, что она называет новой категорией продуктов: программно-ориентированные OT. Системы Edgeline включают прошивку HPE iLO, позволяющую управлять ими из ЦОД или даже с удаленных устройств с помощью программного обеспечения HPE для управления.

Вместе с Edgeline Services Platform, HPE представила приложение для сбора данных Edgeline Data Aggregation, которое подключается к платформе и может принимать данные от программируемых логических контроллеров, которые по существу являются устройствами OT.

HPE также анонсировала приложение Edgeline Address Translation для преобразования адресов, которое сводит задачи, связанные с трансляцией сетевых адресов из более крупной сети, например, на заводе, к подсетям, таким как конкретные производственные линии.

По сути, HPE позволяет предприятиям устранять отдельные проприетарные маршрутизаторы и коммутаторы, заменяя эти устройства аппаратным и программным обеспечением, интегрированным с платформой Edgeline.

HPE оценивает новое программное обеспечение, доступное сейчас, несколькими способами: отдельно (по требованию клиента), в комплекте с устройством Edgeline или как подписку на сервис.

HPE объединяет ИТ и OT с платформой Edgeline для обработки данных IoT

Мег Уитмен: «Реальность заключается в том, что зачастую данные должны быть захвачены и проанализированы на границе сети, уменьшая тем самым латентность»

Cisco адаптируется к росту облачных вычислений

Интернет вещей, облачные вычисления и растущая киберпреступность, каким бы странным ни казалось такое сочетание, изменяют ИТ-ландшафт, заставляя изменять стратегию даже таких гигантов, как Cisco Systems. Это не пришло незамеченным таким изданием, как The Economist, небольшая статья из которого предлагается вниманию наших читателей.

Когда Джон Чемберс руководил Cisco, крупнейшим в мире производителем сетевого оборудования, его гиперактивность почти соответствовала скорости коммутаторов и маршрутизаторов, которые сделали состояние фирмы. Он подтолкнул Cisco к десяткам новых предпринимательств, от приставок до виртуальной медицинской помощи. Он путешествовал по миру, проповедуя достоинства связи. В его интервью было сложно вставить слово. Беседы неизменно заканчивались беспокойным вопросом: «Что мы должны делать по-другому?»

Чак Роббинс, который сменил г-на Чемберса в июле 2015 года, имеет двадцатилетний опыт продажи оборудования Cisco, и ему, кажется, более удобно говорить о своей основной деятельности, чем о диверсификации. Но он тоже осознает необходимость продолжать двигаться: «Сеть становится сложной. Нам нужны интуитивные сети, которые безопасны и могут учиться и адаптироваться». Cisco наиболее известна своими коммутаторами и маршрутизаторами. Несмотря на то, что они построены на открытых стандартах Интернета, Cisco стала доминировать в сети передачи данных телекоммуникационных фирм и других предприятий. Ее устройства хорошо работают друг с другом, и ими можно централизованно управлять. Большинство сетевых инженеров фирм знают, как использовать продукты Cisco. Хотя в последние годы ее рыночная доля снизилась, фирма по-прежнему продает более половины всех новых коммутаторов и маршрутизаторов, которые вместе генерируют более половины годового дохода в размере около 50 млрд долл.

По словам Пьера Феррагу (Pierre Ferragu) из исследовательской фирмы Sanford C. Bernstein, владение самой мощной платформой в сети защищает ее от конкурентов, таких как Huawei и Arista Networks. Это также делает Cisco менее уязвимой для проблемы, от которой страдают некоторые производители вычислительной техники и оборудования для хранения данных, такие как Dell EMC или HPE: скатывание к выпуску продуктов массового спроса, приводящего к тому, что они теряют силу в ценообразовании.

Но лидерство Cisco сталкивается с двумя угрозами. Во-первых, чем больше вычислений делается в облаке, тем меньше приходится фирмам покупать собственное оборудование, в том числе сетевое. Вместо того чтобы платить за «сквозную сеть» от Cisco, крупные облачные операторы, такие как Amazon и Microsoft, предпочитают устройства, которые точно соответствует их требованиям. Вот почему продажи Cisco для облачных вычислений разочаровывают, в то время как более специализированные поставщики, такие как Arista, добились успеха. Вторая угроза заключается в том, что программное обеспечение становится все более важным для того, как работают сети: это облегчает конкурентам возможность обойти или обогнать продукты Cisco.

По словам г-на Роббинса, Cisco ответила несколькими способами. Она предлагает индивидуальные продукты для крупных поставщиков облачных вычислений. Она расширила свой бизнес в области ПО и услуг, а для обеспечения более стабильных доходов делает больше своих продуктов доступными по подписке. Ранее в этом году фирма купила AppDynamics, которая разрабатывает программное обеспечение для мониторинга производительности корпоративных приложений, и Viptela, чьи программы управляют сетями, за 3,7 млрд. долл. и 610 млн. долл. соответственно. Подписки и другие периодические поступления теперь составляют десятую часть доходов Cisco от продуктов.

Ставка Cisco заключается в том, что вычисления никогда не будут полностью централизованы в огромных центрах обработки данных (т. е. в облаках), но будут жить во многих системах, больших и малых, говорит Рохит Мехра (Rohit Mehra) из IDC, исследовательской фирмы. Cisco считает, что такие тенденции, как IoTпочти наверняка добавят сложности, а не уменьшат ее.

Представленные на этой неделе продукты предназначены для такой среды. Они включают программное обеспечение, которое позволяет инженерам контролировать сотни тысяч устройств, программы для определения того, кому или к чему разрешено получать доступ к сети, и сервисы для обнаружения вредоносного ПО в зашифрованном трафике. Впервые Cisco будет продавать новые коммутаторы, которые поставляются с подписками, открывающими эти дополнительные возможности. Разработчики получат больше инструментов для написания приложений для платформы Cisco.

Быть фирмой, которая делает все более сложные сети безопасными и «интуитивными», кажется разумной целью. Это уже один из крупнейших поставщиков продуктов для кибербезопасности. У него достаточно денег, чтобы преследовать свои амбиции: более 70 млрд. долл. наличными.

Но вычисления все же стали намного более централизованными, уменьшив пространство для Cisco соединять все со всем. Крупные провайдеры облаков также попытаются войти в бизнес управления и автоматизации сетей.

И Cisco имеет смешанный опыт реализации своей стратегии. Как бы это ни было хорошо, Cisco вряд ли достигнет цели, поставленной г-ном Чемберсом еще в 2013 году: стать «игроком номер один» в корпоративной информационной технологии. Более реалистичный г-н Роббинс вряд ли сформулирует такие амбиции - он, вероятно, был бы счастлив, если бы Cisco осталась в числе пятерки.

Электронные наносинапсы могут создавать искусственный мозг

Исследователи из Франции создали искусственный синапс, основанный на сегнетоэлектрических туннельных переходах, который может самостоятельно научиться распознавать образы. Им также удалось моделировать пластичность синапса, наблюдая за тем, как изменяется его сопротивление с изменением приложенного напряжения. Устройство, также известное как мемристор, может быть использовано для создания нейронных сетей ИИ, которые имитируют работу человеческого мозга.

Компьютеры, которые функционируют скорее как человеческий мозг, а не как обычные цифровые системы, будут опираться на нейронные сети, а не на ряды двоичных 1 и 0. Они смогут более легко обрабатывать обширные массивы данных, которые в настоящее время генерируются во всем мире. Чтобы создать новое поколение машин, исследователям необходимо разработать простые, энергоэффективные электронные устройства, которые имитируют строительные блоки мозга – нейроны и синапсы.

Новое устройство, разработанное Винсентом Гарсией (Vincent Garcia) и его коллегами из CNRS-Thales и университетов Бордо, Париж-юг и Эври, создается из мемристора (резистор, который «запоминает», какой ток протекал через него). В отличие от других типов современной электронной памяти, подобной той, которая сделана на базе КМОП, мемристоры могут помнить свое состояние (то есть информацию, хранящуюся в них), даже если выключено питание. Они также потребляют гораздо меньше энергии.

Синапсы являются биологическими связями между нейронами, и они преобразуют импульс напряжения (потенциал действия), поступающий из пресинаптического нейрона, в разряд химических нейротрансмиттеров, которые затем обнаруживаются постсинаптическим нейроном. Затем они превращаются в новые импульсы, что приводит к последовательности импульсов, которые становятся либо больше, либо меньше.

Это фундаментальное свойство синаптического поведения известно как краткосрочная пластичность, связанная со способностью нейронной сети учиться. Именно эту пластичность Гарсия и его коллеги успешно смоделировали. Они смогли это сделать благодаря внутренней электронной природе их мемристорных синапсов на основе сегнетоэлектрических туннельных переходов, в которых сопротивление связано с сегнетоэлектричеством.

«В сегнетоэлектрических туннельных переходах переключение сегнетоэлектрической поляризации электрическим полем приводит к большим изменениям сопротивления туннеля, - объясняет Гарсия. - Это называется туннельным электросопротивлением. В выключенном состоянии поляризация, таким образом, направлена вниз, а во включенном – вверх. Более того, поляризация обычно происходит за счет зарождения и распространения доменов, поэтому применяя умеренные и короткие импульсы напряжения, мы можем стабилизировать различные конфигурации, в которых сосуществуют домены с поляризацией вверх и вниз. Это означает, что у нас есть не только двоичная энергонезависимая память, но и мемристор».

Исследователи изучили динамику поляризации этих туннельных переходов с помощью сканирующей зондовой микроскопии, используемой для получения изображения доменов и туннельного транспорта. «С помощью расчетов молекулярной динамики первого порядка мы также смогли разработать простую модель для объяснения переключения поляризации, - сказал Гарсиа. - Затем мы применили формы напряжения, которые похожи на нейронные импульсы, и наблюдали, как изменяется сопротивление туннельного перехода в зависимости от разницы во времени между этими формами напряжения. Это «правило обучения», называемое пластичностью, зависящей от формы спайка и времени (STDP), является сильным и должно допускать неконтролируемое обучение в искусственных нейронных сетях».

И это еще не все. Исследователи говорят, что они также смогли воспроизвести STDP сегнетоэлектрических мемристоров с помощью своей модели, основанной на динамике сегнетоэлектрического домена, и показать, что массивы, содержащие сотни тысяч сегнетоэлектрических наносинапсов, могут самостоятельно учиться предсказуемо распознавать образы.

Команда теперь занята построением матричного массива из сегнетоэлектрических мемристоров, подключенных к нейронам на основе КМОП, чтобы показать, что ее системы действительно могут обучаться без контроля и распознавать образы.

Электронные наносинапсы могут создавать искусственный мозг

Электронный наносинапс

Изменения в рейтинге суперкомпьютеров Top500 вносят модели в середине списка

В первых 10 местах списка Top500 новых участников не было, но было много интересного ниже, где фокус был на энергоэффективности и использовании GPU.

Поскольку в верхней части списка суперкомпьютеров Top500.org изменений не произошло, то чтобы увидеть реальную историю нужно посмотреть дальше.

Top500.org опубликовала 49-е издание своей двухгодичной таблицы суперкомпьютерной лиги в понедельник, 19 июня, и снова китайские компьютеры Sunway TaihuLight 93 PFLOPS и Tianhe 2 33,9 PTFLOPS возглавляют список.

Новая модель швейцарского суперкомпьютера Piz Daint на базе GPU удвоила производительность до 19,6 PFLOPS (19,6 квадриллионов операций с плавающей запятой в секунду), переместив ее с восьмого на третье место и потеснив пять других компьютеров. Самый быстрый компьютер США Titan теперь находится на четвертом месте.

Это касается изменений в десятке лучших, и если не смотреть дальше, то можно было бы подумать, что производители суперкомпьютеров заснули.

Но суперкомпьютеры среднего класса продолжают становиться более мощными.

С ноября прошлого года 108 из них поднялись в рейтинге выше китайского компьютера, занявшего 500-е место с производительностью 432 TFLOPS, построенного компанией Sugon в 2015 году с использованием процессоров Intel Xeon. Он был на 392-м месте в ноябре прошлого года, а в рейтинге годом ранее – на 213-м месте.

Эти компьютеры среднего класса не просто становятся более мощными, они также становятся более энергоэффективными.

В списке Top500 имеется информация о потреблении энергии только для 369 компьютеров. В этом году было построено девять из десяти наиболее эффективных, шесть из которых – в Японии.

Лучшим при преобразовании ватт на флопсы был японский Tsubame 3.0. Построенный Hewlett Packard Enterprise: он использует сочетание процессоров Intel Xeon и графических процессоров Nvidia Tesla P100, показывая 14,1 GFLOPS/Вт. Его общей производительности 1,9 PFLOPS было достаточно, чтобы занять в рейтинге 61-е место.

Построенный Cray швейцарский Piz Daint ненамного отстает от него с точки зрения эффективности: он обеспечивает 10,4 GFLOPS/Вт, также используя сочетание процессоров Intel Xeon и Nvidia Tesla P100.

Сопроцессоры набирают обороты в Top500: 71 система использует графические процессоры Nvidia, 14 включают Xeon Phi и три – сочетание обоих.

HPE построила больше суперкомпьютеров, вошедших в Top500, чем любой другой производитель, с долей 28,6% по сравнению с 28% год назад. Ее суперкомпьютеры не являются одними из самых мощных: они составляют лишь 16,6% от вычислительной мощности Top500.

Cray и IBM непропорционально представлены в верхней части списка, построив соответственно 11,4% и 5,4% машин, но обеспечив 21,4% и 7,5% вычислительной мощности соответственно.

Чтобы представить эти цифры в перспективе, можно отметить, что 12,5% вычислительной мощности Top500 обеспечивается одной машиной Sunway TaihuLight, построенной Национальным исследовательским центром Китая по параллельной вычислительной технике и технологиям (NRCPC).

Изменения в рейтинге суперкомпьютеров Top500 вносят модели в середине списка

Швейцарский Национальный центр супервычислений

Спинтроника прогрессирует благодаря новым магнитным туннельным переходам

В течение последних двух десятилетий магнитные туннельные переходы (MTJ) играли центральную роль в спинтронных устройствах, таких как считывающие головки жестких дисков и энергонезависимые магниторезистивные запоминающие устройства произвольного доступа (MRAM), и исследователи постоянно работают над улучшением их производительности. Одним из самых выдающихся достижений, ускоривших практические применения технологии, была реализация гигантской туннельной магниторезистивности (TMR) с использованием кристаллического барьера соляного типа MgO. Теперь японская команда исследователей смогла использовать MgGa2O4 для туннельного барьера, основной части MTJ, в качестве альтернативного материала более традиционным изоляторам, таким как MgO и MgAl2O4.

MTJ имеет слоистую структуру, состоящую из наноразмерного изолирующего слоя, называемого туннельным барьером, зажатого между двумя магнитными слоями. Одним из наиболее важных показателей производительности MTJ является коэффициент туннельного магнитосопротивления (коэффициент TMR), величина изменения сопротивления. В качестве туннельного барьера обычно используется оксид магния (MgO), так как можно легко получить большой коэффициент TMR.

«Чтобы расширить диапазон применения MTJ, мы хотели бы значительно отрегулировать свойства MTJ, заменив материал туннельного барьера, - сказал Хироаки Сукегава (Hiroaki Sukegawa), ученый из Национального института материаловедения в Японии. - В частности, для многих приложений MTJ нам необходимо иметь большой коэффициент TMR и низкое сопротивление устройства, и для этого мы выбрали материал для туннельного барьера с низкой запрещенного зоной».

Команда выбрала полупроводниковый материал MgGa2O4, который имеет запрещенную зону намного ниже, чем обычный изолятор MgO, и использовала существующую технологию, чтобы сделать ультратонкий слой MgAl2O4 для достижения параметров, которые они искали.

Самой большой проблемой было получение высококачественного слоя MgGa2O4 с бесконтактными интерфейсами, поскольку это необходимо для достижения большого коэффициента TMR.

«Сначала мы попытались применить метод окисления с использованием слоя сплава Mg-Ga для приготовления слоя MgGa2O4, однако этот процесс также вызвал значительное окисление на поверхности магнитного слоя под Mg-Ga, и полученная изготовленная структура не функционировала как MTJ», - сказал Сукегава. Вдохновленная своей недавней работой над изготовлением MgAl2O4 высокого качества, команда затем попробовала метод прямого распыления: слой MgGa2O4 был сформирован путем радиочастотного распыления из порошковой мишени с высокой плотностью MgGa2O4 для уменьшения граничного избыточного окисления.

Этот новый метод был очень эффективным в производстве высококачественного туннельного барьера MgGa2O4 с чрезвычайно острыми и бездефектными интерфейсами.

«Мы не ожидали, что мы сможем построить MTJ с большим коэффициентом TMR с использованием MgGa2O4 за такое короткое время, поскольку было мало материалов для туннельного барьера, способных обеспечить большой коэффициент TMR при комнатной температуре», - сказал Сукегава.

Эта работа демонстрирует, что туннельные барьеры MTJ могут быть «спроектированы». Считалось, что настройка физических параметров туннельного барьера при сохранении больших коэффициентов TMR практически невозможна. Эти результаты ясно указывают на то, что различные физические свойства туннельного барьера могут быть спроектированы путем выбора состава барьерных материалов на основе шпинели при одновременном достижении эффективного зависящего от спина транспорта (т. е. большого коэффициента TMJ).

Несмотря на то, что для достижения более высоких коэффициентов TMR еще предстоит сделать многое, эти результаты открывают возможность использования «конструирования туннельного барьера» с различными оксидами шпинелей для создания новых приложений спинтроники.

Nokia совершает прорыв с самыми быстрыми маршрутизаторами в мире

Nokia 14 июня объявила о самых быстрых сетевых чипах в мире, обозначив прорыв на рынке маршрутизаторов ядра сети, на котором доминируют конкуренты Juniper и Cisco, усилив тем самым свой сетевой бизнес.

Новые продукты Nokia обещают помочь компании стать победителем в бизнесе с так называемыми «веб-гигантами», такими как Facebook, Google и Amazon, для которых скорость передачи – это все, и кто все еще увеличивает расходы на сетевое оборудование, в отличие от традиционного сегмента телекоммуникационных клиентов.

Новые продукты были разработаны благодаря приобретению Nokia в 2016 году компании Alcatel и ее сетевого бизнеса за 15,6 млрд. евро ($ 17,5 млрд).

По словам компании, новые маршрутизаторы могут удовлетворить более высокие требования к программированию виртуальной реальности, облачным интернет-сервисам и мобильной связи нового поколения.

Они также будут служить существующей базе заказчиков Nokia в сегменте телекоммуникационных операторов, которые хотят повысить скорость своих сетей, но все же должны мириться с устаревшим оборудованием, необходимым для запуска существующих сервисов, поскольку новые маршрутизаторы обратно совместимы со старыми продуктами.

«Благодаря этому объявлению, Nokia будет иметь самые высокопроизводительные системы на рынке, а многие из этих веб-гигантов, они просто хотят скорости, - сказал главный аналитик ACG Research Рэй Мота (Ray Mota) в интервью Reuters. - Это дает возможность приблизиться к рынку продуктов для ядра сети с большей достоверностью и получить некоторые шансы на успех».

Финская компания представляет свой новейший кремниевый чипсет FP4, способный обрабатывать данные со скоростью 2,4 Тб/с.

Они будут встроены в новое семейство маршрутизаторов, ориентированных для работы как в сверхвысокоскоростном ядре сетей в сердце крупнейших интернет-услуг, так и в «граничных» сетях, которые связывают центры обработки данных с фронтальными службами клиентов, предоставляемыми на базе мобильных или фиксированных сетей.

По словам Nokia, новые продукты планируется выпустить в четвертом квартале этого года.

Бывший бизнес Alcatel на рынке IP-сетей уже стал вторым в мире после Cisco в сегменте граничных маршрутизаторов, вытеснив Juniper Networks, которая теперь занимает третью позицию.

Бизнес Nokia также конкурирует с китайской Huawei на рынках маршрутизаторов за пределами США (где Huawei запрещена по соображениям национальной безопасности), включая Азию, Европу и Латинскую Америку.

Nokia столкнулась с плоскими капитальными расходами среди своей клиентской базы телекоммуникационных компаний, что привело к тому, что компания продолжала уделять им больше внимания, чем веб-гигантам, которые за последние четыре года удвоили свои капитальные затраты на сетевое оборудование, сказал Мота.

Nokia вводит петабитный маршрутизатор 7950, нацеленный на рынок маршрутизаторов ядра сети, чтобы завоевать новых клиентов, таких как Facebook и Google. Маршрутизатор способен передавать 5000 двухчасовых видео высокой четкости каждую секунду.

Для клиентов, заинтересованных в граничных маршрутизаторах, Nokia представляет свой маршрутизатор 7750, предлагая самую высокую пропускную способность на рынке.

Мота заявил, что Nokia 7750 может обеспечить скорость до 4,8 Тб/с на слот, по сравнению со скоростными маршрутизаторами Juniper с 3 Тб/с, которые были самыми быстрыми в отрасли. Nokia 7750 может передавать эпизод Netflix TV высокой четкости за одну секунду.

Помимо простой скорости, в новом чипсете есть достаточная вычислительная мощность, чтобы предлагать встроенные функции безопасности для предотвращения растущей угрозы распределенных атак типа «отказ в обслуживании» (DDoS), которые теперь являются фактом жизни для организаций, использующих для работы Интернет.

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT