`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Как изменилось финансирование ИТ-направления в вашей организации?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Архитектура x86 под угрозой вымирания

Не верьте тем, кто говорит о стабильности x86-архитектуры, одновременно надеясь на ее умеренную эволюцию. И с эволюцией по-разному, и о стабильности можно только мечтать: о проекте Itanium ни слова, а на совместимости с x86 первой крест поставила AMD. Я не о доминирующей сегодня системе команд AMD64, она же Intel EM64T. Я о принципах старта персональной платформы, которая в момент появления по эффекту была близка к праздничному фейерверку. Но, как говорится, недолго музыка...

Все это время Intel методично развивал процессорное хозяйство — сначала рост частот, затем — рост количества ядер, каналов памяти. Сокет за сокетом компания пришла к тому, что в самых многоядерных чипах предложила концепцию Cluster-on-Die, которая оказалась не готова к стремительному росту количества процессорных ядер.

На повестке дня новое веяние — 2D-mesh интерконнект для поддержки высокопроизводительных параллельных вычислений. Проблемы с этим у процессоров общего назначения возникли не сегодня, но благодаря крипто-валютчикам с особой остротой встала актуальность и неотвратимость архитектурной трансформации. В майнинге CPU выполняют роль «официанта», неспешно принимающего и раздающего блюда, приготовлением которых заняты многочисленные квалифицированные и высокооплачиваемые «повара» — видеокарты.

Вряд ли такое положение дел устраивает Intel. Обещания сделать доступными 512-битные вычисления не упредили ситуацию, а плетутся в ее хвосте. Но, похоже, Bootable Xeon Phi становится реальностью. На наших глазах разворачивается, как сейчас модно говорить, баттл между концепцией SIMD от Intel и ее соперником от NVIDIA — моделью SIMT. Вся разница в последней литере: Single Instruction Multiple — Data или Thread? Вот в чем вопрос.

Кит все-таки выполз на сушу и по ходу схватки со слоном себя оптимизирует. В его активе огромное число процессорных ядер, каждое из которых пусть и не очень производительно, но кумулятивный эффект вычислительной сети на кристалле дорогого стоит.

Другой вопрос, как это все будет греться при экстремальных нагрузках? У AMD совсем недавно между строк пресс-релизов прозвучал тезис, что можно принести в жертву производительность одного отдельно взятого ядра (речь там шла про ARM), добиваясь его ничтожно малого теплорассеивания, если количество ядер возрастет многократно — в десятки, а то и в сотни раз. Оптимизацию вычислений при таком архитектурном подходе можно делегировать компилятору, как это ранее было сделано в Itanium, хотя на этом все аналогии с ним у ARM и заканчиваются.

Избежать «тепловой смерти» (будем реалистами — отложить апокалипсис x86) можно пожертвовав чем-то не главным. Как это было при переходе к 64-битной архитектуре: тогда пришлось отказаться от операций десятичной коррекции («отряд не заметил потери бойца»). На сей раз люстрация коснется MMX-операций. При наличии 512-битных регистров тянуть за собой воз совместимости с операциями, разрядность которых в 8 раз меньше не имеет смысла. Легкий налет иронии дает отсутствие значимого ПО для More Money eXtraction. Ну, у 1С точно нет оптимизации под MMX, а будет ли под AVX512 — это не моего ума дело.

Следующим в «расстрельном списке» идут операции с дорогими мне портами ввода-вывода. В свое время появление этой архитектурной новации выгодно отличало x86 от мастодонтов типа IBM/360. Но уже на заре Pentium-эры стало понятно, что IN/OUT не поспевают за эволюцией, оставаясь рудиментом и атавизмом. Когда для инициализации системной логики Intel предложил вместо портов технологию конфигурационных регистров в пространстве памяти (memory-mapped), стало понятно, что отказ от них — вопрос времени. Мало кто задумывался, правда, о том, что логичным финалом станет исчезновение портов и операций с ними (привет, совместимость).

Есть еще две группы инструкций, с которыми мы скоро распрощаемся насовсем. Вряд ли они на слуху у широкой публики, да и сказанного вполне достаточно для короткого вывода — балласт в x86 идет за борт полным ходом. «Хьюстон, у нас проблемы!»

Intel Optane: преимущества реальные и мнимые

Начало поставок твердотельных накопителей на основе технологии Optane сопровождается интересными публикациями, авторы которых неплохо информированы. Если на страницах интернет-изданий публикуется качественная аналитика, места для полемики остается не так уж много. Но существуют и дискуссионные заявления, с которыми можно и нужно поспорить. Одним из таких мессиджей стала способность энергонезависимой памяти Intel Optane (в отличие от классической NAND, оперирующей страницами и блоками от сотен байт до единиц мегабайт) выполнять индивидуальную перезапись байтов. NAND на лопатках? Расходимся? Если и расходимся, то только во мнениях с авторами статьи «Intel’s first Optane SSD: 375GB that you can also use as RAM».

Безусловно, использование Optane в качестве памяти с произвольным доступом — без ограничений, связанных с блоками и страницами, в академичном смысле аббревиатуры RAM (Random Access Memory), — важный шаг на долгом пути сближения характеристик энергонезависимой и оперативной памяти. Ведь классическая NAND-память имеет блоковую архитектуру, и для перезаписи одного байта в блоке его необходимо полностью стереть, а затем повторно записать с измененным значением байта. На время выполнения операции Block Erase исходное содержимое блока требуется скопировать в область временного хранения в оперативной памяти.

 преимущества реальные и мнимые

Еще одна тонкость в том, что блоки разделены на страницы. Если размер блока (типовое значение — единицы мегабайт) определяет гранулярность операции стирания, то размер страницы (типовое значение — десятки килобайт) определяет гранулярность операции записи, при условии, что блок, к которому относится записываемая страница, был предварительно стерт.

С маркетинговой точки зрения довольно велик соблазн сопоставить суммарное время записи одного байта в NAND (включая операции с блоками и страницами) и время физической записи только одного байта для Intel Optane. Выигрыш новой памяти при таком сценарии исчисляется разницей в несколько порядков. А устранение процессов стирания и повторной перезаписи блока, позитивно влияет на такой важный параметр, как endurance.

В реальности же традиционный стек протоколов, обеспечивающий функционирование mass storage устройств под управлением ОС, ориентирован на блоковые операции, в которых адресуемым квантом является сектор, размером 512-4096 байт. При этом способность физического носителя к индивидуальной адресации байтов останется практически не востребованной, за исключением некоторых служебных операций встроенного программного обеспечения накопителя. Это означает, что серьезных дивидендов от индивидуальной адресации байтов следует ожидать после появления модулей NVDIMM на основе технологии Intel Optane. На очереди обновление инфраструктуры, позволяющие декларировать такую функциональность, передавая информацию от UEFI платформы к ОС посредством ACPI-таблицы NFIT.

О чтении

Одним из факторов повышения производительности операции чтения для рассматриваемых SSD устройств, является внутренняя аппаратная поддержка, подразумевающая динамическое формирование тракта передачи данных, минуя встроенный микроконтроллер накопителя и минимизируя участие его firmware. Любопытно, что данный подход антагонистичен по отношению к созданию дополнительных посредников (типа Storage Processor) в диалоге дисковой подсистемы и центрального процессора.

Мода на RAID NVMe

«У вас в сервере будет столько накопителей, сколько вы сможете подключить, а у нас — сколько мы захотим». Так или приблизительно так можно рассказать о новом семействе RAID-контроллеров SAS3508/3516 от Avago Technology. И с некоторой натяжкой это будет правда.

Мода на RAID NVMe

Компания Avago под брендом Broadcom закрыла прореху в технологической нише управления внешними устройствами. Во-первых, новый контроллер одинаково хорошо позаботится о всех типах серверных накопителей — SAS, SATA или NVMe. Tri-Mode этому имя.

Во-вторых, снимается вопрос с построением аппаратных RAID-массивов на твердотельных дисках, подключаемых к шине PCI Express. Впервые, кстати.

В-третьих, вся логика организации RAID и управления вводом/выводом поместилась в одном чипе. Это теперь модно и называется ROC (RAID-on-Chip). Адаптеры с контроллерами SAS3508 или SAS3516 (их уже выпускает Dell и Lenovo) занимают совсем немного места, что важно для компоновки 1U-серверов. Теоретически, монтаж этих контроллеров возможен и на PCB системной платы, но до этого вряд ли дойдет.

Мода на RAID NVMe

В-четвертых, контроллеры от Broadcom хиторомудрым способом (без ГМО и пестицидов!) позволяют существенно улучшить эластичность дискового хранилища.

Чем ограничено количество используемых NVMe?

Особенность архитектуры PCI Express — ограниченное количестве линков (дифференциальных пар). Вот почему слотов расширения, обеспечивающих доступ к производительной PCIe-шине, формируемой CPU, всегда недостаточно. Особенно остро это ощущается на 1U-платформах. По сути, имея в распоряжении один слот PCI Express x16, как хочешь, так и строй дисковый NVMe-пул, где каждое устройство требует x4-линк.

Мода на RAID NVMe

NVMe ROC от Broadcom дает возможность задействовать один PCIe x8 слот (что вызывает ряд вопросов к производительности SAS3516) для обслуживания нужного количества PCIe(NVMe)-устройств. Контроллер SAS3516 Tri-Mode RAID-on-Chip (кодовое название Ventura) «потянет» 16 накопителей, SAS3508 (по внутренней кодификации Harpoon) — восемь. Системный интегратор лишен хлопот с ретаймерами и редрайверами. Обо всем позаботился Broadcom.

Для чего нужна сериализация/десериализация?

SerDes в названии чипов означает эффективное использование ими трафика шины большей разрядности, к которой они подключены, для трансляции его (трафика) на несколько вторичных шин меньшей разрядности, где «сидят» NVMe.

Вполне понятно, что, например, механически x16 линк PCI Express никак не получится разнести на четыре PCIe x4 линка. Для сопряжения шин различной ширины это следует поручить логике. Обработка информации контроллерами SAS3508/ SAS3516 и дает право говорить о сериализации/десериализации.

Кратко о перспективах

Наращивая количество накопителей, не стоит забывать про их объемы. Особенно, с учетом построения многослойных хранилищ. Если кэширование и тиринг «горячих данных» всегда прерогатива скорострельных NVMe-дисков, для файлового mass storage желательно бы иметь небыстрые, но надежные и емкие магнитные диски с интерфейсом SAS (хуже — SATA).

Мода на RAID NVMe

Перспектива свести воедино информационные потоки и эффективно ими управлять — явно по плечу SAS3508/3516. Его трехмодовость делает лишними дополнительные SAS-адаптеры. Плюс экономия на системной плате: выбираем без бортового RAID-контроллера. Возможность совместить устройства различных типов позволит реализовать компромиссы стоимость/производительность, комбинируя емкие и медленные диски для редко используемых данных, а маленькие и быстрые — для мета-данных или интенсивного трафика.

Отдавая должное NVMe RAID-контроллеру Broadcom с поддержкой SAS/SATA (по слухам, аналогичные решения вот-вот появятся у Adaptec/Microsemi), нельзя пройти мимо откровенно слабых мест в его архитектуре:

  • Наивно рассуждать о построении полноценных NVMe RAID-массивов на SAS3508: максимальная производительность предполагает всего два x4-подключения. Это значит — «зеркало» или strip, и уже без SAS-слоя.

  • Можно строить отказоустойчивый NVMe-массив на PCIe x2 линках с дополнительным хранилищем на SAS/SATA. Тогда на презентационной блок-схеме нужно отобразить еще один сервер с доступом к этим же накопителям, а сами они нужны в двухпортовом исполнении.

  • Адаптер с SAS3516 на борту, казалось бы, лишен недостатков младшего контроллера. Но если верить документации Broadcom, его узким местом становится первичная PCI Express шина с x8 линком. Ему бы x16, чтобы не иметь проблем с производительностью.

Решать проблемы Broadcom собирается уже в этом году. Компания активно работает над новым поколением контроллеров. Это будут чипы с поддержкой спецификации PCI Express 4.0, рассчитанные на обслуживание x32 линков. Вот тогда и заживем, как люди!

Мода на RAID NVMe

Optane будет умным — модули NVDIMM получили поддержку технологии S.M.A.R.T.

Для тех, кто следит за новинками IT-индустрии, это не стало неожиданностью, ведь появление энергонезависимой памяти Intel Optane стирает грань между постоянными и оперативными запоминающими устройствами (частично, конечно). Попробуем разобраться, насколько уместна аналогия между S.M.A.R.T. жестких дисков и аналогичной функциональностью модулей энергонезависимой памяти. Поможет нам в этом пример реализации конфигурационного интерфейса NVDIMM, адресованный компанией Intel разработчикам драйверов и UEFI-приложений.

Почему классический S.M.A.R.T. не годится для Optane-памяти?

Вспомним, что получить атрибуты S.M.A.R.T. магнитного или твердотельного накопителя можно обычной ATA-командой. Очевидно, что энергонезависимый модуль не доступен по этому методу, значит, для считывания конфигурации требуются иные подходы.

Альтернативный метод идентификации NVDIMM-модулей предоставляется ACPI-интерфейсом, в частности — NFIT-таблицей. Для получения параметров мониторинга в рабочем сеансе ОС (например, температур), компания Microsoft предложила DSM-метод, описывающий алгоритм взаимодействия с ресурсами платформы. Его необходимо выполнить в системе команд AML (ACPI Machine Language) для получения запрошенных значений.

В число таких операций, обеспечивающих поддержку NVDIMM в рамках интерфейса ACPI, входит доступ к атрибутам S.M.A.R.T и пороговым значениям параметров, чтение и установка меток, а также ряд специфических для каждой конкретной платформы функций.

Очевидно, физическим интерфейсом для доступа к конфигурационной информации NVDIMM-модулей, в типовом случае будет шина System Management Bus, используемая для системного мониторинга и чтения содержимого SPD традиционных DIMM-модулей. В общем случае физическая реализация SMBus-контроллера при таком подходе должна быть инкапсулирована в UEFI BIOS. Это означает, что информационно-диагностическая утилита, запускаемая в сеансе операционной системы или UEFI, может получить всю требуемую S.M.A.R.T.-информацию, не имея сведений о конкретной архитектуре системной логики. Хотя необходимость интерпретации AML-кода и не позволяет сказать, что задача для программистов от этого слишком уж упростилась.

Почему в S.M.A.R.T. нет унификации?

Обсуждая особенности реализации, не упустить бы из виду, что главное назначение S.M.A.R.T. состоит в оценке состояния устройства, анализе и протоколировании операционных режимов, управлении резервированием пространства носителя в обеспечение его живучести, а равно прогнозировании его отказов. Вместе с тем, ознакомившись со списком параметров, доступных для модулей энергонезависимой памяти, констатируем, что унификации подходов для NVDIMM и SSD здесь не произошло.

Даже такое казалось бы общее место, как температуры накопительной матрицы и контроллера, обслуживаются по разному и доступны для раздельного чтения. Само понятие S.M.A.R.T.-атрибутов и набор величин, значение которых можно программно идентифицировать, существенно иные. В который раз приходится признать очевидное: NVDIMM — это не HDD.

Intel Optane: чуда не случилось

На днях сразу по нескольким информационным каналам произошла утечка информации о NVMe-накопителе Intel Optane P4800X. Если StorageNewsletter.com ограничился публикацией первой страницы фирменного описания устройства, то Digital Trends поделился с читателями своей попыткой получить дополнительную информацию у производителя. Как и ожидалось, Intel не стал комментировать параметры Optane-устройства. Чего ждать от SSD-накопителя, емкостью 375 ГБ, выполненного в виде платы для PCI Express слота?

Скорее всего, Intel Optane P4800X будет использоваться на серверных платформах в так называемом Storage Mode — в режиме накопителя, чьи объекты, обеспечивающие управление SSD, включены в адресное пространство платформы. Как оперативную память их использовать нельзя, за работу с ними отвечает драйвер блокового устройства. Очевидно, что устройства серии P4800X не являются заменой DRAM, как живописали рекламные материалы недавнего прошлого, а представляют собой быстрый накопитель, отданный в распоряжение операционной системе. И по производительности, и по типу интерфейса. К концепции вытеснения DRAM запоминающими устройствами, выполненными по технологии 3D XPoint, мы сможем вернуться не ранее, чем через два-три года.

 чуда не случилось

Нельзя не отметить, что в опубликованной спецификации сделан акцент на поддержку нестандартных размеров секторов, в том числе программно-видимых значений размеров, не являющиеся целой степенью двойки. Можно ли предположить, что высокие значения Endurance Rating заслуга не только совершенного физического носителя, но и избыточных кодов, (ECC)? Ведь ресурс этого серверного накопителя («живучесть», оптановое число : ) достигает заоблачной на сегодня величины в 30 DWPD.

Intel Optane P4800X оснащается защитой информации от сбоев питания — Power Loss Data Protection. Вероятно, в качестве аварийного источника используются накопительные конденсаторы, дополненные электронными ключами. Такое схемное решение позволяет задействовать питающие напряжения как по линии +5V (или +3,3V), так по линии +12V. Последняя ни на что больше в твердотельных накопителях и не годится.

Процессорные технологии на поле программно-определяемого хранения

Ожидается, что в ближайшем будущем семейство серверных процессоров Xeon начнет оснащаться Volume Management Device — фирменной разработкой Intel, наполняющей новыми смыслами программно-определяемые системы хранения данных. Попытаемся составить представление о технологии VMD незадолго до официального ее запуска.

Volume Management Device — это устройство, которое формирует обособленный фрагмент PCIe-топологии, реализованный отдельным Host Bridge контроллером в составе процессора. Особенность его реализации в том, что платформе предоставляется возможность управлять доступом к выделенной дочерней шине, формируемой VMD. Ее обслуживание может быть скрыто от прикладного программного обеспечения. Поэтому PCIe-топология, реализованная VMD-доменом, не включается в стандартное конфигурационное пространство (MCFG MMIO) и доступна только через отдельный адресный диапазон. Стартовые процедуры UEFI могут декларировать этот диапазон посредством ACPI-интерфейса как дополнительный конфигурационный сегмент. В этом случае топология, адресуемая через Volume Management Device, доступна для сканирования стандартными методами, в том числе и в среде операционной системы с помощью уполномоченных драйверов.

VMD-домен используется для соединения платформы с пулом NVMe-накопителей, аналогично тому, как формируется RAID-масссив. В отличие от классических аппаратных RAID-контроллеров, снабженных собственными процессорами ввода-вывода, операции перемещения данных в сочетании с формированием и проверкой избыточных кодов возлагаются на специальные аппаратные средства в составе микросхемы центрального процессора. В частности, для этого может применяться узел DMA Engine с технологией Intel Quick Data.

Задействуя Volume Management Device, можно получить производные сущности — виртуальные массивы RAID (VROC). Иногда — SW VROC, подчеркивая программный способ организации дискового массива.

Volume Management Device, с точки зрения аппаратной виртуализации, может обслуживать NVMe-накопители, поддерживающие SR-IOV, но только как транзитное звено. Другими словами через VMD можно увидеть реплицированные накопителем виртуальные функции, но сам домен, предположительно, не умеет реплицировать накопители, лишенные функциональности SR-IOV.

Статус каждого накопителя в пуле, принадлежащем VMD, меняется динамически в результате горячей замены или отключения (вывода из эксплуатации). В этом смысле Volume Management Device позволяет изолировать нестабильный фрагмент PCIe-топологии от локальных ресурсов платформы. Каждый VMD-домен воспринимается платформой как отдельный контроллер, не пересекаясь во взаимодействии с другими доменами, коль скоро таковые имеются в составе одного или нескольких центральных процессоров.

Процессорные технологии на поле программно-определяемого хранения

В настоящее время приходится только догадываться, какая архитектура NVMe-устройств окажется наиболее приспособленной к доменной структуре. Можно предположить, что для Entry Level решений стоит применять двухпортовые накопители. Спецификация NVMe v1.2.1 подтверждает этот тезис, описывая их как два взаимно-независимые PCIe-устройства. Дополнительные аргументы можно обнаружить в способе реализации сброса: программно инициируемая операция RESET для каждого из портов NVMe-накопителя выполняется независимо. Это означает, что сброс по одному из портов не повлияет на функционирование его компаньона.

Несмотря на то, что двухпортовое NVMe-устройство позволяет изолировать сброс и иные принципиально важные события между портами, создавая дополнительный потенциал масштабируемости, функциональность VMD актуальна и при обслуживании массивов однопортовых накопителей, снабженных внешними коммутаторами. Более того, для разветвленных вычислительных структур, где нужно обслуживать больше двух хостов, двухпортовые устройства не решат проблему — без внешних коммутаторов все равно не обойтись. В итоге, технология Volume Management Device, наряду с двухпортовостью, становится одним из инструментов организации программно-определяемых хранилищ данных.

RDMA меняет будущее хранения

Выйдя на арену конвергентных систем, Microsoft настойчиво и неуклонно рекомендует строить сетевую инфраструктуру на протоколах с поддержкой RDMA. Почему так? Если не особо вдаваться в подробности, то ответ будет простым и лаконичным: Zero-Copy.

Борьба с задержками сетевого обмена серверов в среде высокопроизводительных вычислений HPC родила протокол InfiniBand. Благодаря использованию удаленного доступа к памяти (Remote Direct Memory Access, RDMA) он позволяет минимизировать участие процессора в копировании данных в/из оперативной памяти. Infiniband и сейчас востребован в больших дата-центрах и стратосферных облаках типа Microsoft Azure. С ростом объемов хранения и популярности распределенных систем оказалось, низкие сетевые задержки нужны всем. Пересадка протокола RDMA (иногда в вариациях iWARP или RoCE) в демократичную среду Ethernet, поверх транспортного слоя TCP/IP, открыла новые возможности развития сетевой инфраструктуры массовых приложений. Объединить производительность, быстрый сетевой отклик и низкую стоимость экосистемы на стандартных компонентах — хороший рецепт популярности.

RDMA-адаптеры снизили непроизводительные расходы, освободив центральный процессор от рутинных промежуточных пересылок. Их способность раздавать нагрузку процессорам приложений (у Mellanox, например, адаптер ConnectX-4 одновременно общается с 8 ядрами) стала образцом аппаратной многопоточности.

Удаленный доступ непосредственно к памяти только тогда чего-то стоит, если он может работать с актуальной информацией. В конвергентных системах за это отвечает дисковый пул. Пока отклик дисков был медленным — сети не были узким местом. С появлением твердотельных накопителей (масла в огонь добавит технология Optane, в прошлом известная как 3D XPoint, стирающая грани между городом и деревней оперативной и внешней памятью) сетевая архитектура требует широкополосных линков, с короткими задержками, с исключением CPU из обслуживания транзитных пулов памяти.

RDMA меняет будущее хранения

Общими усилиями удалось получить тысячекратное увеличение скорости доступа. Теперь, при суб-микросекундном его уровне, Zero-Copy становится реальностью. А транспорт с поддержкой 100/200-гигабитного Ethernet уже немыслим без RDMA: отказ от технологии удаленного доступа к памяти потребовал бы соответствующего повышения частоты центрального процессора, о чем можно только мечтать.

В контексте сказанного, уместно задать вопрос: каковы перспективы? Сохранится ли RDMA-технология при внедрении таких инициатив как NTB (Non-Transparent Bridge)? Ведь речь идет о взаимодействии серверных платформ вообще без посредников — по шине PCI Express. Скорее всего, адаптеры Infiniband действительно окажутся ненужными. Но ведь это только частный случай реализации прямого доступа к памяти по сети, а RDMA в более широком смысле, продолжит свое существование.

Эра энергонезависимости

Время бурных анонсов уходит. Это и понятно: рынок переживает не лучшие времена, что сразу сказалось на финансировании PR-компаний. Сегодня мы узнаем о достижениях в области компьютерных технологий из скромных пресс-релизов, догадываясь о подробностях и додумывая детали самостоятельно. Одна из таких вылазок помогла с определенной долей осторожности построить далеко идущие планы.

Новость, которой поделилась компания American Megatrends, не впечатляет какими-то особенными техническими откровениями. Скупой строкой пресс-релиза повествуется об имплементации в свой флагманский продукт Aptio V новейших инициатив — UEFI 2.6 и ACPI v6.1. Читать эту новостную рутину — только время тратить. Но лучше подойти творчески к информации, распространяемой AMI, и поискать смыслы между строк (не зря ведь компания дала к этому информповод?).

Не будет секретом, что одним из ожидаемых новшеств для вычислительных платформ является совмещение оперативной и энергонезависимой памяти. Накануне поголовного перехода на 3D XPoint производители (и American Megatrends в их числе) затаились со своими наработками, обслуживающими функциональность модулей NVDIMM.

Поле для внедрения новых технологий уже вспахано: на современных платформах, допускающих непосредственное включение энергонезависимой памяти в адресное пространство, есть специальный системный объект — ACPI-таблица NFIT (NVDIMM Firmware Interface Table). Ее структура, а равно алгоритмы формирования системных объектов на основании содержимого SPD, определенные еще в спецификации ACPI 6.0, подвергнуты уточнениям в ACPI 6.1.

Эра энергонезависимости

Для оптимального и корректного использования модулей NVDIMM, балансирующих на стыке двух технологий, не обойтись без участия UEFI-процедур. Ведь сведения, полученные на этапе детектированием модулей памяти, используются в процессе программирования контроллера ОЗУ: устанавливаются тайминги, каждому модулю назначается диапазон адресного пространства с учетом многоканальности и других факторов. И наконец, данные о конфигурации памяти должны быть переданы от UEFI в операционную систему посредством ACPI-интерфейса.

Теперь, как говорится, все готово для встречи дорогих гостей, хотя нет ни изделий с торговой маркой Intel Optane, ни Optane Ready платформ. В описаниях чипсетов Intel 200 Series, совсем недавно сменивших предыдущее поколение системной логики, Optane упоминается применительно только к SATA-интерфейсу, да и то без обычной в таких случаях детализации. Но не стоит спешить с выводами: обслуживание NVDIMM требует поддержки со стороны контроллера ОЗУ, на сегодня — нового процессорного решения. Но намеки, которыми щедро делится American Megatrends, позволяют предположить: следующие поколения людей будут жить уже с энергонезависимой памятью.

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT