Ціни на флешпам'ять останнім часом вирізняються високою динамікою, в чому легко переконатися, зазирнувши у відповідний розділ hotline.ua.
За даними аналітиків TrendForce, ситуація у сегменті флешпам'яті на світовому ринку складається таким чином, що лише протягом першого кварталу 2023 року середня ціна NAND знизилася на 15%. А в другої чверті ця тенденція продовжилася – і очікується, що за її підсумками буде зафіксовано подальше зменшення від 8% до 13%. Відповідно, стають доступнішими й твердотільні накопичувачі. У TrendForce оцінили сукупне падіння обороту напряму корпоративних SSD лише за перший квартал 2023 року у 47,3%.
Щоб перевірити справедливість цих тверджень, вирішив зазирнути на hotline.ua та прицінитися до ходових моделей різних категорій та обсягів. Так серед SATA SSD найпопулярнішою виявилася модель Samsung 870 EVO 1 ТБ. І її середня ціна з початку цього року знизилася на 26% із $104 до $77. У категорії PCI-E 4.0 модель Kingston KC3000 1024 GB за той же період стала дешевшою на 20% (зі $114 до $91). Серед накопичувачів PCI-E 3.0 модель Samsung 970 EVO Plus 1 TB втратила в ціні 37% (зі $117 до $73).
Samsung 870 EVO 1 ТБ
Kingston KC3000 1024 GB
Samsung 970 EVO Plus 1 TB
Підозрюю, що тим, хто чекатиме подальшого зниження цін SSD, просто не вистачить терпіння: тенденція дуже красномовно говорить про те, що вже настав час купувати SSD.
На масштабній презентації, що відбулася днями, AMD представила свої рішення у сфері високопродуктивних обчислень і технології штучного інтелекту, які формально дозволили їй оголосити про своє лідерство. Але в аналітиків виникли сумніви, чи зможе компанія справді зміцнити свої позиції.
Звання найшвидшого прискорювача для виконання завдань AI анонсована AMD модель MI300X отримала завдяки своїм визначним характеристикам у порівнянні з нинішнім лідером цього напряму Nvidia H100. Посудіть самі: до складу MI300X входить 12 чіплетів, виконаних за 5- та 6-нанометровою технологією із загальним числом транзисторів 153 млрд. При цьому в ньому використовується 192 ГБ пам'яті HBM3 з пропускною здатністю 5,2 ТБ/с. Для порівняння у Nvidia H100 є 80 ГБ пам'яті HBM2e, яка забезпечує швидкість передачі даних 3,3 ТБ/с. Як бачимо, перевага дуже дивовижна і виражається не у відсотках, а в разах. А для роботи з величезними мовними моделями, кількість параметрів в яких обчислюється в мільярдах, прискорення, що забезпечується AMD MI300X, повинно, безумовно, привернути увагу потенційних замовників.
Однак є низка факторів, які варто враховувати, оцінюючи шанси AMD захопити суттєву частку у перспективному сегменті AI. І перш за все, згадаємо про такий важливий фактор, як широке охоплення розробників платформою CUDA, що дає рішенню Nvidia незаперечну перевагу. Втім, AMD не сидить, склавши руки, про що свідчать її активні зусилля протягом останнього року з просування власного інструментарію ROCm. Примітно, що на відміну від Nvidia CUDA істотна частина цього програмного стека є відкритою. Відкрита частина включає драйвери, мову, середовище виконання, такі інструменти, як відладчик і профільник AMD, а також бібліотеки. ROCm також підтримує відкриті платформи, моделі та інструменти з оптимізованими ядрами для високопродуктивних обчислень та штучного інтелекту. AMD працює з PyTorch, щоб забезпечити підтримку PyTorch 2.0 з нульового дня та протестувати роботу стека PyTorch-ROCm, як і було обіцяно. Але поки це робота на перспективу, все ж таки позиції Nvidia CUDA в середовищі розробників поки що більш міцні.
Ще один фактор не на користь AMD – час. Річ у тому, що заявлений термін виходу MI300X - четвертий квартал нинішнього року, тоді як Nvidia H100 вже присутній на ринку, хай і за відчутного дефіциту. Крім того, у планах Nvidia представлення нового покоління своєї AI-платформи на 2024 рік, що може знову відсунути рішення AMD на задній план. Досі Nvidia не використовувала принцип чиплету для побудови своїх рішень, хоча його взяли на озброєння і AMD, і Intel. Тому для свого нового прориву Nvidia може звернутись до такої схеми організації обчислювальної платформи.
Але як би не розвивалися події, у будь-якому разі прогрес у напрямі AI вже дивовижний, а від цього виграємо усі ми.
Сучасна війна значною мірою насичена комп'ютеризованими платформами, тому не дивно, що такий великий постачальник хмарних ІТ-інфраструктур, як Amazon, оголосив про своє рішення, яке має винести на передову обчислювальну міць його платформи AWS.
Перше, що привернуло увагу при знайомстві з оголошенням Amazon свого рішення Snowblade – його виняткова доступність для Міністерства оборони США в рамках контракту Joint Warfighting Cloud Capability (JWCC). Головною особливістю серверної платформи Snowblade є її сертифікація відповідно до вимог останньої версії військового стандарту MIL-STD-810H: її експлуатація можлива в умовах негативного впливу екстремальних температур, вібрації та ударів.
Крайовий сервер AWS Snowblade у стійковому виконанні з висотою 5U та половинною глибиною оснащений 208 vCPU, тому забезпечує найвищу обчислювальну щільність у системах лінійки Snow. Винесення такої гібридної платформи в безпосередню близькість до передової дозволяє досягти максимально швидкої реакції на інформацію, що надходить. Не секрет, що успіх на сучасному полі бою значною мірою визначається оперативними діями у відповідь на розвідувальні дані, що отримуються по безлічі каналів.
І хоча Snowblade може працювати в автономному режимі без інтернет-підключення, але при можливості синхронізації з хмарою AWS на крайовій платформі стають доступними всі сервіси, що є в ньому: Amazon EC2, AWS IAM, AWS CloudTrail, AWS IoT Greengrass, AWS Deep Learning AMIs, Amazon Sagemaker Neo та AWS DataSync. Тому застосовуючи гібридні хмарні сервіси AWS, такі як AWS Snowblade, клієнти можуть отримати вигоду від єдиного досвіду роботи з AWS, використовуючи одні й ті самі сервіси, API та інструменти для розробки, розгортання та керування своїми програмами від регіону AWS до тактичних периферійних позицій.
Примітно, що раніше цього року Amazon анонсувала модульний дата-центр AWS MDC, який також орієнтований на військову сферу і дозволяє розміщення в екстремальних умовах. Таким чином, компанія сформувала окреме сімейство своїх серверних платформ, які дозволяють хмарам огорнути поле бою.
Продовжуючи тему перспектив розвитку систем зберігання, ми вирішили знову повернутися до обговорення пророцтв швидкого закінчення історії жорстких дисків.
Нагадаю, що в одному з попередніх постів у цьому блозі була наведена думка представника одного з найбільших виробників систем зберігання на базі NAND про те, що до кінця 2028 року флеш-накопичувачі виявляться набагато вигіднішими, ніж HDD. Доводи цього експерта цього разу прокоментував фахівець із тієї ж сфери – Пол Спешіал (Paul Speciale), директор з маркетингу компанії Scality, яка спеціалізується на сфері програмного забезпечення для об'єктних систем зберігання.
І перше, що він спростував – ключову тезу про швидке зрівнювання цін HDD- та NAND-сховищ. За його інформацією, зараз питома вартість зберігання інформації на високощільних жорстких дисках приблизно в 5-7 разів нижча, ніж у випадку QLC SSD. І, за прогнозом виробників HDD, до 2028 року цей розрив хоч і дещо скоротиться, але залишиться суттєвим - на рівні 4-5 разів.
І хоча в індустрії широко застосовуються різні технології стиснення даних, які покликані підвищити ефективність NAND-сховищ, все ж таки далеко не всю інформацію можна стиснути. Насамперед це стосується відео, яке останнім часом набуває все більшого поширення в тому числі і в корпоративному середовищі. Тому дуже проблематично, щоб замовники були готові витратити в 4-5 разів більше коштів на системи All-Flash тільки задля відчутного прискорення обробки всіх даних, що є в їх розпорядженні.
Ще один аргумент на користь твердотільних накопичувачів – їх значно менше енергоспоживання – також опинився під сумнівом. Так споживання SSD значно відрізняється залежно від навантаження: якщо у спокої воно становить 5 Вт, то при інтенсивному обміні збільшується до 15 Вт для операцій читання або до 20 Вт при записі. Для порівняння у спокої HDD споживають близько 7 Вт, а під навантаженням – 9,4 Вт. Тому порівнювати ці системи можна тільки за однакових навантажень, і навряд чи саме такий критерій стане визначальним при виборі рішення.
Критерії покупки будуть зводитися до варіантів використання: у флешпам'яті QLC гарантована стабільна продуктивність у разі більш чутливих до затримок робочих навантажень з інтенсивним читанням, тоді як жорсткі диски перевірені в довгостроковій перспективі та оптимальні для більшості інших робочих навантажень неструктурованих даних петабайтного масштабу.
Усі постачальники дисків пропонують п'ятирічну гарантію на диски. Крім того, постачальники флешпам'яті встановлюють для своїх рішень рекомендований максимальний показник запису на диск на день (DWPD), який впливає на робочі навантаження, для яких вони підходять. Тому клієнтам слід бути обережними, щоб не перевищити ці рейтинги.
Підсумовуючи цю дискусію, експерт звернув увагу на те, що перевірений часом характер жорстких дисків з точки зору щільності, довговічності та співвідношення ціна/продуктивність робить їх оптимальним рішенням для більшості випадків використання багатопетабайтних об'єктних сховищ. Це особливо вірно для додатків резервного копіювання, які є робочими навантаженнями з великою кількістю операцій запису, та які не виграють від нижчої затримки флеш-носіїв.
На конференції з високопродуктивних обчислень ISC 2023, що відбулася днями, були зроблені оголошення суперкомп'ютерів, продуктивність яких почали вимірювати в екзафлопах.
Нині тільки один суперкомп'ютер здатний забезпечити екзафлопну продуктивність - система Frontier встановлена в Окріджській національній лабораторії та за пів року її показники були нарощені з 1,02 Eflop/s до 1,194 Eflop/s. Нагадаю, що у ній використовуються процесори AMD EPYC. Але виявляється, вже до кінця поточного року має бути введена в експлуатацію вдвічі потужніша система. Про неї розповіли у своїй доповіді представники Intel.
Суперкомп'ютер Aurora зараз розгортається в Аргонській національній лабораторії. За повідомленням Intel, вже завершено постачання для нього понад тисячу лез із процесорами Sapphire Rapids з підтримкою високошвидкісної пам'яті HBM та графіки Ponte Vecchio. Якби не було затримки з випуском чіпів, ця платформа могла б потрапити в нинішній рейтинг відразу ж на перше місце. Річ у тому, що для неї заявлено продуктивність понад 2 екзафлопи.
До її складу входить 10624 обчислювальні вузли, де об'єднані два CPU і шість GPU. Таким чином Aurora налічуватиме 21248 чіпів Sapphire Rapids та 63744 Ponte Vecchio GPU. Конфігурація також передбачає встановлення 128 ГБ HBM до кожного графічного процесора та 64 ГБ HBM кожному процесорі, але в кожному вузлі додатково встановлено 1 ТБ пам'яті DDR5. Пікова пропускна здатність забезпечуватиметься HBM для графічних процесорів і становитиме 208,9 ПБ/с, для порівняння DDR5 забезпечує пропускну здатність 5,95 ПБ/с.
Оскільки йдеться про платформу з рекордною продуктивністю, не обійшлося і без оголошення, пов'язаного з технологією штучного інтелекту. Передбачається, що на Aurora буде розгорнуто генеративну/над більшу мовну модель ШІ під назвою Generative AI for Science. Вона буде націлена виключно на сферу науки та, за попередніми оцінками, підтримає близько 1 млрд параметрів, що за розмірами ставить її між GPT-3 і GPT-4. Очікується, що суперкомп'ютер Aurora використовуватиметься як для навчання, так і для виведення цієї моделі.
Як бачимо, настав час звикати оперувати екзафлопами.
Заява експерта, що з'явилася днями, про те, що продаж жорстких дисків буде припинено вже після 2028 року, навряд чи варто сприймати як точний прогноз, але точно має сенс прислухатися до його аргументів.
Категорична думка про те, що кінець епохи жорстких дисків настане вже у 2028 році, висловив Шон Розмарін (Shawn Rosemarin), віцепрезидент з досліджень та розробок відділу роботи з клієнтами в компанії Pure Storage. І ключовою причиною цього, за його думкою, є недостатня енергоефективність HDD в умовах постійного зростання тарифів на енергопостачання. Втім, свій внесок робить і питома вартість зберігання на твердотільних накопичувачах, що постійно знижується. Варто зазначити, що ця заява представника Pure Storage покликана також привернути увагу до того, що для NAND-рішень цього виробника заявлено меншу питому вартість зберігання, ніж на HDD.
За всієї привабливості SSD, Gartner до 2026 року прогнозує цій технології частку в 35% у сегменті корпоративних систем зберігання. Втім, можливо, аналітики не врахували всіх факторів? Так, Шон Розмарин відстоює свою точку зору, заявляючи, що зараз близько 3% світового обсягу електроенергії припадає на енергопостачання дата-центрів. А з них приблизно третина витрачається на системи зберігання. Тому відмовившись від пластин жорстких дисків, що обертаються, на користь NAND можна досягти значної економії.
А вона стає все більш необхідною, достатньо сказати, що, наприклад, у Великій Британії тарифи на електроенергію зросли чи не в п'ять разів за короткий проміжок часу. Крім того, далеко не завжди є можливість забезпечити необхідну потужність. Скажімо, в Ірландії влітку минулого року відмовили у розміщенні свого дата-центру одному з гіперскейлерів, оскільки не було необхідного для його енергопостачання обсягу електроенергії. Навіть висловлюється припущення, що може виникнути квотування енергопостачання виробництва за кількістю співробітників або його прив'язка до обороту підприємства.
Втім, поки що жоден із гіперскейлерів не заявив про наміри відмовитися від жорстких дисків на користь твердотільних накопичувачів. Тому прогноз про кінець ери HDD вже у 2028 році поки не виглядає переконливим. Але хто знає, як розвиватиметься ситуація найближчими роками. Згадується, як ще на початку 2000-х років представник одного з провідних виробників жорстких дисків, відповідаючи на моє питання про майбутню конкуренцію з SSD, категорично відповідав, що не бачить такої загрози найближчим часом. Але, як бачимо, вже протягом 20 років ситуація змінилася докорінно.
Вже кілька поколінь користувачів ПК визнали, що при оснащенні стаціонарного робочого місця немає нічого зручнішого за традиційну клавіатуру. Але як досі не знайшлося її гідного аналога для швидкого введення інформації на ходу.
Претендентом на звання універсального засобу введення є розроблене компанією Tap Systems рішення TapXR, продаж якого має незабаром стартувати. Це одяг, що одягається на зап'ястя, який здатний розпізнавати рухи пальців. І завдяки такій можливості можна, наприклад, вводити текст, постукуючи по будь-якій поверхні.
Зізнаюся, доводилося й раніше зустрічати подібні ідеї, але між ідеєю та комерційно успішною реалізацією лежить прірва. Чи зуміє подолати її Tap Systems? Я не став би зупинятися на цьому рішенні в блозі, якби не з'ясував, що TapXR стала розвитком вже доступного на ринку пристрою з подібною функціональністю від цього ж виробника - Tap Strap 2, який отримав досить багато позитивних відгуків. Тим цікавіше дочекатися виходу TapXR.
А ви вірите, що в наш час можна винайти заново якщо не колесо, то велосипед?
Поки у світі триває розгортання мобільних мереж п'ятого покоління, дослідники впритул зайнялися вивченням шляхів подальшого нарощування швидкості передачі.
Необхідність збільшення пропускної спроможності мобільних мереж пов'язують з такими вимогливими додатками, як доповнена реальність і автономне водіння автомобілів. За попередніми оцінками, для цього необхідно забезпечити швидкості понад 100 Гбіт/c.
За повідомленням Keysight Technologies, ця компанія у співпраці з Національною фізичною лабораторією (National Physical Laboratory, NPL) та Університетом Суррея провела першу демонстрацію з'єднання зі смугою пропускання 100 Гбіт/c, яке відповідає вимогам майбутнього стандарту 6G. Для досягнення екстремальних швидкостей передачі даних та низьких затримок вивчалася можливість використання субтерагерцевих частот. Однак робота в субтерагерцовому частотному діапазоні створює проблеми з цілісністю сигналу і втратами на трасі, що може звести нанівець продуктивність.
Keysight, NPL та Університет Суррея створили перший у Великобританії випробувальний стенд 6G із субтерагерцевою пропускною здатністю для розв'язання цих проблем. Вчені NPL та Суррея, фінансовані урядом Великобританії для досліджень у галузі 6G, використовують випробувальний стенд для вивчення та характеристики характеристик сигналу субтерагерцового діапазону для розробки нових методів оптимізації шляхів передачі даних та методологій калібрування. Цей новий випробувальний стенд 6G, розташований у NPL, став першим у Великій Британії високошвидкісним каналом передачі даних субтерагерцового діапазону. Демонстрація проводилася на частоті 300 ГГц з використанням 32- та 64-кратної квадратурної амплітудної модуляції (QAM).
Перегони швидкостей не знижують темпу. Нагадаю, що передбачувані терміни затвердження стандарту 6G вже на горизонті – у 2028-2030 роках.
Рекордна тонкість ноутбуків часто обертається тим, що конструкція їхнього корпусу втрачає жорсткість до такого рівня, що починає відчутно прогинатися.
У світі портативних комп'ютерів товщина 10 мм є своєрідним знаковим рівнем, що свідчить про престижність. Пам'ятається, що вперше мені довелося познайомитися з таким пристроєм на початку 2000-х на берлінській виставці IFA на стенді Sony. Першим враженням тоді було подив, настільки тонким і легким виявився лептоп, який яскраво контрастував з тими портативними комп'ютерами, що на той час були широко поширені. Але за захопленням з'явився подив від того, наскільки відчутно згинався рекордно тонкий корпус. У нас навіть виникла дискусія зі співробітником компанії на стенді, чи це не є потенційною причиною поламки електронної начинки комп'ютера. Ноутбук ASUS Zenbook S 13 OLED (UX5304) вже доступний за ціною 59999 грн
На недавньої презентації нового ноутбука ASUS Zenbook S 13 OLED, що відрізняється рекордно тонким корпусом товщиною 10 мм, я також вирішив перевірити наскільки жорстким є його корпус. Зауважу, що 13-дюймовий формфактор цієї новинки не найкомпактніший і вважається оптимальним балансом зручності роботи та портативності. Так ось виявилося, що конструкторам ASUS вдалося впоратися із завданням надійного захисту електроніки – за достатніх зусиль алюмінієвий корпус не прогинався. Для оформлення кришки Zenbook S 13 OLED використовується нова технологія плазмової керамізації
Ще одна цікава конструктивна особливість моделі Zenbook S 13 OLED – використання для оформлення кришки нової технології плазмової керамізації, яку ніколи не зустрічав ні в кого з конкурентів. Вона застосовується лише для дизайну базальтового сірого (Basalt Grey). Втім, за словами Івана Омельченка, PR-менеджера київського офісу ASUS, до нашої країни ці ноутбуки поставлятимуться лише з таким оформленням. Серед його переваг – захист від появи відбитків та унікальність дизайну під натуральний камінь, що пов'язане із формуванням на поверхні кришки зерен випадкового розміру та орієнтації.
За такої рекордно малої товщини корпусу конструкторам вдалося розмістити в ньому досить продуктивну платформу, до складу якої входять процесор Intel Core i7 13-го покоління, 32 ГБ оперативної пам'яті LPDDR5 та SSD 1 ТБ з інтерфейсом PCIe 4.0 x4.
Однією з ключових особливостей новинки є OLED-дисплей ASUS Lumina зі співвідношенням сторін 16:10 та роздільною здатністю 2,8К (2880x1800), сертифікований Dolby Vision, Pantone Validated та VESA DisplayHDR True Black 500. Іван Омельченко: “До нашої країни ноутбуки Zenbook S 13 OLED поставлятимуться лише з оформленням Basalt Grey”
Примітно, що київська презентація ASUS Zenbook S 13 OLED відбулася незабаром після його глобального запуску, і вже стартував продаж новинки. Ноутбук ASUS Zenbook S 13 OLED (UX5304) із процесором Intel Core i7 1355U, пам'яттю 16 ГБ та SSD 1 ТБ доступний в Україні за ціною 59999 грн.
Останнім часом однією з найгарячіших стала технологія прямого мобільного зв'язку з використанням навколоземних мереж. І ось днями кількість гравців у цьому напрямі поповнила іспанська Sateliot.
Компанія Sateliot оголосила про успішне виведення на низьку навколоземну орбіту свого першого супутника Sateliot_0 “The GroundBreaker”. За її заявою, протягом найближчого часу буде розгорнуто сузір'я з 250 наносупутників, які здатні налагоджувати пряме з'єднання з 5G-смартфонами, що знаходяться на поверхні Землі, без необхідності в якомусь додатковому обладнанні, будь-то модеми або антени. Головною метою Sateliot є демократизація супутникового зв'язку, тому що для використання її сервісу достатньо використовувати вже наявну SIM-картку, оскільки компанія укладає стандартні роумінгові угоди із наземними мобільними операторами.
Компактний супутник Sateliot масою близько 10 кг оснащений модулем прийняття-передавання, який може організувати канал підключення до будь-якого пристрою, сумісного з протоколом 5G Rel 17 NTN. Таким чином, кінцевий користувач з немодифікованим стандартним пристроєм 5G зможе підключатися до наземних або супутникових мереж. Площа охоплення супутника можна порівняти з розмірами штату Техас, а час його обороту навколо Землі становить 90 хвилин.
Ключова ідея Sateliot полягає в намірі знизити ціни на супутникове підключення в кілька разів порівняно з поточною пропозицією. Кінцева мета полягає в тому, щоб забезпечити зв'язок скрізь і для будь-якого варіанта використання, відмовившись від ідеї, що супутники дороги й тільки для обраних додатків. Деякі запропоновані компанією варіанти використання включають логістику, сільське господарство, тваринництво, морський та залізничний транспорт, аеронавтику, автоматизацію та багато інших, підвищуючи продуктивність, заощадження та, зрештою, зростання ВВП.
Sateliot заявила про укладання контрактів із глобальними мобільними операторами на суму понад 1,2 млрд євро. Її мета полягає в тому, щоб до 2026 року досягти виторгу 1 млрд євро та EBITDA 370 млн євро.
За прогнозами Sateliot, до 2024 року в космосі буде розгорнуто 64 наносупутники, а до 2025 року – 250.