`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Как правильно удалить папку Windows.old после обновления Windows 10

После выхода видео про принудительное обновление Windows 10 до новой версии 2004 – https://youtu.be/nt4nUapDOgU – народ начал спрашивать, а что такое папка Windows.old, почему она создается и как удалить.

Итак, папка Windows.old создается при каждом крупном (полугодичном) обновлении Windows (типа 1903, 1909, 2004), когда меняется само ядро Windows 10 и предназначена для того, чтобы в случае проблем с работоспособностью ПК или какого-то софта после обновления можно было бы «откатиться» на предыдущую версию. Как «откатиться» на предыдущую версию Windows 10 через Параметры – тоже есть в видео.

Так вот, папка в реальности занимает достаточно много места – от 20ГБ и дальше – в зависимости от «загаженности» вашей Windows – и управляется через Storage Sense. А это значит, что «ручками» удалять Windows.old не нужно, она удаляется либо через Параметры (Settings) Windows 10 – как это показано в видео – либо будет удалена автоматически через 30 дней (если включен все тот же Storage Sense и у него настройки по умолчанию).

И да, если вы после установки новой версии/сборки Windows 10 убедились в работоспособности всех нужных вам приложений и устройств и у вас проблема со свободным местом на диске С: – можете не ждать автоматического удаления папки Windows.old, а действовать по инструкции.

Кстати, кроме Storage Sense – с его возможностями по очистке всякого мусора с диска С: – есть еще всякого рода трюки, которые позволяют если и не удалить, то хотя бы перенести с диска С: на другой диск часть всякого разного мусора, который скапливается в системной папке Windows 10 в процессе работы и установки всякого разного. Про такие возможности я уже рассказывал в своем видео здесь – «Как правильно очистить место на системном диске Windows (C:) и ничего не сломать» – https://youtu.be/0c5Kkoqma9c – смотрите, надеюсь, поможет в борьбе за свободные гигабайты на С:.

Как правильно удалить папку Windows.old после обновления Windows 10

NAS своими руками

Заключительное видео про сборку, установку, настройку и тестирование сетевого хранилища (NAS) на базе комплекта из Raspberry Pi 4 и дополнительных плат – X835 board и платы управления питанием Raspberry Pi (+куллер) – X735 board.

Первую часть – собственно, сборка комплекта – смотрите здесь, а вторую часть, подробно про процесс установки на Raspberry Pi 4 надстройки Openmediavault (OMV), которая обеспечивает простоту настройки и конфигурирования сетевых служб и про дальнейшее управление системой смотрите здесь.

В третьем видео – в основном – различные тесты производительности… Честно говоря, идея подключения диска к Raspberry Pi 4 через USB интерфейс (пусть и USB 3) с использованием платы X835 меня не очень вдохновляла. Но, как показали и тесты, и эксплуатация вообще – все работает по верхней планке производительности самого диска и выдает ожидаемые 210-220 Мб/с в локальном соединении. Для сетевых подключений – наблюдается практически полная утилизация 1 Гбит/с сетевого подключения при работе с теми же iSCSI или SMB – скорость передачи в 117 МБ/с на чтение и, что самое интересно – 136 МБ/с для смешанного режима, – т.е. дуплексная передача очень даже неплохо поддерживается.

NAS своими руками 

Microsoft Surface Pro 7 в тестах на производительность

После тестирования нового Microsoft Surface Pro 7 на время автономной работы от аккумулятора в прошлом видео – пришло время протестировать общую прозводительность Surface Pro 7 в различных синтетических тестах и сравнить его производительность как с предыдущей серией Surface Pro 6, так и с другими устройствами, например, с миниультрабуком GPD P2 Max на Intel Core m3 8го поколения. Постарался не только протестировать Surface Pro 7 на уже традиционных тестах, но и добавить несколько новых тестов, позволяющих правильно оценить ту же производительность в играх. Один из таких «правильных» тестов для игр является официальный тест игры Final Fantasy XV Benchmark – так вот, не смотря на более продвинутый, чем у Surface Pro 6, процессор и графику в нем, Surface Pro 7 все равно «не догоняет» даже до минимальных требований производительности FF XV в минимальных настройках при 720p, так что играть в игры на этом планшете – ну только казуальные и старенькие, 10летней давности...

В любом случае – я Surface Pro 7 еще погоняю в разных играх, начиная, конечно же, с World of Tanks (одна из немногих игр, в которую я играю более-менее постоянно, правда – на Xbox One X) и еще чего у меня там есть в библиотеке Steam, но, судя по тому, что тот же CS уже давно никто не просит – там большого выбора игр для «явной демонстрации» у меня уже нет – у народа поменялись и раздробились интересы... Что же до общих результатов производительности, хочу сказать, что в целом – производительность Surface Pro 7 c новым 10м поколением Intel-овских процессоров вполне предсказуема и соответствует и просто сравнению производительности самих CPU – никаких существенных корреляций не замечено – процессор в среднем обгоняет на 20%-30%, графика Intel Iris Plus G4 обгоняет Intel HD Graphics 630 на 70%-100% – т.е. в 2 раза, что соответствует и двухкратному увеличению числа исполняющих модулей в самой графике – с 24 до 48.

Единственной неожиданностью стали результаты тестирования скорости работы хранилища Surface Pro 7, особенно, в сравнении с показателями Surface Pro X (который, кстати, я ругал за плохую производительность диска). Так вот, на «линейных тестах» с большим блоком данных в CrystalDiskMark 7 Surface Pro 7 уступает на 20-30% в скорости Surface Pro X, зато на тех тестах диска, которые действительно являются важными для скорости работы ОС – случайные операции с блоками 4К в очереди и поодиночке – на Surface Pro 7 выполняются в 2-3 раза быстрее, чем на Pro X. Как я уже говорил, достаточно низкая производительность диска на обоих Surface Pro 7/X связана с работой шифрования BitLocker, а, поскольку Windows 10 работает на Pro X на процессоре ARM в режиме эмуляции – то скорость выполнения большого количества мелких запросов к диску существенно страдает – не успевает работать BitLocker в режиме эмуляции. Поэтому, похоже, в Pro X «воткнули» накопитель побыстрее – чтобы хоть как-то компенсировать потери на эмуляции.

И да, конфигурация «железа» этой модели Surface Pro 7 следующая:

  • CPU: 1.1GHz Intel Core i5-1035G4 (quad-core, 6MB cache, up to 3.7GHz boost)
  • Graphics: Intel Iris Plus Graphics
  • RAM: 8GB DDR4x
  • Screen: 12.3-inch, 2,736 x 1,824 PixelSense display (Contrast ratio: 1,500:1, 100% sRGB color, 10-point multi-touch, 3:2 aspect ratio)
  • Storage: 128GB SSD.

Microsoft Surface Pro 7 в тестах на производительность

Субъективный первый взгляд на Surface Pro 7

Чтобы быть максимально субъективным в обзорах новых Microsoft Surface Pro – давайте после феерического провала (ну не везет Microsoft с процессорами ARM) Surface Pro X – поговорим о более «традиционном» варианте железа – следующем 2-in-1 планшете в знаменитой линейки Surface Pro на «нормальных» процессорах Intel – новом Surface Pro 7, который мне временно попался в руки на обзор и потестить.

Кстати, это модель Surface Pro 7 – та, которая стоит около 1000 евро уже с клавиатурой – на базе Intel Core i5-1035G4, c 8ГБ ОЗУ и 128ГБ хранилища. Так что вас, кроме данного видео, ожидают еще и тесты производительности – в синтетике и некоторых играх, времени автономной работы и общий обзор самого Surface Pro 7 после 2х недель использования. Хотя, если честно – Surface Pro 7 практически ничем (кроме порта USB Type-C) внешне не отличается от своего предшественника Surface Pro 6 – размеры и экран такие же (хотя я так и не понял, что помешало Microsoft установить в этот корпус экран от Surface Pro X – который побольше и по размеру, и по разрешению).

Традиционным основным и существенным отличием линейки Pro 7 от Pro 6 является изменение версии процессоров – Microsoft Surface Pro 7 получил 10 поколение чипов Intel с существенно обновленным модельным рядом – линейка получила модели с Intel Core i3, i5 и i7  (в отличие от Pro 6, который имел только i5/i7 в модельном ряду) и возвращенной опцией 4ГБ оперативной памяти, что позволило Microsoft удержать низкие цены на минимальную версию Surface Pro 7 i3/4GB/128GB. Хотя они условно низкие – мой куда более «прокачаный» GPD P2 Max – стоит дешевле, чем минимальный Surface Pro 7. Новая серия процессоров обещает более чем 20% прирост общей производительности при сравнении нового базового Pro 7 i5 (который у меня для тестов) с топовым Pro 6 i7 и почти 2х-кратное повышение производительности графики – поскольку интегрированная в Intel Core i5 – 1035G4  Intel Iris Plus G4 отличается от Intel HD Graphics 630 большим количеством исполняющих модулей – 48 против 24. Это дает существенное повышение – почти в два раза – производительности именно графики. При всем этом – Surface Pro 7 потерял достаточно существенно – на 25% – время заявленной автономной работы – 10 часов против 13 у Pro 6.

Так что «по ощущениям» в руках и «на глазок» – Pro 7 от Pro 6 ничем не отличаются, а вот «производительность на глазок» определить достаточно сложно, поэтому будут еще видео. Особенно интересна и скорость графики – в два раза – это очень хорошо, позволит даже некоторые «приличные» игрушки гонять на таком планшете. Плюс – все же хочется понять и реальную автономность – знаем мы эту «заявленное время работы» – тестируют обычно на полностью скрученной графике и минимальных частотах процессора, а в жизни оказывается, что она раза в два ниже. В общем, тесты, тесты и еще раз тесты. Не дадим Microsoft обмануть наши ожидания себя еще раз, как это было с Microsoft Surface Pro X.

Субъективный первый взгляд на Surface Pro 7

Microsoft Ignite 2020 Tour

Небольшой репортаж с глобального саммита Microsoft Ignite 2020 Tour в Дубаи. Кто не в курсе – это такая облегченная версия Microsoft Ignite, проходившего в США в ноябре 2019 г. в течение пяти дней, а в данном случае – его сократили до двух дней.

Собственно – это такая небольшая выставка «достижений и предпочтений» Microsoft и партнеров, а также – различные доклады. Темы настолько всевозможные, что для меня, честно говоря, не нашлось ни одного интересного доклада. Все больше доклады базового уровня – типа, «основы инфраструктуры в Azure», «основы безопасности в Azure» или совсем в другую степь – разработка и все больше – всякие там AI…

Вот реально, не встречал пока ни одного заказчика, который просил бы с AI помочь, все больше по IaaS задачи. Потому – сижу в офисе (Microsoft Ignite проходит через дорогу) и жду времени своего доклада – буду рассказывать про ту самую миграцию подписок в Azure – кто еще не читал – рекомендую заглянуть и почитать первую часть поста про миграцию подписок Pay-as-You-Go/EA в CSP – http://bit.ly/39qvo2U.

Сам стенд Microsoft как раз и демонстрирует современные маркетинговые усилия Microsoft – какие темы сейчас проталкиваются в массы, и, самое главное – по обилию людей возле того или иного стенда – можно оценить реальную заинтересованность народа в конкретных технологиях. И да – самый оживленный стенд Microsoft – это Microsoft 365 – куда еще податься простым админам, которых просто «выталкивают в облака», хотя им и с локальным управлением рабочими местами вполне хорошо жилось.

И, в отличие от прошлого раза, на этом Microsoft Ignite на стенде можно было увидеть новинки «железа» от Microsoft – всю (почти всю – без новинок типа Duo/Neo) серию устройств Surface. Был и новомодный разрекламированный Microsoft Surface Pro X – который на ARM процессоре и с «полноценной» Windows 10 x32. Пользуясь абсолютной беспечностью сотрудников на стенде и методами социальной инженерии – я получил его на часик в свое распоряжение (с админскими правами) и немного погонял в тестах…

Что вам таки сказать за Surface Pro X? – это отдельная тема для разговора – все не так хорошо, как было на презентации, начиная с того, что устройство в массовом производстве выглядит совсем не так, как в рендерах на видео, а с производительностью и совместимостью – вообще печалька – Microsoft, похоже, наступил еще раз на теже грабли, что и с первым Microsoft Surface на ARM почти 10 лет тому. Так что смотрите отдельное видео на днях с обзором Microsoft Surface Pro X у меня на канале.

Microsoft Ignite 2020 Tour

Как в Windows 10 вернуть планы управления питанием Ultimate Performance, High Performance

В видео про мой новый ультрабук GPD P2 Max и его тест батарейки некоторые очень внимательные личности разглядели, что у меня больше различных опций настройки планов управления энергопотреблением Windows 10, чем у них. У меня есть такие планы, как Ultimate Performance, High Performance и даже Power Saver к стандартному Balance Performance в новых сборках Windows 10. Как так? И как включить все эти планы себе?

В действительности – примерно два года назад, с очередной осенней сборки Windows 10, Microsoft решил, что выбор плана управления энергопотреблением для лептопов под Windows 10 – слишком сложная вещь для понимания простым пользователем и поэтому – скрыл для доступа все привычные планы, оставив для совместимости только Balanced Performance и добавив в диалоговое окно управления питанием (то, что вы видите при клике на иконку батарейки в панеле таскбара) переключение режимом от Best battery life до Best Performance – но при этом Windows 10 будет балансировать работу в пределах достаточно зажатого по производительности Balanced Performance. Но для многих – ручной выбор планов энергопотребления остается актуальным – хотя бы потому, что они знают, что это такое и им все равно, как долго проживет батарейка, особенно, когда ноут больше 70% времени проводит на зарядке, зато хочется получить чуть больше производительности – и переключение на High Performance и Ultimate Performance планы очень даже поможет.

Так вот, Microsoft пока не отключил полностью в Windows 10 все эти планы, а только «припрятал» их и восстановить их видимость в списке – не проблема, нужно только запустить командную строку (или PowerShell) и выполнить следующие команды, которые создают «правильные» дубликаты нужных планов в вашей Windows 10:

Для включения Power saver

powercfg -duplicatescheme a1841308-3541-4fab-bc81-f71556f20b4a

Для включения High Performance

powercfg -duplicatescheme 8c5e7fda-e8bf-4a96-9a85-a6e23a8c635c

Для включения Ultimate Performance

powercfg -duplicatescheme e9a42b02-d5df-448d-aa00-03f14749eb61

После дубликации можете убедиться в том, что все планы на месте, использовав команду powercfg /L и включив нужный план прямо из командной строки, скопировав его ID из списка и использовав в команде powercfg /S {Plan ID}, чтобы потом не лазить по настройкам.

И еще пару слов насчет батареи в ноуте, который постоянно стоит на зарядке – недавно на моем корпоративном ноуте Lenovo ThinkPad T480, который 80% времени проводит на зарядке, отрубилась внутренняя батарея. И на этот счет Lenovo на своем сайте поддержки рекомендует установить приложение Lenovo Vantage и в нем настроить Battery Charge Threshold с ограничением по максимальной зарядке в 90-95% – это позволяет сохранить батареи ноута «вечно молодыми»…

Как в Windows 10 вернуть планы управления питанием Ultimate Performance, High Performance 

Новые Microsoft Surface

Итак, Microsoft презентовала целую гамму новых устройств, которые, фактически, полностью закрывают всю инфраструктуру лептопов и мобильных устройств – лептоп Microsoft Surface 3, профессиональный планшет Surface Pro 7, его облегченную версию на ARM процессоре Surface Pro X, новый и ожидаемый складной планшет Surface Neo (ранее называемый Centaurus), работающий с новой версией Windows – Windows 10X – облегченной и «заточной» под работу с двумя экранами и, совершенно неожиданно – новый телефон-раскладушку с двумя экранами 5.6″ и под управлением Android с глубоко модифицированным UI – Microsoft Surface Duo. Также Microsoft показала беспроводные наушники-вкладыши, от одного вида которых хочется сказать НЕТ!, а услышав цену в 250уе – НЕТ, НЕТ И ЕЩЁ РАЗ НЕТ! НО – вернёмся к обзорам всех этих традиционных Surface Laptop 3, Surface Pro 7, Surface Pro X и раскладушек Surface Neo и Surface Duo.

Surface Laptop 3 – https://youtu.be/eITjrh267vs?t=189 – довольно проходной девайс, здесь интересно то, что Microsoft вместе с AMD создал для новых моделей специальный процессор AMD RYZEN Microsoft Surface Edition, пересмотрел концепцию ремонтопригодности и замены комплектующих, расширил линейку моделью с большим размером экрана – 15″ и убрал эту ужасную тряпку на клавиатуре ;) В общем – такой себе качественный и не очень дешевый ноутбук премиум класса с очень высокой ценой – https://www.microsoft.com/en-us/surface – цены появились на сайте МС уже ближе к утру – с максимальным ценником в 2900уе за i7/Ryzen R7 и 32ГБ ОЗУ – не взлетит, я думаю…

Еще более «проходным» оказался Surface Pro 7 – https://youtu.be/eITjrh267vs?t=577 – улучшения настолько «бедные», что даже сказать нечего… Типа, «ну вот мы добавили USB Type-C, и поменяли процессор, и…, и… – ах, ну да, новое перо, а еще мы пофиксили Эксель и теперь пером можно писать прямо в ячейках»… Вау!!!! :( Но, надо отдать должное серии Microsoft Surface Pro – его улучшать – только портить. Достаточно просто менять компоненты. А так, начиная с Surface Pro 3 – шикарный девайс, пользуюсь уже 5 лет без всяких нареканий (кроме сдыхающей батарейки) – https://youtu.be/aI6He06ZHY8

Microsoft Surface Earbuds – таблетки АСС в уши? За такую цену? Нет и еще раз НЕТ!

Microsoft Surface Pro X – https://youtu.be/eITjrh267vs?t=844 – это, конечно, что-то такое, что очень хочется посмотреть и пощупать! Легкий и тонкий – при 13″ экрана и … полноценной Windows 10, но на ARM процессоре, который Microsoft разработал совместно с Qualcomm на базе их процессора Snapdragon 8cx – теперь это называется Microsoft SQ1 и имеет на борту модуль AI в 9TFLOPS. Слушая выступление, у меня сложилось чувство, что Microsoft и сам не знает, нафига в таком планшете такой модуль и как его использовать в реальных задачах – пример интеллектуального улучшения картинки в рельном времени как-то не очень нагляден. А вообще – при таком ценнике – МС решила не конкурировать с другими моделями Microsoft Surface Pro – и выставила одинаковый ценник и на Pro 7, и на Pro X – https://www.microsoft.com/en-us/p/surface-pro-x/8vdnrp2m6hhc – такой планшет выглядит очень привлекательно для тех, кто много бывает в разъездах. Кроме того – очень интересны мелкие инновации – типа стилуса, для которого предусмотрены контейнер и беспроводная зарядка прямо в клаве. В общем – это тот момент, когда количество переходит в качество, но, правда, не то, которое бы хотелось лично мне. Про свои «хотелки» к мобильным устройствам я писал тут – http://bit.ly/FutureGadgets01

И новые ультрамобильные устройства c двумя экранами в линейки Microsoft Surface – планшет-раскладушка Microsoft Neo – https://youtu.be/eITjrh267vs?t=1350 – под управлением Windows 10X (про которую никаких реальных деталей так и не рассказали – хотя бы потому, что она еще «не совсем готова») и раскладушка-телефон Microsoft Duo – https://youtu.be/eITjrh267vs?t=1777 – этот под управлением Android с переточенной под работу с двумя экранами оболочкой от Microsoft (кстати, кто не вкурсе, у Microsoft есть отличный Microsoft Launcher для Android – пользуюсь им и очень доволен).

«Икспёрды» уже начали крик «зачем нам 2 экрана, что с ними делать?!» – хотите или нет – но 2 экрана и раскладушки – это тренд 3-5 лет – а для меня постоянная реальность, поскольку раскладушками – пусть и с экраном и клавой – пользуюсь все годы своей мобильной эпопеи… И могу сказать, что более продуктивного мобильного устройства, чем телефон-раскладушка с аппаратной клавой (или, как предлагает Microsoft – вирутальной, но все же привычной, в стиле мини-ноутбука) – лучший рабочий телефон.

Кстати, Microsoft на протяжении всей презентации говорила, что создает устройства для креативной части населения, которая будет создавать тот или иной контент при помощи их устройств. Я, кстати, создаю создаю контент в виде текста – по дороге на работу/с работы, в роскошном «золотом классе» метро Дубаи – можно отлично поработать 40 мин, чем я и пользуюсь – на ноутбуке не очень комфортно, а вот на мобиле-раскладушке Gemini PDA 4G или теперь – на мини ультрабуке GPD P2 Max – очень даже хорошо получается поработать. Например, этот текст и был как раз написан в метро по дороге на работу – как и многие другие – будь то документы или книги. 1.5 часа каждый день для креатива – это же отлично! Вы так не делаете, просто скролите картинки – вы не просто созданы быть креативным, вы только потреблять… ;) Большинство упомянутых выше «икспёрдов» – как раз из такой категории. Так что если вы ничего не создаете – вы для Microsoft – просто лишний баланс, поскольку не относитесь к креативному классу и устройства Surface – точно не для вас. Продолжайте молча, потреблять, а не рассуждать, кому же нужен телефон с двумя экранами – просто ввиду ограниченности вашей жизненной модели – вы даже не можете понять его назначение… ;)

Понравилось ли что-то из продемонстрированного Microsoft лично мне и что бы я себе купил?

Как я уже писал выше – очень интересно выглядит на презентации Microsoft Surface Pro X, хотя окончательное решение о покупке я бы принимал, только подержав Surface Pro X в руках и глянув на его экран. Вопрос вызывает и ARM архитектура процессора Surface Pro X, и, не смотря на заявления Microsoft о том, что там работает «полноценная» и «полностью совместимая» сборка Windows 10 – я бы все же протестировал бы некоторые приложения, работа которых может быть под вопросом.

Microsoft Neo? Да, очень интересно, учитывая, что он появится только в следующем году – я успею «укатать» мой нынешний мини ультрабук GPD P2 Max – и с чистой совестью перейти на Microsoft Neo. Надеюсь, к тому времени его уже доведут до ума и хорошо попатчат, особенно новую ОС, а наличие нового процессора Intel 11 поколения как раз оправдывает такую покупку – сразу с Core m3-8100Y на 11 – отличный апгрейд. И, конечно же, еще хотелось бы клаву и стилус. То, что Microsoft придумал с совместным использованием аппаратной и виртуальной клавы/экрана в Surface Neo – выглядит куда интереснее и правильнее того же TouchBar в MacBook – куда больше сценариев применения. В общем – осталось подождать полгодика – и брать ;)

Microsoft Duo? я не уверен… Сейчас у меня отлично с поддержкой моего креатива справляется Gemini PDA 4G и мне очень нравится его аппаратная клавиатура. Именно аппаратная QWERTY – лучший инструмент для работы с текстом, даже круче двух экранов ;). Хотя ему уже больше года, новый вариант Gemini – под названием Cosmo – не особо нравится, так что, может, после выхода в следующем году пощупаю Microsoft Duo тут, в Дубаи (если буду продолжать жить и работать тут) и прикуплю себе. Особенно, если они добавят и в Microsoft Duo вариант аппаратной клавы-вкладыша, как у Microsoft Neo.

Что же разочаровывает в Surface Duo и, впрочем, в Surface Neo – это опять замкнутость на одном устройстве – печально, что никто не сказал ни слова про сценарии работы, подобные Continuum в Windows Mobile 10 – было бы очень круто иметь возможность использовать эти маленькие, но мощные устройства в режиме «обычного» десктопа – по проводам или без. И да, так классно начавшаяся тема того, что называется простым доступом к компонентам и возможность замены хранилищ в Surface Laptop 3 и Surface Pro X – не нашла продолжения в Surface Neo и Surface Duo. И тут я снова возвращаюсь к теме, «почему для меня Microsoft Duo – не «ВАУ!»?» – да потому, что устройство все же не стало изменением существующей на рынке парадигмы «все в одном – а потом просто выкините»… :( Думаю, пора снова в руки брать Gemini PDA и на его аппаратной клаве настрочить новую статью про будущее мобильных гаджетов, развитие старой – http://bit.ly/FutureGadgets01 – с учетом современных реалий.

Новые Microsoft Surface – телефон Surface Duo, складной планшет Surface Neo, Surface Pro X на ARM 

Microsoft выпустил Windows 10 с ядром Linux — что это такое

Я получил за вчера и уже сегодня несколько сообщений, у которых общий смысл и вопрос — «Игорь, а правда, что Microsoft запустил Windows 10 на Linux и теперь Windows — это клон Lunix?». И да — это правда!

Особенно для тех, кто не в курсе технических тонкостей — в новой Windows 10 (которая сборка 18917 и доступна по Windows Insider Preview) есть свое ядро Linux (изначально написанное Microsoft для различных своих целей). Но в реальности все как раз наоборот — теперь приложения Linux (ELF64) могут без проблем запускаться из-под Window 10, т.е. это Linux работает на Windows 10. Ядро Linux, анонсированное в Windows 10 — это новая версия — вторая — службы Windows Subsystem for Linux 2 (WSL2), первая версия которой присутствует в Windows 10 уже 2 года и о работе с которой я рассказывал в недавнем видео на канале — Windows 10: установка и настройка хакерского Kali Linux в Windows 10, как приложения WSL — рекомендую посмотреть для ознакомления с самой идеей работы Linux на Windows 10.

Так а что же тогда запустил Microsoft и почему все говорят о «ядре Linux в Windows 10?». Microsoft просто продолжил развитие идеи WSL и во второй версии вместо сервиса трансляции системных запросов Linux-приложений в запросы Windows (как это делает первая версия WSL) «подсунул» таким приложениям свое собственное полноценное ядро Linux, которое работает в режиме «тонкой виртуализации» — т.е. это не виртуальная машина в полном смысле этого слова — со своим объемом памяти, отдельными эмулируемыми устройствами и т.п., а всего лишь изоляция процесса — в данном случае ядра того самого Linux — от других процессов, чтобы не мешали и не ломали друг друга. Зачем и почему — для совместимости с системными вызовами Linux — обещают, что новое ядро Linux в Windows 10 будет полностью совместимо с основными дистрибутивами и приложениями Linux. А пользователи Windows получат возможность запускать нужные им приложения прямо из Windows одновременно с «родными» приложениями. Microsoft идет правильной дорогой, товарищи...

Эта дорога уже много раз проверена и использована Microsoft — на примере тех же Windows Services for Novell (кто сейчас еще помнит тот Novell, который Microsoft успешно выдавила из корпоративных сетей такой вот совместимостью) и через какое-то время уже будет звучать странно предложение «установить Linux», если все нужные Linux-приложения успешно работают и в Windows. А дальше там пойдет Modern OS — подчищенное и оптимизированное ядро Windows с такими вот подсистемами для запуска Linux, Android, MacOS, iOS приложений — или вы думаете, у Microsoft не хватит денег, сил и влияния заточить такие же микроядра для поддержки API, которые есть в разных платформах? Не зря же новую версию WSL2 в списке сервисов для установки назвали не ядром Linux или чем-то похожим, а очень скромно — Virtual Machine Platform, как бы намекая, что одним Linux дело точно не закончится. ;)

А что касается самой установки и настройки Windows Subsystem for Linux 2 — то про это все смотрите в видео, я постарался рассказать как можно более подробно весь процесс установки, конфигурации и самого сервиса WSL, и конфигурации под него дистрибутивов различных Linux. А с пользовательской точки — работы в дистрибутивах — в WSL2 ничего не поменялось — для вас WSL2 работает прозрачно. И даже лучше, чем в WSL1 — простой тест на работоспособность nmap (который в WSL1 не работал) показал куда лучшую совместимость WSL2 с дистрибутивами Linux. И да, пока (июнь 2019) работать с WSL2 можно только в тестовой сборке Windows 10 Insider Preview, начиная с 18912 — что не очень удобно для многих — мало кто согласен «портить» рабочую ОС ради удовольствия, устанавливая поверх нее тестовую Insider Preview (которая лично у меня — подвзглюкивает). Поэтому я записал еще одно видео — Как установить Windows 10 Insider Preview «с ядром Linux» второй системой и ничего не сломать — которое поможет всем желающим легко и быстро установить Windows 10 Insider Preview второй системой на комп, «не ломая» и не меняя ни основную Windows, ни разделы диска.

При работе непосредственно с движком WSL2 главное знать, что в WSL2 поменялись некоторые команды, которые позволяют теперь управлять, в каком окружении — WSL или WSL2 — будет работать тот или иной дистрибутив Linux. Теперь утилита командной строки wsl.exe (запускайте из CMD/PowerShell с правами админа) дает пользователю возможность управлять версионностью каждого из пакетов Linux на компьютере, переключая их между работой в WSL и WLS2:

  • wsl -l -v — отображает список дистрибутивов Linux с версиями WSL (1|2), под которыми эти дистрибутивы запускаются.

  • wsl -set-version <имя_дистрибутива> 2 — переключает указанный дистрибутив на работу с WSL2. Выполнение команды может занять значительное время, поскольку производится конвертация (копирование) файлов дистрибутива из файловой системы Windows (где их хранит WSL) в виртуальный VHDX диск с ext4 (в котором хранит данные WSL2).

  • wsl -set-default-version 2 — устанавливает для всех новых дистрибутивов используемую версию WSL2 по умолчанию.

К теме безопасности вообще и настройке и использованию Kali Linux по назначению — я вернусь в следующих видео и, наверное, даже оформлю их, как прямые трансляции — http://bit.ly/iLive2000.

Microsoft выпустил Windows 10 с ядром Linux — что это такое

Как настроить масштаб интерфейса в клиенте удаленного рабочего стола RDP при высоком разрешении экрана

У меня появился новый ноутбук — можно сказать, классика рабочего жанра — Lenovo ThinkPad T580. В этом ноуте все отлично — и характеристики его железа (на канале будет отдельный обзор), и, собственно дизайн, вес и прочие эргономические вещи... И как главная плюшка — у ноута отличный 15″ экран с разрешением 3840×2160 — 4К.

Но, как часто бывает — все эти плюшки не только приятны, но и имеют отрицательные стороны. Вы видели, какой масштаб PPI (DPI) стоит для таких вот 15″ экранов 4К 3840×2160, подобных Lenovo ThinkPad T580?! — правильно, 250% по умолчанию! Т.е. именно настолько масштабируется изображение, чтобы текст на экране был читаемый глазом, а в элементы управления можно было попадать мышкой. Кто не знаком с эффектом DPI/PPI на маленьких экранах с большим разрешением (от 4К и выше) — рекомендую заглянуть в настройки дисплея в Windows и там поиграться в настройками Scaling’а. А для наглядности — вот вам картинка для сравнения вида интерфейса в масштабе 100% и 225%

Как настроить масштаб интерфейса в клиенте удаленного рабочего стола RDP при высоком разрешении экрана

При чем здесь DPI/PPI и масштабирование, спросите вы? А при том, что представьте себе, что у вас есть приложение, которое ничего не знает о том, в каком масштабе отображать картинку внутри себя и никакого масштабирования внутри такого приложения не происходит. В результате — внутри окна приложения будет все настолько мелким, насколько это выглядит таковым в приведенном выше примере (слева).

И таким вот нужным и часто используемым приложением, которое «не понимает масштабирования» для экранов с большим разрешением — является Microsoft Remote Desktop Client (да и многие прочие клиенты удаленного рабочего стола RDP). При подключении к удаленному компьютеру — рабочий стол этого компьютера в RDP выглядит катастрофически мелким, поскольку картинка RDP оттуда — отображается с масштабированием DPI удаленного сервера, которое может быть и 150%, и даже 100%. Работать с таким удаленным интерфейсом на экране 4К размером 15″ — нереально, курсора мышки иногда просто не видно.

Так поменять масштабирование на удаленном сервере!!! — ага, сейчас, по умолчанию на сервере такая опция заблокирована — для изменения масштабирования интерфейса в сеансе RDP на сервере надо провести шаманские пляски (если у вас есть права на это), да и не будешь на каждом сервере это менять...

Итого, остается только вариант научить клиента удаленного рабочего стола RDP («родного» Microsoft’овского или какого либо другого) понимать масштабирование и учитывать это при соединении с удаленным сервером.

После достаточно длительного поиска в Инете и чтения разных «рецептов танцев с бубнами» вокруг проблемы масштабирования DPI/PPI в RDP, я пришел к выводу, что самым работоспособным рецептом решения проблемы является вариант, описанный в статье [Fix] Remote Desktop DPI scaling issues. Во избежание потери информации (если вдруг страницу или файлы удалят, сайт закроют) — сделаю вольный перевод предложенного материала/копию файлов и у себя на блоге.

Итак, метод лечения проблемы масштабирования интерфейса для стандартного RDP клиента Microsoft крайне прост и заключается в копировании специального файла-манифеста для RDP, который собственно и содержит в себе команду включения того самого масштабирования для удаленного подключения:

Правим на локальной машине (где вы и используете RDP и где у вас, надеюсь, есть все права админа) реестр, указывая, что стандартный RDP клиент должен брать настройки из файла манифеста:

  1. Запускаем утилиту regedit и идем по следующему пути: HKLM\SOFTWARE\Microsoft\Windows\CurrentVersion\SideBySide

  2. Создаем новый параметр, кликнув на пустом поле справа правой кнопкой мышки NEW -> DWORD (32 bit) Value

  3. Вводим имя нового параметра PreferExternalManifest и жмем ENTER.

  4. Снова кликаем правой кнопкой мыши, теперь уже по записи PreferExternalManifest, и выбираем Modify.

  5. Вводим в Value Data значение 1 и выбираем пункт Decimal.

  6. Нажимаем в окошке OK.

  7. Закрываем Registry Editor.

  8. Результат должен выглядеть примерно следующим образом:

Как настроить масштаб интерфейса в клиенте удаленного рабочего стола RDP при высоком разрешении экрана

Далее, нужно создать файл самого манифеста под именем mstsc.exe.manifest и поместить его в папку %SystemRoot%\System32\mstsc.exe.manifest (обычно это C:\Windows\System32\mstsc.exe.manifest). Полный текст содержимого mstsc.exe.manifest приведен ниже, уже готовый файл mstsc.exe.manifest можете забрать здесь.

Далее — запускаем стандартный Microsoft клиент RDP (mstsc.exe) или перезапускаем его (если на момент изменений были открыты какие-то RDP сессии) и наслаждаемся соответствующим масштабу вашего локального экрана виду удаленного экрана. В реальности, данный фикс настроек RDP клиента работает очень просто — RDP клиент отправляет запрос на такое разрешение удаленного экрана, которое на соответствующий масштабу процент меньше, чем оригинальное у клиента — так что не удивляйтесь «странным» цифрам в разрешении удаленного рабочего стола. Например, если у меня разрешение 4К 3840×2160 при 225% масштаба, то разрешения удаленного стола будет установлено обновленным RDP клиентом для полноэкранной картинки как 1704×960 (как раз те самые 3840/2,25 и т.д.) — и все элементы удаленного интерфейса соответствуют масштабу.

<?xml version=”1.0″ encoding=”UTF-8″ standalone=”yes”?>

<assembly xmlns=”urn:schemas-microsoft-com:asm.v1″ manifestVersion=”1.0″ xmlns:asmv3=”urn:schemas-microsoft-com:asm.v3″>

<dependency>

<dependentAssembly>

<assemblyIdentity

type=”win32″

name=”Microsoft.Windows.Common-Controls”

version=”6.0.0.0″ processorArchitecture=”*”

publicKeyToken=”6595b64144ccf1df”

language=”*”>

</assemblyIdentity>

</dependentAssembly>

</dependency>

<dependency>

<dependentAssembly>

<assemblyIdentity

type=”win32″

name=”Microsoft.VC90.CRT

version=”9.0.21022.8″

processorArchitecture=”amd64″

publicKeyToken=”1fc8b3b9a1e18e3b”>

</assemblyIdentity>

</dependentAssembly>

</dependency>

<trustInfo xmlns=”urn:schemas-microsoft-com:asm.v3″>

<security>

<requestedPrivileges>

<requestedExecutionLevel

level=”asInvoker”

uiAccess=”false”/>

</requestedPrivileges>

</security>

</trustInfo>

<asmv3:application>

<asmv3:windowsSettings xmlns=”http://schemas.microsoft.com/

SMI/2005/WindowsSettings”&gt;

<ms_windowsSettings:dpiAware xmlns:ms_windowsSettings=”

http://schemas.microsoft.com/SMI/2005/WindowsSettings”>

false</ms_windowsSettings:dpiAware&gt;

</asmv3:windowsSettings>

</asmv3:application>

</assembly>

Как настроить нормальный масштаб интерфейса, размер фонтов в клиенте удаленного рабочего стола RDP при высоком разрешении экрана–самый простой и работоспособный вариант (Remote Desktop DPI scaling issues)

SysAdmin vs DevOps – что разного и что общего

DevOps — одно из модных сейчас «поветрий» (наряду с «data scientist» и прочими «IoT» и «AI»), адепты которого активно продвигают мысль, что «все ИТ будет devops» — в прогрессивной ИТ-среде не останется системных (и прочих) администраторов, их таки заменят DevOps. НО, самое интересное, что даже внутри крупных ИТ корпораций, которым тренд «DevOps» приносит большие прибыли, нет единого мнения о судьбе в современных ИТ-инфраструктурах тех позиций, которые в общем называли «ИТ-профессионалы» и которые в реальности к «Dev» вообще не прикасаются, а управляемые ими инфраструктуры настолько статичны, что их «Ops» не меняются годами и выполняются рутинно (я это называю «ребята нашли свой карман безделья»).

Потому, в данной презентации со Стального Бубна 2018 во Львове, посвященной концепции Infrastructure as Code (IaC) для системных администраторов и архитекторов ИТ-инфраструктуры, я попытался (как оказалось, даже 1,5 часа очень и очень мало, чтобы рассказать и показать самые базовые концепции) сравнить те задачи, которые решают DevOps и SysAdmin, что у них отличного и, главное, что есть общего в работе и DevOps, и SysAdmin — какие современные тенденции на рынке управления ИТ-инфраструктурами позволяют использовать общий инструментарий и общие подходы в работе SysAdmin и DevOps. И все это, конечно же, на примере облачных технологий, связанных с Microsoft Azure.

Начнем, пожалуй, с того момента, что важность и потребность в позиции «DevOps» достаточно сильно «культивирована» теми компаниями, которые, собственно, продают инструменты для работы DevOps или компаниями-аутсорсерами, где DevOps — производственная необходимость в рабочем процессе с постоянным «выкатыванием» новых сборок ввиду забажености кода, производимого гребцами галер. Да и, собственно, сейчас какие только позиции и обязанности не называют красивым именем «DevOps». В реальности ситуация с DevOps примерно такая же, как с той картинкой про айсберг — DevOps сейчас — одна из самых «видимых» позиция в ИТ-индустрии, не считая девелоперов (потому что их раньше не было, точнее — не придумали еще такое слово, и технологии были «пожиже», а теперь они срочно нужны каждому уважающему себя аутсорсеру), а основное управление ИТ-инфраструктурой «обычных» компаний по прежнему лежит на плечах обычных таких системных администраторов, которые работают себе с этой самой инфраструктурой «по старинке». Я лично, и моя компания как раз оказывает услуги таким вот «обычным» компаниям и сейчас в тренде — это миграция части ИТ инфраструктуры в облака с последующим обновлением (читай — rebuild до архитектуры, близкой к требованиям PaaS) некоторых LoB решений компании или же — использование облачных сервисов типа Azure Backup или Azure Site Recovery для реализации более эффективного резервного копирования или защиты от сбоев. И у меня накопилась достаточно большая и релевантная статистика отношения руководителей (CIO, CEO) к концепции DevOps для работы с их ИТ-инфраструктурой.

Но перед тем, как продолжить тему Infrastructure as Code — рекомендую познакомиться с моим докладом на предыдущем Стальном Бубне, который подробно рассказывает, что бывает, когда DevOps используют (или они берутся сами за работу) не по прямому назначению — как архитекторы и администраторы ИТ-инфраструктуры обычной компании с ее обычными сервисами + немного облаков.

Итак, вернемся к отзывам обычных компаний про место DevOps и соответствующих процессов в их ИТ-инфраструктуре (комментарии собирательные, но некоторой — очень близко к тексту):

  • У нас нет разработки, у нас стабильная инфраструктура, которая нуждается в базовых рутинных операциях.

  • Мы планируем перенос инфраструктуры в облако, верно, но это будут реплики наших виртуальных машин или базовые сервисы.

  • Скрипты? Извините, но мои люди получают заплату за то, чтобы работали сервисы.

  • У нас рутинные операции, если надо — есть RDP/TeamViewer и прочие инструменты админа.

  • DevOps — это какие-то аутсорсеры, которых мы наняли для написания приложений, они работают в своей песочнице и инфраструктуры это не касается.

Как мы видим, с точки зрения руководителей ИТ в компаниях, которые «просто эксплуатируют ИТ, как часть производственного процесса» — места для DevOps в таких компаниях нет, а позиции системных администраторов прочны, как никогда. И таких компаний, для которых ПК или мобильные устройства всего лишь средство обработки производственной информации — большинство. Так что, стоит ли сисадминам почивать на лаврах?

Текущие тенденции в экономике и бизнесе — говорят, что нет... Хотя бы потому, что все идет, как обычно — нужно дешевле, быстрее и на вчера. В том числе — и в управлении ИТ-инфраструктурой. Быстрее развертывать новые сервисы, восстанавливать старые, подключать быстрее и больше пользователей и выдавать им данные на их запрос как можно оперативнее, а лучше всего — дать пользователю кнопку «сделать весь отчет/презентацию/работу за меня» ;) И да! — Еще и параноидальная безопасность во всем + новое красивое слово GDPR (под которое можно подвести любые требования).

И, самое главное — компаниям упорно продают облака... Мировые гиганты в ИТ вкладывают в этот сегмент громадные деньги, в том числе и на маркетинг, что приводит к тому, что любой CIO задумывается над вопросом «а зачем мне облака?» и даже если не задумывается — ему обязательно напомнит его CEO вопросом типа «а что у нас там с облаками? Мне тут рассказали, что это на 30% эффективнее нашей текущей системы». Нет, я ничего против облаков не имею, и даже сам придумаю 10-15-20 причин, почему облака лучше локальной инфраструктуры — я просто озвучиваю тенденции и текущий момент раздумий CIO.

В результате сейчас сложилась ситуация, которая довольно патовая и для руководства ИТ-инфраструктур, и для сисадминов, и даже для тех самых корпораций, которые «пропихивают» массы в облака. Почему? Да потому что сейчас как бы существует 2 мира ИТ-инфраструктур, в одном из которых есть серверы с их консолями, традиционные системы и процедуры управления (от тех самых компаний, которые и «за облака»), а во втором — есть облака с совершенно другой концепцией управления, вроде как изначально заточенной под девелоперов и DevOps (что не принимается CIO/сисадминами — смотри выше) и в которые надо поместить путем «взяли и переставили» существующие серверы с нестыкующейся моделью управления внутри. И основные проблемы тут:

  • Традиционные модели управления устаревают ввиду новых облачных технологий и требований.

  • Очень много ручной работы и модификаций + еще один уровень абстракции в виде облака.

  • Ручное тестирование современной инфраструктуры требует больших затрат в целом и слишком затратно по времени.

  • Административные привилегии предоставляются без детализации задачи, ограничений по времени.

  • Операционные команды не накапливают опыт в виде готовой документации и повторяемых конфигураций — метод next-next-next этого не позволяет ;)

Потому общую тенденцию в изменении требований к управлению «обычной» ИТ-инфраструктуры «обычными» системными администраторами можно озвучить, как:

НОВЫЕ ПОДХОДЫ К УПРАВЛЕНИЮ ИТ ИНФРАСТРУКТУРОЙ ТРЕБУЕТ БОЛЕЕ ТОЧНЫХ, АВТОМАТИЗИРОВАНЫХ ПРОЦЕССОВ С ОБШИРНЫМИ ВОЗМОЖНОСТЯМИ ПО ДЕКЛАРАТИВНОМ ОПИСАНИЮ, ПОВТОРЕНИЮ И МАСШТАБИРОВАНИЮ, НЕЖЕЛИ СЕЙЧАС.

Как будут выглядеть ИТ-инфраструктуры будущего даже в «обычных» компаниях, которые соответствуют указанным требованиям и какой будет работа системного администратора, управляющего такой ИТ-инфраструктурой? — Правильно, как уже знакомое для DevOps понятие Infrastructure as Code со всеми вытекающими отсюда свойствами и возможностями:

  • Инфраструктура определяется как набор декларативных описаний объектов...

  • Которые сохраняются в конфигурационных файлах...

  • Точно описывающих установку отдельного сервера или всего окружения...

  • С «идемпотентностью» (вот же слово придумали)...

  • С автоматизацией конфигурирования и рутинных операций...

  • С сохранением ИТ администраторских навыков и инструментов...

  • + внедрения процедур, применяемых в разработке ПО — Source/Build/Test/Release

Что изменится в результате распространения концепции Infrastructure as Code для системных администраторов не только в облачных ИТ-инфраструктурах, но и в их локальных сетях и любимых продуктах, а также в самих процедурах работы с ИТ-инфраструктурой в средних и крупных компаниях?

  • Распространение концепции декларативной Infrastructure as Code на локальные инфраструктуры (например, с распространением Azure Stack).

  • Перенос большинства сервисов управления и мониторинга в облака (уже сейчас активно развиваются облачные Microsoft Intune и Operations Management Suite) с применением к ним возможностей управления через конфигурацию.

  • Автоматизация работы облачных, гибридных и локальных с использованием облачных сервисов типа Azure Automation и гибридных runbook.

  • Постепенный дрифт AD в сторону Azure AD + Desire State Configuration (DSC), который придет на замену привычных групповых политик (учим DSC уже сейчас).

  • Повышение требований Business Continuity / Disaster Recovery и, как результат, более активное использование в компаниях таких средств, как Azure Backup и Azure Site Recovery — готовой песочницы для того, чтобы при крупной катастрофе локальной инфраструктуры компания «рывком» оказалась в облаках (и вы даже не представляете, какая будет паника у ИТ после этого!).

  • Иметь 2-3 параллельные идентичные инфраструктуры будет нормой — что позволит быстро вводить в эксплуатацию новые решения или реагировать на катастрофы.

  • И да, концепт на то, что в нынешних условиях дешевле все с нуля пересобрать, развернуть или переключить несколько слотов развертывания с использованием декларативных шаблонов, описанных выше — чтобы быстро обеспечить бизнесу работу служб — а после искать ошибки, которые привели к сбоям или остановке предыдущей.

  • Изменяются процедуры и сам стиль работы ИТ отделов — «админ» поправил файл конфигурации, собрал, затестил, зарелизил в автоматизированной системе (даже, возможно, с тестовым развертыванием в свободный слот) — и шеф нажал кнопку деплоймента в продакшен. Все это — с версионностью, трекингом изменений конфигураций, мониторингом событий и возможностью повторить операцию бесконечное количество раз даже на уже работающей инфраструктуре без потери ее работоспособности (та самая «идемпотентность»).

Итак, перспективы развития облачных, гибридных и даже локальных ИТ-инфраструктур и подходов управления ими в ближайшие годы понятны. Что делать системному администратору, который осознал, что его умение создать, настроить виртуальную машину и установить внутрь нее ОС с настройкой ролей этой ОС и даже детальных отдельных сервисов, типа вебсайта — скоро окажется невостребованным по причине замены этих навыков новыми инструментами? Есть много ответов на этот вопрос, например — «уйти из ИТ», или «переквалифицироваться в DevOps», или «в бьюти-/тревел-блогеры» (ага, это троллинг самого себя, у автора достаточно большое количество видео, посвященных путешествиям — «Путевые Заметки Игоря Шаститко» — http://bit.ly/iwalker2000_travels1 ), или «просто развиваться и постараться взглянуть на способы администрирования ИТ-инфраструктур под другим углом». И изучать новые технологии и инструменты управления, которые уже есть на рынке, и которые используют те же DevOps (так что, если хотите в DevOps — учиться придется еще больше и тому же). А именно:

  • Шаблоны описания конфигураций — Azure Resource Manager templates (ARM, доступен и в локальных облаках Azure Stack).

  • Средства развертывания инфраструктур из шаблонов и просто скриптами — портал Azure, Azure PowerShell, Azure CLI, VS, GitHub.

  • Средства контроля конфигураций — Desire State Configuration (DSC) — и не только в базовых сценариях, но и в сочетании с теми же шаблонами ARM.

  • Облачные средства автоматизации и мониторинга — такие, как Azure Automation, Hybrid Runbook Workers, Operations Management Suite и прочие реакции на события и т.п.

  • Средства управления исходным кодом шаблонов, скриптов развертывания, runbook, DSC, с интеграцией Azure с GitHub и прочими решениями.

  • Средства управления процессом разработки ИТ-инфраструктуры с подходом Infrastructure as Code — Source/Build/Test/Release — с применением тех же облачных сервисов Visual Studio Team Services и т.п.

И, после такой вводной части — рекомендую все же посмотреть полную запись моего выступления на конференции «Стальной Бубен» во Львове в мае 2018 — «Автоматизация развертывания и конфигурирования VM в IaaS Azure — взгляд со стороны админа, а не DevOps» — кроме, собственно, слайдов системные администраторы найдут в этом видео примеры использования всех перечисленных технологий и инструментов. Да, как я уже писал, я немного просчитался со временем, к сожалению, опыт показал, что для подобной презентации с демо потребуется минимум в 3 раза больше времени, потому я планирую включить все эти демо в запланированную на своем канале серию, посвященную работе системного администратора с Microsoft Azure.

Выводы? Для системных администраторов — они не утешительные — «учиться, учиться и еще раз учиться» — вас ждет «большая ломка» — методов, инструментов, и собственно, того, чем вы будете управлять. Потому — всех действительно заинтересованных ожидает очень интересная дорога вперед, перед которой вы должны понять несколько простых истин из будущего (которые я вкратце постарался осветить в данном видео):

  • Все «артефакты» Infrastructure as Сode, описывающие даже самые сложные инфраструктуры компаний — простые текстовые файлы, как и исходный код у девелоперов!

  • «Админы инфраструктуры» медленно переползают в «разработчиков инфраструктуры» (писателей ARM шаблонов и скриптов runbook на PowerShell)...

  • «Админы рабочих мест/серверов» в «разработчиков конфигураций» (писателей DSC и, снова же — скриптов PowerShell)...

  • Инфраструктурный и конфигурационный код может быть сохранен, версионизирован, протестирован и распространен, как и программный код — у вашей инфраструктуры вскоре появятся свои сборки, свои релизы, и свои тестовые и разрабатываемые копии в отдельных «слотах».

  • И да поможет вам <тут фрагмент политкорректности> в вашем постижении новой мудрости и желании перерасти свой консерватизм с RDP и кликами next-next-next!!!

SysAdmin vs DevOps—что разного и что общего—будущее системных администраторов на примере автоматизации развертывания и конфигурирования VM в Azure—Infrastructure as Code и инструменты DevOps, которыми сисадмин должен будет владеть в ближайшем будущем

 

Slack подает жалобу на Microsoft и требует антимонопольного расследования от ЕС

 
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT