`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Microsoft выпустил Windows 10 с ядром Linux — что это такое

Я получил за вчера и уже сегодня несколько сообщений, у которых общий смысл и вопрос — «Игорь, а правда, что Microsoft запустил Windows 10 на Linux и теперь Windows — это клон Lunix?». И да — это правда!

Особенно для тех, кто не в курсе технических тонкостей — в новой Windows 10 (которая сборка 18917 и доступна по Windows Insider Preview) есть свое ядро Linux (изначально написанное Microsoft для различных своих целей). Но в реальности все как раз наоборот — теперь приложения Linux (ELF64) могут без проблем запускаться из-под Window 10, т.е. это Linux работает на Windows 10. Ядро Linux, анонсированное в Windows 10 — это новая версия — вторая — службы Windows Subsystem for Linux 2 (WSL2), первая версия которой присутствует в Windows 10 уже 2 года и о работе с которой я рассказывал в недавнем видео на канале — Windows 10: установка и настройка хакерского Kali Linux в Windows 10, как приложения WSL — рекомендую посмотреть для ознакомления с самой идеей работы Linux на Windows 10.

Так а что же тогда запустил Microsoft и почему все говорят о «ядре Linux в Windows 10?». Microsoft просто продолжил развитие идеи WSL и во второй версии вместо сервиса трансляции системных запросов Linux-приложений в запросы Windows (как это делает первая версия WSL) «подсунул» таким приложениям свое собственное полноценное ядро Linux, которое работает в режиме «тонкой виртуализации» — т.е. это не виртуальная машина в полном смысле этого слова — со своим объемом памяти, отдельными эмулируемыми устройствами и т.п., а всего лишь изоляция процесса — в данном случае ядра того самого Linux — от других процессов, чтобы не мешали и не ломали друг друга. Зачем и почему — для совместимости с системными вызовами Linux — обещают, что новое ядро Linux в Windows 10 будет полностью совместимо с основными дистрибутивами и приложениями Linux. А пользователи Windows получат возможность запускать нужные им приложения прямо из Windows одновременно с «родными» приложениями. Microsoft идет правильной дорогой, товарищи...

Эта дорога уже много раз проверена и использована Microsoft — на примере тех же Windows Services for Novell (кто сейчас еще помнит тот Novell, который Microsoft успешно выдавила из корпоративных сетей такой вот совместимостью) и через какое-то время уже будет звучать странно предложение «установить Linux», если все нужные Linux-приложения успешно работают и в Windows. А дальше там пойдет Modern OS — подчищенное и оптимизированное ядро Windows с такими вот подсистемами для запуска Linux, Android, MacOS, iOS приложений — или вы думаете, у Microsoft не хватит денег, сил и влияния заточить такие же микроядра для поддержки API, которые есть в разных платформах? Не зря же новую версию WSL2 в списке сервисов для установки назвали не ядром Linux или чем-то похожим, а очень скромно — Virtual Machine Platform, как бы намекая, что одним Linux дело точно не закончится. ;)

А что касается самой установки и настройки Windows Subsystem for Linux 2 — то про это все смотрите в видео, я постарался рассказать как можно более подробно весь процесс установки, конфигурации и самого сервиса WSL, и конфигурации под него дистрибутивов различных Linux. А с пользовательской точки — работы в дистрибутивах — в WSL2 ничего не поменялось — для вас WSL2 работает прозрачно. И даже лучше, чем в WSL1 — простой тест на работоспособность nmap (который в WSL1 не работал) показал куда лучшую совместимость WSL2 с дистрибутивами Linux. И да, пока (июнь 2019) работать с WSL2 можно только в тестовой сборке Windows 10 Insider Preview, начиная с 18912 — что не очень удобно для многих — мало кто согласен «портить» рабочую ОС ради удовольствия, устанавливая поверх нее тестовую Insider Preview (которая лично у меня — подвзглюкивает). Поэтому я записал еще одно видео — Как установить Windows 10 Insider Preview «с ядром Linux» второй системой и ничего не сломать — которое поможет всем желающим легко и быстро установить Windows 10 Insider Preview второй системой на комп, «не ломая» и не меняя ни основную Windows, ни разделы диска.

При работе непосредственно с движком WSL2 главное знать, что в WSL2 поменялись некоторые команды, которые позволяют теперь управлять, в каком окружении — WSL или WSL2 — будет работать тот или иной дистрибутив Linux. Теперь утилита командной строки wsl.exe (запускайте из CMD/PowerShell с правами админа) дает пользователю возможность управлять версионностью каждого из пакетов Linux на компьютере, переключая их между работой в WSL и WLS2:

  • wsl -l -v — отображает список дистрибутивов Linux с версиями WSL (1|2), под которыми эти дистрибутивы запускаются.

  • wsl -set-version <имя_дистрибутива> 2 — переключает указанный дистрибутив на работу с WSL2. Выполнение команды может занять значительное время, поскольку производится конвертация (копирование) файлов дистрибутива из файловой системы Windows (где их хранит WSL) в виртуальный VHDX диск с ext4 (в котором хранит данные WSL2).

  • wsl -set-default-version 2 — устанавливает для всех новых дистрибутивов используемую версию WSL2 по умолчанию.

К теме безопасности вообще и настройке и использованию Kali Linux по назначению — я вернусь в следующих видео и, наверное, даже оформлю их, как прямые трансляции — http://bit.ly/iLive2000.

Microsoft выпустил Windows 10 с ядром Linux — что это такое

Как настроить масштаб интерфейса в клиенте удаленного рабочего стола RDP при высоком разрешении экрана

У меня появился новый ноутбук — можно сказать, классика рабочего жанра — Lenovo ThinkPad T580. В этом ноуте все отлично — и характеристики его железа (на канале будет отдельный обзор), и, собственно дизайн, вес и прочие эргономические вещи... И как главная плюшка — у ноута отличный 15″ экран с разрешением 3840×2160 — 4К.

Но, как часто бывает — все эти плюшки не только приятны, но и имеют отрицательные стороны. Вы видели, какой масштаб PPI (DPI) стоит для таких вот 15″ экранов 4К 3840×2160, подобных Lenovo ThinkPad T580?! — правильно, 250% по умолчанию! Т.е. именно настолько масштабируется изображение, чтобы текст на экране был читаемый глазом, а в элементы управления можно было попадать мышкой. Кто не знаком с эффектом DPI/PPI на маленьких экранах с большим разрешением (от 4К и выше) — рекомендую заглянуть в настройки дисплея в Windows и там поиграться в настройками Scaling’а. А для наглядности — вот вам картинка для сравнения вида интерфейса в масштабе 100% и 225%

Как настроить масштаб интерфейса в клиенте удаленного рабочего стола RDP при высоком разрешении экрана

При чем здесь DPI/PPI и масштабирование, спросите вы? А при том, что представьте себе, что у вас есть приложение, которое ничего не знает о том, в каком масштабе отображать картинку внутри себя и никакого масштабирования внутри такого приложения не происходит. В результате — внутри окна приложения будет все настолько мелким, насколько это выглядит таковым в приведенном выше примере (слева).

И таким вот нужным и часто используемым приложением, которое «не понимает масштабирования» для экранов с большим разрешением — является Microsoft Remote Desktop Client (да и многие прочие клиенты удаленного рабочего стола RDP). При подключении к удаленному компьютеру — рабочий стол этого компьютера в RDP выглядит катастрофически мелким, поскольку картинка RDP оттуда — отображается с масштабированием DPI удаленного сервера, которое может быть и 150%, и даже 100%. Работать с таким удаленным интерфейсом на экране 4К размером 15″ — нереально, курсора мышки иногда просто не видно.

Так поменять масштабирование на удаленном сервере!!! — ага, сейчас, по умолчанию на сервере такая опция заблокирована — для изменения масштабирования интерфейса в сеансе RDP на сервере надо провести шаманские пляски (если у вас есть права на это), да и не будешь на каждом сервере это менять...

Итого, остается только вариант научить клиента удаленного рабочего стола RDP («родного» Microsoft’овского или какого либо другого) понимать масштабирование и учитывать это при соединении с удаленным сервером.

После достаточно длительного поиска в Инете и чтения разных «рецептов танцев с бубнами» вокруг проблемы масштабирования DPI/PPI в RDP, я пришел к выводу, что самым работоспособным рецептом решения проблемы является вариант, описанный в статье [Fix] Remote Desktop DPI scaling issues. Во избежание потери информации (если вдруг страницу или файлы удалят, сайт закроют) — сделаю вольный перевод предложенного материала/копию файлов и у себя на блоге.

Итак, метод лечения проблемы масштабирования интерфейса для стандартного RDP клиента Microsoft крайне прост и заключается в копировании специального файла-манифеста для RDP, который собственно и содержит в себе команду включения того самого масштабирования для удаленного подключения:

Правим на локальной машине (где вы и используете RDP и где у вас, надеюсь, есть все права админа) реестр, указывая, что стандартный RDP клиент должен брать настройки из файла манифеста:

  1. Запускаем утилиту regedit и идем по следующему пути: HKLM\SOFTWARE\Microsoft\Windows\CurrentVersion\SideBySide

  2. Создаем новый параметр, кликнув на пустом поле справа правой кнопкой мышки NEW -> DWORD (32 bit) Value

  3. Вводим имя нового параметра PreferExternalManifest и жмем ENTER.

  4. Снова кликаем правой кнопкой мыши, теперь уже по записи PreferExternalManifest, и выбираем Modify.

  5. Вводим в Value Data значение 1 и выбираем пункт Decimal.

  6. Нажимаем в окошке OK.

  7. Закрываем Registry Editor.

  8. Результат должен выглядеть примерно следующим образом:

Как настроить масштаб интерфейса в клиенте удаленного рабочего стола RDP при высоком разрешении экрана

Далее, нужно создать файл самого манифеста под именем mstsc.exe.manifest и поместить его в папку %SystemRoot%\System32\mstsc.exe.manifest (обычно это C:\Windows\System32\mstsc.exe.manifest). Полный текст содержимого mstsc.exe.manifest приведен ниже, уже готовый файл mstsc.exe.manifest можете забрать здесь.

Далее — запускаем стандартный Microsoft клиент RDP (mstsc.exe) или перезапускаем его (если на момент изменений были открыты какие-то RDP сессии) и наслаждаемся соответствующим масштабу вашего локального экрана виду удаленного экрана. В реальности, данный фикс настроек RDP клиента работает очень просто — RDP клиент отправляет запрос на такое разрешение удаленного экрана, которое на соответствующий масштабу процент меньше, чем оригинальное у клиента — так что не удивляйтесь «странным» цифрам в разрешении удаленного рабочего стола. Например, если у меня разрешение 4К 3840×2160 при 225% масштаба, то разрешения удаленного стола будет установлено обновленным RDP клиентом для полноэкранной картинки как 1704×960 (как раз те самые 3840/2,25 и т.д.) — и все элементы удаленного интерфейса соответствуют масштабу.

<?xml version=”1.0″ encoding=”UTF-8″ standalone=”yes”?>

<assembly xmlns=”urn:schemas-microsoft-com:asm.v1″ manifestVersion=”1.0″ xmlns:asmv3=”urn:schemas-microsoft-com:asm.v3″>

<dependency>

<dependentAssembly>

<assemblyIdentity

type=”win32″

name=”Microsoft.Windows.Common-Controls”

version=”6.0.0.0″ processorArchitecture=”*”

publicKeyToken=”6595b64144ccf1df”

language=”*”>

</assemblyIdentity>

</dependentAssembly>

</dependency>

<dependency>

<dependentAssembly>

<assemblyIdentity

type=”win32″

name=”Microsoft.VC90.CRT

version=”9.0.21022.8″

processorArchitecture=”amd64″

publicKeyToken=”1fc8b3b9a1e18e3b”>

</assemblyIdentity>

</dependentAssembly>

</dependency>

<trustInfo xmlns=”urn:schemas-microsoft-com:asm.v3″>

<security>

<requestedPrivileges>

<requestedExecutionLevel

level=”asInvoker”

uiAccess=”false”/>

</requestedPrivileges>

</security>

</trustInfo>

<asmv3:application>

<asmv3:windowsSettings xmlns=”http://schemas.microsoft.com/

SMI/2005/WindowsSettings”&gt;

<ms_windowsSettings:dpiAware xmlns:ms_windowsSettings=”

http://schemas.microsoft.com/SMI/2005/WindowsSettings”>

false</ms_windowsSettings:dpiAware&gt;

</asmv3:windowsSettings>

</asmv3:application>

</assembly>

Как настроить нормальный масштаб интерфейса, размер фонтов в клиенте удаленного рабочего стола RDP при высоком разрешении экрана–самый простой и работоспособный вариант (Remote Desktop DPI scaling issues)

SysAdmin vs DevOps – что разного и что общего

DevOps — одно из модных сейчас «поветрий» (наряду с «data scientist» и прочими «IoT» и «AI»), адепты которого активно продвигают мысль, что «все ИТ будет devops» — в прогрессивной ИТ-среде не останется системных (и прочих) администраторов, их таки заменят DevOps. НО, самое интересное, что даже внутри крупных ИТ корпораций, которым тренд «DevOps» приносит большие прибыли, нет единого мнения о судьбе в современных ИТ-инфраструктурах тех позиций, которые в общем называли «ИТ-профессионалы» и которые в реальности к «Dev» вообще не прикасаются, а управляемые ими инфраструктуры настолько статичны, что их «Ops» не меняются годами и выполняются рутинно (я это называю «ребята нашли свой карман безделья»).

Потому, в данной презентации со Стального Бубна 2018 во Львове, посвященной концепции Infrastructure as Code (IaC) для системных администраторов и архитекторов ИТ-инфраструктуры, я попытался (как оказалось, даже 1,5 часа очень и очень мало, чтобы рассказать и показать самые базовые концепции) сравнить те задачи, которые решают DevOps и SysAdmin, что у них отличного и, главное, что есть общего в работе и DevOps, и SysAdmin — какие современные тенденции на рынке управления ИТ-инфраструктурами позволяют использовать общий инструментарий и общие подходы в работе SysAdmin и DevOps. И все это, конечно же, на примере облачных технологий, связанных с Microsoft Azure.

Начнем, пожалуй, с того момента, что важность и потребность в позиции «DevOps» достаточно сильно «культивирована» теми компаниями, которые, собственно, продают инструменты для работы DevOps или компаниями-аутсорсерами, где DevOps — производственная необходимость в рабочем процессе с постоянным «выкатыванием» новых сборок ввиду забажености кода, производимого гребцами галер. Да и, собственно, сейчас какие только позиции и обязанности не называют красивым именем «DevOps». В реальности ситуация с DevOps примерно такая же, как с той картинкой про айсберг — DevOps сейчас — одна из самых «видимых» позиция в ИТ-индустрии, не считая девелоперов (потому что их раньше не было, точнее — не придумали еще такое слово, и технологии были «пожиже», а теперь они срочно нужны каждому уважающему себя аутсорсеру), а основное управление ИТ-инфраструктурой «обычных» компаний по прежнему лежит на плечах обычных таких системных администраторов, которые работают себе с этой самой инфраструктурой «по старинке». Я лично, и моя компания как раз оказывает услуги таким вот «обычным» компаниям и сейчас в тренде — это миграция части ИТ инфраструктуры в облака с последующим обновлением (читай — rebuild до архитектуры, близкой к требованиям PaaS) некоторых LoB решений компании или же — использование облачных сервисов типа Azure Backup или Azure Site Recovery для реализации более эффективного резервного копирования или защиты от сбоев. И у меня накопилась достаточно большая и релевантная статистика отношения руководителей (CIO, CEO) к концепции DevOps для работы с их ИТ-инфраструктурой.

Но перед тем, как продолжить тему Infrastructure as Code — рекомендую познакомиться с моим докладом на предыдущем Стальном Бубне, который подробно рассказывает, что бывает, когда DevOps используют (или они берутся сами за работу) не по прямому назначению — как архитекторы и администраторы ИТ-инфраструктуры обычной компании с ее обычными сервисами + немного облаков.

Итак, вернемся к отзывам обычных компаний про место DevOps и соответствующих процессов в их ИТ-инфраструктуре (комментарии собирательные, но некоторой — очень близко к тексту):

  • У нас нет разработки, у нас стабильная инфраструктура, которая нуждается в базовых рутинных операциях.

  • Мы планируем перенос инфраструктуры в облако, верно, но это будут реплики наших виртуальных машин или базовые сервисы.

  • Скрипты? Извините, но мои люди получают заплату за то, чтобы работали сервисы.

  • У нас рутинные операции, если надо — есть RDP/TeamViewer и прочие инструменты админа.

  • DevOps — это какие-то аутсорсеры, которых мы наняли для написания приложений, они работают в своей песочнице и инфраструктуры это не касается.

Как мы видим, с точки зрения руководителей ИТ в компаниях, которые «просто эксплуатируют ИТ, как часть производственного процесса» — места для DevOps в таких компаниях нет, а позиции системных администраторов прочны, как никогда. И таких компаний, для которых ПК или мобильные устройства всего лишь средство обработки производственной информации — большинство. Так что, стоит ли сисадминам почивать на лаврах?

Текущие тенденции в экономике и бизнесе — говорят, что нет... Хотя бы потому, что все идет, как обычно — нужно дешевле, быстрее и на вчера. В том числе — и в управлении ИТ-инфраструктурой. Быстрее развертывать новые сервисы, восстанавливать старые, подключать быстрее и больше пользователей и выдавать им данные на их запрос как можно оперативнее, а лучше всего — дать пользователю кнопку «сделать весь отчет/презентацию/работу за меня» ;) И да! — Еще и параноидальная безопасность во всем + новое красивое слово GDPR (под которое можно подвести любые требования).

И, самое главное — компаниям упорно продают облака... Мировые гиганты в ИТ вкладывают в этот сегмент громадные деньги, в том числе и на маркетинг, что приводит к тому, что любой CIO задумывается над вопросом «а зачем мне облака?» и даже если не задумывается — ему обязательно напомнит его CEO вопросом типа «а что у нас там с облаками? Мне тут рассказали, что это на 30% эффективнее нашей текущей системы». Нет, я ничего против облаков не имею, и даже сам придумаю 10-15-20 причин, почему облака лучше локальной инфраструктуры — я просто озвучиваю тенденции и текущий момент раздумий CIO.

В результате сейчас сложилась ситуация, которая довольно патовая и для руководства ИТ-инфраструктур, и для сисадминов, и даже для тех самых корпораций, которые «пропихивают» массы в облака. Почему? Да потому что сейчас как бы существует 2 мира ИТ-инфраструктур, в одном из которых есть серверы с их консолями, традиционные системы и процедуры управления (от тех самых компаний, которые и «за облака»), а во втором — есть облака с совершенно другой концепцией управления, вроде как изначально заточенной под девелоперов и DevOps (что не принимается CIO/сисадминами — смотри выше) и в которые надо поместить путем «взяли и переставили» существующие серверы с нестыкующейся моделью управления внутри. И основные проблемы тут:

  • Традиционные модели управления устаревают ввиду новых облачных технологий и требований.

  • Очень много ручной работы и модификаций + еще один уровень абстракции в виде облака.

  • Ручное тестирование современной инфраструктуры требует больших затрат в целом и слишком затратно по времени.

  • Административные привилегии предоставляются без детализации задачи, ограничений по времени.

  • Операционные команды не накапливают опыт в виде готовой документации и повторяемых конфигураций — метод next-next-next этого не позволяет ;)

Потому общую тенденцию в изменении требований к управлению «обычной» ИТ-инфраструктуры «обычными» системными администраторами можно озвучить, как:

НОВЫЕ ПОДХОДЫ К УПРАВЛЕНИЮ ИТ ИНФРАСТРУКТУРОЙ ТРЕБУЕТ БОЛЕЕ ТОЧНЫХ, АВТОМАТИЗИРОВАНЫХ ПРОЦЕССОВ С ОБШИРНЫМИ ВОЗМОЖНОСТЯМИ ПО ДЕКЛАРАТИВНОМ ОПИСАНИЮ, ПОВТОРЕНИЮ И МАСШТАБИРОВАНИЮ, НЕЖЕЛИ СЕЙЧАС.

Как будут выглядеть ИТ-инфраструктуры будущего даже в «обычных» компаниях, которые соответствуют указанным требованиям и какой будет работа системного администратора, управляющего такой ИТ-инфраструктурой? — Правильно, как уже знакомое для DevOps понятие Infrastructure as Code со всеми вытекающими отсюда свойствами и возможностями:

  • Инфраструктура определяется как набор декларативных описаний объектов...

  • Которые сохраняются в конфигурационных файлах...

  • Точно описывающих установку отдельного сервера или всего окружения...

  • С «идемпотентностью» (вот же слово придумали)...

  • С автоматизацией конфигурирования и рутинных операций...

  • С сохранением ИТ администраторских навыков и инструментов...

  • + внедрения процедур, применяемых в разработке ПО — Source/Build/Test/Release

Что изменится в результате распространения концепции Infrastructure as Code для системных администраторов не только в облачных ИТ-инфраструктурах, но и в их локальных сетях и любимых продуктах, а также в самих процедурах работы с ИТ-инфраструктурой в средних и крупных компаниях?

  • Распространение концепции декларативной Infrastructure as Code на локальные инфраструктуры (например, с распространением Azure Stack).

  • Перенос большинства сервисов управления и мониторинга в облака (уже сейчас активно развиваются облачные Microsoft Intune и Operations Management Suite) с применением к ним возможностей управления через конфигурацию.

  • Автоматизация работы облачных, гибридных и локальных с использованием облачных сервисов типа Azure Automation и гибридных runbook.

  • Постепенный дрифт AD в сторону Azure AD + Desire State Configuration (DSC), который придет на замену привычных групповых политик (учим DSC уже сейчас).

  • Повышение требований Business Continuity / Disaster Recovery и, как результат, более активное использование в компаниях таких средств, как Azure Backup и Azure Site Recovery — готовой песочницы для того, чтобы при крупной катастрофе локальной инфраструктуры компания «рывком» оказалась в облаках (и вы даже не представляете, какая будет паника у ИТ после этого!).

  • Иметь 2-3 параллельные идентичные инфраструктуры будет нормой — что позволит быстро вводить в эксплуатацию новые решения или реагировать на катастрофы.

  • И да, концепт на то, что в нынешних условиях дешевле все с нуля пересобрать, развернуть или переключить несколько слотов развертывания с использованием декларативных шаблонов, описанных выше — чтобы быстро обеспечить бизнесу работу служб — а после искать ошибки, которые привели к сбоям или остановке предыдущей.

  • Изменяются процедуры и сам стиль работы ИТ отделов — «админ» поправил файл конфигурации, собрал, затестил, зарелизил в автоматизированной системе (даже, возможно, с тестовым развертыванием в свободный слот) — и шеф нажал кнопку деплоймента в продакшен. Все это — с версионностью, трекингом изменений конфигураций, мониторингом событий и возможностью повторить операцию бесконечное количество раз даже на уже работающей инфраструктуре без потери ее работоспособности (та самая «идемпотентность»).

Итак, перспективы развития облачных, гибридных и даже локальных ИТ-инфраструктур и подходов управления ими в ближайшие годы понятны. Что делать системному администратору, который осознал, что его умение создать, настроить виртуальную машину и установить внутрь нее ОС с настройкой ролей этой ОС и даже детальных отдельных сервисов, типа вебсайта — скоро окажется невостребованным по причине замены этих навыков новыми инструментами? Есть много ответов на этот вопрос, например — «уйти из ИТ», или «переквалифицироваться в DevOps», или «в бьюти-/тревел-блогеры» (ага, это троллинг самого себя, у автора достаточно большое количество видео, посвященных путешествиям — «Путевые Заметки Игоря Шаститко» — http://bit.ly/iwalker2000_travels1 ), или «просто развиваться и постараться взглянуть на способы администрирования ИТ-инфраструктур под другим углом». И изучать новые технологии и инструменты управления, которые уже есть на рынке, и которые используют те же DevOps (так что, если хотите в DevOps — учиться придется еще больше и тому же). А именно:

  • Шаблоны описания конфигураций — Azure Resource Manager templates (ARM, доступен и в локальных облаках Azure Stack).

  • Средства развертывания инфраструктур из шаблонов и просто скриптами — портал Azure, Azure PowerShell, Azure CLI, VS, GitHub.

  • Средства контроля конфигураций — Desire State Configuration (DSC) — и не только в базовых сценариях, но и в сочетании с теми же шаблонами ARM.

  • Облачные средства автоматизации и мониторинга — такие, как Azure Automation, Hybrid Runbook Workers, Operations Management Suite и прочие реакции на события и т.п.

  • Средства управления исходным кодом шаблонов, скриптов развертывания, runbook, DSC, с интеграцией Azure с GitHub и прочими решениями.

  • Средства управления процессом разработки ИТ-инфраструктуры с подходом Infrastructure as Code — Source/Build/Test/Release — с применением тех же облачных сервисов Visual Studio Team Services и т.п.

И, после такой вводной части — рекомендую все же посмотреть полную запись моего выступления на конференции «Стальной Бубен» во Львове в мае 2018 — «Автоматизация развертывания и конфигурирования VM в IaaS Azure — взгляд со стороны админа, а не DevOps» — кроме, собственно, слайдов системные администраторы найдут в этом видео примеры использования всех перечисленных технологий и инструментов. Да, как я уже писал, я немного просчитался со временем, к сожалению, опыт показал, что для подобной презентации с демо потребуется минимум в 3 раза больше времени, потому я планирую включить все эти демо в запланированную на своем канале серию, посвященную работе системного администратора с Microsoft Azure.

Выводы? Для системных администраторов — они не утешительные — «учиться, учиться и еще раз учиться» — вас ждет «большая ломка» — методов, инструментов, и собственно, того, чем вы будете управлять. Потому — всех действительно заинтересованных ожидает очень интересная дорога вперед, перед которой вы должны понять несколько простых истин из будущего (которые я вкратце постарался осветить в данном видео):

  • Все «артефакты» Infrastructure as Сode, описывающие даже самые сложные инфраструктуры компаний — простые текстовые файлы, как и исходный код у девелоперов!

  • «Админы инфраструктуры» медленно переползают в «разработчиков инфраструктуры» (писателей ARM шаблонов и скриптов runbook на PowerShell)...

  • «Админы рабочих мест/серверов» в «разработчиков конфигураций» (писателей DSC и, снова же — скриптов PowerShell)...

  • Инфраструктурный и конфигурационный код может быть сохранен, версионизирован, протестирован и распространен, как и программный код — у вашей инфраструктуры вскоре появятся свои сборки, свои релизы, и свои тестовые и разрабатываемые копии в отдельных «слотах».

  • И да поможет вам <тут фрагмент политкорректности> в вашем постижении новой мудрости и желании перерасти свой консерватизм с RDP и кликами next-next-next!!!

SysAdmin vs DevOps—что разного и что общего—будущее системных администраторов на примере автоматизации развертывания и конфигурирования VM в Azure—Infrastructure as Code и инструменты DevOps, которыми сисадмин должен будет владеть в ближайшем будущем

СофТы: пошаговая инструкция по оптимизации производительности дисковой подсистемы ПК/сервера. Продолжение.

Продолжение первой серии видео про то, как проверить, что именно у вас тормозит в ПК или сервере и если проблемы с дисковой подсистемой — как оптимизировать работу дисков или выбрать правильный диск, чтобы «ускорить» ПК или сервер.

Использование RAID для ускорения дисковой подсистемы — что такое RAID и рекомендации по применению аппаратных RAID на ПК

И снова видео про диски — для тех самых — любопытствующих и интересующихся — как «разогнать» свой ПК, почему именно диски являются основной проблемой производительности ОС и как ускорить работу дисковой подсистемы. В этом видео — немного теории о том, какие RAID бывают и что означают все это RAID 0, RAID 1, RAID 5, RAID 10 и прочие страйпы, зеркала и коды... Кроме того — пара практических рекомендаций по применению именно аппаратных RAID — особенно, учитывая наличие аппаратных RAID пользовательских материнских платах.

И, традиционно — более детально в этом видео смотрите про:

  • что такое дисковый массив RAID 0 — «страйп», запись с чередованием без отказоустойчисости с высокими скоростями чтения и записи.

  • что такое дисковый массив RAID 1 — зеркало, запись дублированных данных на 2 диска сразу — отказоустойчивый массив с возможностью потери одного диска и высокой скоростью чтения при средней скорости записи.

  • что такое массив RAID 5 — запись данных с чередованием и единичным контролем целостности при аналогичных с RAID 1 характеристиках чтения/записи дает экономию дискового пространства и устойчив к выходу из строя одного диска.

  • что такое массив RAID 6 — еще более защищенная запись данных с чередованием и двойным контролем цлостности данных, RAID 6 допускает выход из строя сразу 2х дисков массива, но имеет самую низкую скорость записи из всех «обычных» вариантов.

  • комбинированные варианты массивов типа RAID x0 или RAID x1 — например, RAID 10 или RAID 51 — вариант с RAID 10 предусматривает запись с чередованием без контроля целостности — RAID 0 — на диски, которые сами по себе представляют собой массив из двух дисков в зеркале — RAID 1. Таким образом — достигается высокая скорость RAID 0 при надежном дублировании с RAID 1.

  • сравнение различных типов RAID, их требований к дискам, производительности, защищенности от отказов, используемого места.

  • про выбор варианта аппаратного RAID, про то, что в 70% пользовательских материнских плат простые режимы RAID 0/1/10 — уже интегрированы и вариант с разгоном такого ПК очень простой — достаточно установить не один HDD, а два (а лучше — все четыре) и сделать на них RAID 0 или RAID 10 — что существенно ускорит работу компьютера.

  • небольшая демонстрация работы аппаратного RAID — создание на основе 2х HDD двух логических RAID 0 и RAID 1 на моем домашнем сервере.

Ускорение, оптимизация и защита от сбоев данных с использованием встроенного программного RAID в Windows

И снова видео про диски — для тех самых — любопытствующих и интересующихся — как «разогнать» свой ПК, почему именно диски являются основной проблемой производительности ОС и как ускорить работу дисковой подсистемы. В этом видео — практическое применение программного RAID в клиентской Windows. Напомню, что про сами RAID и их уровни вы можете посмотреть в предыдущем видео.

В клиентской Windows (начиная с Windows NT Workstation и далее — в Windows 2000 Professional, Windows XP и т.д.) есть встроенный программный RAID (не путать с более новой службой Storage Spaces, которая относится больше к SDS решениям, чем к локальным RAID), который позволяет достаточно эффективно работать с RAID для отдельных разделов, создавая RAID 0, RAID 1 конфигурации.

Кроме того, данный встроенный вариант программного RAID Windows позволяет защищать загрузочные и системные разделы Windows, используя зеркалирование RAID 1 для того же раздела с Windows. Так что кроме «разгона» ОС вы получите еще и некоторую надежность...

Почему некоторую? потому что зеркалирование будет применяться только к разделу с Windows, но в случае с современными системами с UEFI — надо будет зазеркалировать и тот же раздел UEFI, и раздел восстановления с «оригинального» диска — чтобы в случае полного выхода из строя основного диска — можно было бы стартовать с зеркала не только ОС, но и загрузчики UEFI и т.п.

И, традиционно — более детально в этом видео смотрите про:

  • пару слов о встроенном программном RAID в клиентском Windows.

  • какие именно программные RAID есть в Windows — когда и почему именно их следует использовать.

  • создание тестового «обычного» раздела и тестирование эталонной производительности диска.

  • создание и тестирование программного RAID0 для ускорения работы.

  • создание и тестирование программного RAID1 для зеркалирования данных и ускорения работы.

  • предварительные шаги для зеркалирования загрузочного диска и системного раздела Windows с использованием программного RAID.

Ускорение, оптимизация и защита от сбоев данных с использованием новой службы программно-определяемых хранилищ (ПОХ, оно же SDS) в Windows — Storage Spaces

УРА! Заключительная часть серии про то, как «разогнать» свой ПК, почему именно диски являются основной проблемой производительности ОС и как ускорить работу дисковой подсистемы. В этом видео — практическое применение новой службы управления дисковыми массивами Storage Spaces в клиентской Windows. Напомню, что про сами RAID и их уровни вы можете посмотреть в предыдущем видео, а про использование «родных» программных RAID в Windows смотрите здесь.

В клиентской Windows (начиная с Windows 8) кроме службы «обычных» RAID , о которых я рассказывал в прошлом видео, есть также служба Storage Spaces, которая предлагает не просто организацию RAID для отдельных разделов дисков, а подное управления программно-определяемым хранилищем (ПОХ), а прилично оно звучит на языке оригинала — Software Defined Storage (SDS).

Такое хранилище имеет массу преимуществ перед имеющимися встроенными RAID, как, например, работу с USB дисками, кеширования данных на чтение и запись, создание слоев хранения данных на разных типах данных и т.п.

Минусом использования Storage Spaces в домашних условиях можно назвать необходимость выделения дисков (полностью) под Storage Pool — основной объект Storage Spaces, который объединяет все нужные физические диск в едуный объект хранения и управления, из которого уже «нарезаются» все необходимые виртуальные диски RAID, их слои и кеши. НО, учитывая возможность использования тех же дисков USB для Storage Pool — вы можете запросто не только расширить свое дисковое пространство за счет внешних USB, но и разогнать их производительность за счет RAID в Storage Space.

Все этапы работы с Storage Spaces показаны в данном видео и здесь привожу примеры команд PowerShell:

  • Создание Storage Pool под именем SP1 из всех доступных физических дисков:

    • $PhysicalDisks = (Get-PhysicalDisk -CanPool $True)

    • New-StoragePool -FriendlyName SP1 -StorageSubsystemFriendlyName «Windows Storage*» -PhysicalDisks $PhysicalDisks -ResiliencySettingNameDefault Simple -ProvisioningTypeDefault Fixed -LogicalSectorSizeDefault 512 -Verbose

Напомню, что данная команда создает пул дисков с фиксированными размерами по умолчанию (для повышения их дальнейшей производительности) и с размером сектора 512 байт (если вы используете современные диски, ОС и приложения, можете смело поменять 512 на 4096 в команде).

  • Создание RAID0 — New-VirtualDisk -StoragePoolFriendlyName SP1 -FriendlyName «RAID0» -Size 12GB -Verbose — диск после создание потребуется проинициализировать, создать на нем раздел и отформатировать стандартными средствами Windows

  • Создание RAID1 (зеркала) с двумя копиями данных и дальнейшим автоматическим созданием раздела и форматированием на полученном диске — New-VirtualDisk -StoragePoolFriendlyName SP1 -FriendlyName «RAID1» -Size 8GB -ResiliencySettingName Mirror |Initialize-Disk -PassThru |New-Partition -AssignDriveLetter -UseMaximumSize | Format-Volume -FileSystem NTFS -FileSystemLabel «RAID1» -Verbose

  • Создание специального RAID1 с тремя копиями данных, напомню, что для создания такого тройного зеркала требуется минимум 5 дисков — New-VirtualDisk -StoragePoolFriendlyName SP1 -FriendlyName «RAID1-3» -Size 12GB -ResiliencySettingName Mirror -NumberOfDataCopies 3 |Initialize-Disk -PassThru |New-Partition -AssignDriveLetter -UseMaximumSize | Format-Volume -FileSystem NTFS -FileSystemLabel «RAID1-3» -Verbose

  • Создание RAID5 — RAID0 с четностью — New-VirtualDisk -StoragePoolFriendlyName SP1 -FriendlyName «RAID5» -Size 12GB -ResiliencySettingName Parity |Initialize-Disk -PassThru |New-Partition -AssignDriveLetter -UseMaximumSize | Format-Volume -FileSystem NTFS -FileSystemLabel «RAID5»

СофТы: пошаговая инструкция по измерению, тестированию и оптимизации производительности дисковой подсистемы ПК/сервера

СофТы: пошаговая инструкция по измерению, тестированию и оптимизации производительности дисковой подсистемы ПК/сервера

Нашел время таки упорядочить серии видео (особенно технических видео и Путевых Заметок) в виде законченных постов на блоге, содержащих все связанные между собой и релевантные видео. И первой под раздачу попала серия про то, как проверить, что именно у вас тормозит в ПК или сервере и если проблемы с дисковой подсистемой — как оптимизировать работу дисков или выбрать правильный диск, чтобы «ускорить» ПК или сервер.

Если ваш ПК или сервер тормозит, то, скорее всего, причина медленной работы системы в целом или отдельной службы/приложения кроется в проблемах дисковой подсистемы. Как показывает личный опыт, именно медленный или очень нагруженный диск является причиной «тормозов» в 80% случаев. Так что данное видео позволяет вам понять, каким образом производительность вашего компьютера под управлением Windows зависит от диска, насколько диск нагружен сейчас, как провести тестирование максимальных возможностей диска и, самое главное — в данной серии видео подробно рассказано про все этапы анализа производительности ПК и выполнения процедур по оптимизации скорости работы дисков, планирования новых дисков и их массивов, и, как результат — укорения работы всего ПК в целом. Так что воспринимайте эту серию, как очень подробный учебный курс по производительности дисков, который вы можете прослушать бесплатно. Кстати, даже в платных учебных центрах Microsoft — вы не найдете такого обширного и детального курса по теме планирования, мониторинга, оптимизации и ускорения дисковой подсистемы Windows. Так что не забывайте благодарить автора, ставить лайки к видео, делиться ссылкой на эту статью и видео в социальных сетях и т.п. И, конечно же — подписывайтесь на мой канал iWalker2000.

Как и чем измерять текущую нагрузку/производительность диска

Итак, по многочисленным просьбам — давно обещанное техническое видео, посвященное управлению производительностью компьютеров — особенно — серверов.

В этой части смотрите про то, что является основным показателем производительности и загруженности диска и как определить, «тупит» ваш диск или нет. И, конечно же, как померять текущую нагрузку на диск и какие утилиты позволяют это сделать быстро и просто.

А также — как зажурналировать всю производительность вашего диска за определенно время, чтобы потом спокойно разобраться с тем, что же на самом деле у вас не так.

Нагрузочное тестирование и измерение производительность диска с iometer, ч.02

Продолжаем тему измерения производительности дисков и ускорения работы сервера/ПК путем оптимизации и тюнинга дисковой подсистемы. В первой части я рассказал, что и как мерять, а в этой части смотрите, как генерировать тестовую нагрузку при помощи утилиты iometer.

Скачать утилиту iometer можете здесь — http://www.iometer.org/doc/downloads.html, а файл с шаблонами для iometer, в котором вы найдете в том числе и эмуляцию нагрузки файлового сервера (что позволяет понять, например, как будет вести дисковая подсистема при высокой нагрузке в виде виртуальных машин), можете забрать с моего OneDrive — https://1drv.ms/u/s!AM7EfLavPWLMq9cR. Также хочу напомнить, что если у вас сервер планируется под специфическую нагрузку — типа SQL Server или Exchange Server (или другие серверы, работающие именно с БД) — вы должны четко понимать, какими блоками данных оперирует при работе с диском — например, SQL Server оперирует блоками 64КБ при чтении/записи на диск.

Надеюсь, процедура тестирования производительности дисковой подсистемы при помощи iometer разжевана достаточно подробно и вы сможете прогнать свои диски на предмет «правильной» нагрузки и увидеть, что вы будете получать на выходе. И хочу напомнить пять вещей про тестирование дисков с iometer в реальной жизни под реальную задачу:

  • вы должны примерно понимать текущую нагрузку на систему — кол-во обращений, отношение чтения и записи, какими блоками данных оперируют приложения, которые будут работать с дисками;

  • есть большая разница между операциями непосредственно с «голым» диском и операциями с файловой системой, поэтому выбор и тестирование файловой системы и размера кластера на ней — может быть критичен для производительности;

  • правильно подбирайте длительность выполнения теста (особенно для тестов с файловой системой, где надо дождаться заполнения кеша и прочих «слоев» — т.е. 3-5 часов теста для реальной большой дисковой системы — это нормально), размер тестового файла (желательно — на размер планируемых данных), количество тестовых процессов Worker (например, каждый тестовый процесс может соответствовать виртуальной машине, которая будет работать с дисковой подсистемой), кол-во генерируемых ими IOPS и микшируйте несколько нагрузок/дисков в одном тесте, чтобы убедиться, что вы нагружаете и меряете не один диск, а реальную нагрузку на дисковую подсистему;

  • подбирайте и тестируйте нагрузку так, чтобы она дошла до критических показателей (основным из которых, как вы знаете из предыдущего видео про измерение производительности диска — является время отклика диска — желательно, чтобы показатель был ниже 30мс, а 20мс — это идеально) и фиксируйте именно этот полученный результат по основным показателям. Это и будет правильная производительность;

  • и, наконец, не верьте только iometer и его показателям — оценивайте производительность дисковой подсистемы «в целом», по другим важным показателям, которые дает возможность собрать тот же Performance Monitor в режиме логирования (про это тоже смотрите в предыдущем видео про основные показатели/счетчики производительности дисков). При тестировании дисковых подсистем следует обратить внимание и на потребление памяти, и на нагрузку на процессор. Также — очень полезно использовать iometer в сетевом режиме тестирования, чтобы оценить не только скорость работы дисков, а и сетевого интерфейса.

Так что тестируем дисковую систему во всевозможных режимах и комбинациях нагрузки, особенно — перед покупкой. Обязательно попросите своего поставщика дать возможность прогнать аналогичную систему на тестовом стенде. Например, компания Entry — которая является многолетним поставщиком оборудования для тех же семинаров Microsoft, которые я провожу в Украине — предоставляет заказчикам такую возможность и даже поможет спроетировать «железо» для дисковой подсистемы.

Как выбрать оптимальный тип диска — SSD, NVMe SSD, SSHD, HDD — под конкретную задачу и имеющийся бюджет?

Продолжаем тему измерения производительности дисков и ускорения работы сервера/ПК путем оптимизации и тюнинга дисковой подсистемы. В первой части я рассказал, что и как мерять на компе, чтобы определить, что проблема низкой скорости работы ПК/сервера — в загруженности дисковой подсистемы или физически медленных жестких дисках, во второй части смотрите, как генерировать тестовую нагрузку при помощи утилиты iometer , а в этой части — смотрите немного теории о том, как и для каких задач выбирать диски в ПК. Сразу скажу, что это видео записано больше как ответ на многочисленные вопросы от посетителей (чаще всего — обычных пользователей) о том, что же им делать, чтобы разогнать систему (особенно старую) и какой новый диск купить на смену сдохшего «старичка».

В этом видео рассматриваются основные сценарии использования дисков в ПК — работа ОС, активные приложения, пишущие и читающие много и часто, горячие/теплые данные и холодные данные — и какие варианты дисков подходят для каждого из этих сценариев.

И, конечно же, в этом видео — сравнение всех вариантов существующих на рынке хранилищ (будем все же называть их по традиции дисками):

  • преимущества и основные сценарии использования SSD (Solid State Drive);

  • что такое NVMe SSD и почему они не нужны обычным пользователям;

  • сценарии использования гибридных дисков SSHD (Solid State Hybrid Drive) — HDD с дополнительным кешем на флешке (2-8ГБ) и как они работают под нагрузкой в разных сценариях;

  • и, конечно же, HDD — меня очень часто спрашивают — что какой брать — HDD 5400 или 7200 оборотов и всегда упирают на цену.

И да, хочу сказать, что деньги тут в выборе — самое главное, поскольку современные ОС активно используют диск, особенно при малом объеме ОЗУ (до 4ГБ) — потому жесткие диски HDD даже с 7200 оборотами — не лучшее место для размещения на них ОС. Поэтому — для ОС SSD 128ГБ или SSHD (на худой конец и маленький бюджет) + обычный HDD 7200 на теплые и холодные данные (фильмы, музыку, всякое разное). И для подобных коллекций подойдет и HDD 5400 — можете сэкономить 10 баксов.

Оптимизация производительности файловой системы — отключение неиспользуемых атрибутов файлов, правильный размер кластера при форматировании и т.п.

Решил долго не затягивать с темой оптимизации производительности дисков и второй частью видео про то, как правильно выбирать и настраивать диски — потому быстренько записал обещанное продолжение, в котором вы узнаете, как оптимизировать файловую систему (особенно, если речь идет о нагруженных серверах или рабочих станциях).

В этом видео вы узнаете:

  • о том, почему необходимо правильно выбирать размер кластера файловой системы при форматировании диска и о том, что у диска еще есть и его внутренний размер сектора, где запись идет на физическом уровне , а как правильно определить реальный размер операций на диске — смотрите в предыдущем видео.

  • что такое фрагментация файлов и почему важно дефрагментировать диски регулярно, а также — о том, что такое MFT в NTFS, почему важно держать его в нормальном состоянии и с нормальным размером — напомню, что в Windows для управления размером MFT и прочих файлов метаданных есть улитита командной строки (запускать с правами админа) — fsutil behavior query MftZone и fsutil behavior set MftZone (после изменения размера MFT — ОС потребует перезагрузки). Также есть утилита дефрагментации отдельных файлов от Sysinternals — Contig — https://docs.microsoft.com/en-us/sysinternals/downloads/contig — которая позволяет дефрагментировать файлы типа $MFT по отдельности.

  • о важности использования или отключения преобразования имен файлов к короткому виду 8.3 — как выключить поддержку коротких имен в NTFS — fsutil behavior query Disable8dot3 и fsutil behavior set Disable8dot3 — и немного о том, почему много файлов в одной папке — это плохо и как правильно делать имена файлов, если отключить имена 8.3 нельзя.

  • что такое атрибут последнего времени доступа к файлу и как он влияте на производительность файловой системы (особенно — нагруженной) — fsutil behavior query DisableLastAccess и fsutil behavior set DisableLastAccess.

  • выделение дополнительной памяти для работы драйверу NTFS ОС — fsutil behavior query MemoryUsage и fsutil behavior set MemoryUsage.

  • и, наконец, уведомление со строны драйвера файловой системы «подписчиков» о том, что файл удален — также обеспечивает дополнительные проценты производительности там, где с папкой одновременно работают несколько пользователей и происходит активное удаление файлов — fsutil behavior query DisableDeleteNotify и fsutil behavior set DisableDeleteNotify.

  • плюс — смотрите о неизбежном зле, которое всегда присутствует в самой ОС и всегда нагружает дисковую систему — это антивирусы, индексирование и поиск и прочие административные моменты, как, например, размещение нескольких разделов на одном диске (шпинделе — особенно это актуально для дисков HDD) — все это отрицательно сказывается на производительности, но решать это уже вам.

СофТы: пошаговая инструкция по измерению, тестированию и оптимизации производительности дисковой подсистемы ПК/сервера

Вирус Petya и правильная комплексная защита от него и подобных следующих вирусов

Посмотрим пошагово, чего же такого пропустили CIO, что могло бы предотвратить эпидемию в украинских компаниях «на корню», что есть в базовых рекомендациях Defense-in-Depth и реализовать которые не является большой проблемой. Напомню, требования Defense-in-Depth (DiD) достаточно простые и предусматривают реализацию тех или иных сервисов защиты на всех уровнях ИТ-инфраструктуры.

Вирус Petya и правильная комплексная защита от него и подобных следующих вирусов

Есть и более «продвинутые» методы защиты, которые обеспечивают высокий уровень защиты от современных типов атак, которые в том числе, использовались и в Petya — Securing Privileged Access.

Итак, начнем с первичного заражения. В данной эпидемии рассматривается 2 основных сценария — проникновение через почтовые сообщения в виде вложения к письму и через систему обновлений MEDoc, так называемую атаку «software supply chain attacks», когда взламывается поставщик ПО. Подробно, кто еще не прочитал — «разбор полетов» можете посмотреть здесь.

При этом в первом сценарии запущенный пользователем из почты исполнимый файл атакует ОС через уязвимости SMBv1 (EternalBlue/EternalRomance) и получает все требуемые права, чтобы выполнить свои процессы — шифрование и распространение.

Какие методы противодействия Defense-in-Depth помогут от подобной атаки:

  • Периметр — сервис фильтрации почтовых сообщений (например, в Microsoft Exchange) — просто удаляющий все файлы, кроме разрешенных типов, антивирусная система для электронной почты, если нет чего-то подобного — аренда аналогичных облачных сервисов, например — Exchange Online Protection, «знания» которого не зависят от «расторопности» админов (время внедрения — 30 мин + обновление доменного имени).

  • Приложения — антивирусы, которые ловили Petya.A с самого начала эпидемии. Надо обновлять сигнатуры — нет, не слышали?

  • Хост — бронирование ОС — накатить готовые политики с рекомендованными настройками безопасности от Microsoft Security Compliance Manager или доточить их под рекомендации — например, отключить SMB v1 как класс и прочие ненужные устаревшие сервисы — плевое дело, управление обновлениями (совсем не сложно, особенно, если Windows не пиратская), с IDS сложнее, но даже тут — всего лишь подписка на Defender Advanced Thread Protection, который, как показала практика, ловит атаки подобного типа на корню.

  • ЛПП — обучение не открывать файлы, предупреждение об возможных атаках и наказание — вплоть до увольнения и судебных исков против запустивших вирус (ах, да — страна такая, законы не работают — тогда просто переломайте запустившему вирус ноги).

Так что в данном случае — сам факт заражения существенно снижается...

Сценарий второй — вирус «прилетел» через обновление той или иной LoB-системы и здесь пока почти без шансов — скорее всего компьютер будет заражен, поскольку код выполняется от прав системы.

Но не будем расстраиваться. Мы потеряли один компьютер и далее все зависит исключительно от устойчивости ИТ-инфраструктуры в целом.

Дальнейший сценарий распространения вируса Petya проходит по нескольким направлениям:

  • Механизм, использующий уязвимость SMBv1 (EternalBlue/EternalRomance) на находящихся в одной подсети с зараженным ПК компьютерах,

  • Или механизм pass-the-hash/pass-the-ticket, используя имеющиеся на зараженном ПК сеансы пользователей.

Первый вариант распространения вируса на соседние ПК блокируется очень просто с Defense-in-Depth:

  • LAN — сегментирование и изоляция (VLAN) — совсем просто, особенно учитывая кол-во накупленных в компаниях Cisco и прочего оборудования, надо только сесть и чуть подумать, какой же трафик куда должен ходить между сегментам пользовательских ПК (многочисленных и разнесенных тоже) и серверами приложений (тоже сегментированных между собой по типам приложений и требуемого сетевого доступа). Мы не говорим даже об NDIS — даже без обнаружения вторжения (хотя если Cisco — так чего бы не активировать?) — сегменты сетей стали бы непреодолимым барьером для проникновения вируса вне группы ПК.

  • Хост — с его firewall, который, как ни странно, сейчас включается в Windows по умолчанию и только дурацкий ответ на вопрос — «хотите ли вы расшарить свои файлы в сети» — «да, хочу!» — портит всю картину. Ну вот зачем, зачем пользовательскому ПК вообще что-то публиковать в сети? Зачем все админы так любят отключать firewall? Легче работать? А не легче ли написать правила в групповых политиках... И все, даже в рамках одного сегмента сети — такие ПК c firewall будут защищены от посягательств зараженного ПК. А что насчет контроллеров домена и прочих файловых помоек — читай выше, обязательных обновлений и «бронирования» и тут никто не отменял.

  • ЛПП — и да, не забываем о персональной ответственности админов и сетевиков за каждый следующий поломаный по сети комп.

Второй вариант распространения вируса чуть сложнее — Petya использует для атаки на другие ПК в сети наличие открытых пользовательских сеансов/кэшей паролей на зараженном ПК, а учитывая парадигму того, что многие админы на ПК используют один и тот же пароль локального администратора или учетную запись администратора домена для работы на любом ПК компании — здесь для Petya широкое поле деятельности с использованием механизмов атак pth/ptt. Имея на руках администраторские пароли и открытые «всем ветрам» порты соседних ПК — Petya успешно копирует себя через административные шары (Admin$) и запускает удаленно свой код на атакуемой машине.

НО, если обратиться к Defense-in-Depth, то можно обнаружить, что:

  • Хост — рекомендовано использование технологий VBS и Device Guard для защиты от кражи идентити подобными способами. Но — VBS есть только в Windows 10 — Ok, но никто не мешает познакомиться с рекомендациями по защите хостов от Pass-the-hash/pass-the-ticket атак для Windows 7 и т.д. — ничего сложного, кроме опять же — использования рекомендованных шаблонов безопасности (их же можно использовать и для Windows 10 без VBS/DG) начиная с отключения кеширования идентити при входе и т.п.

  • Хост — простейшая гигиена аутентификации, связанная с использованием уникальных администраторских паролей на каждой рабочей станции/сервере — утилита Local Administrator Password Solution (LAPS) — избавит от головной боли «по запоминанию» каждого пароля, а далее — более сложные процедуры гигиены для администраторов, которые говорят, что для выполнения определенных действий на ПК должны быть использованы определенные учетные записи, не обладающие полнотой прав на уровне всей сети (а что, никто не в курсе, что с доменным админом ходить по рабочим станциям категорически запрещено?).

  • Плюс — уже упомянутые выше механизмы обнаружения вторжения — тот же Defender ATP или Microsoft ATA («заточенный» как раз на обнаружение атак pth/ptt) и, безусловно — firewall и сегментирование сетей для того, чтобы завладевший теми или иными учетными записями вирус не смог подключиться к соседям.

  • ЛПП — а здесь уже может «прилететь» и админу компании в целом, если окажется, что его учетная запись «гуляет» почему-то по рабочим местам пользователей или используется на ПК совместно с такими гуляющими админами.

ВСЕ! Было «охренеть как сложно», мы потратили от силы 3 рабочих дня (24 часов и 24×75=1800евро денег высококвалифицированного специалиста) из предоставленных 43 дней с предыдущей атаки для того, чтобы защититься от разрушительного действия вируса типа Petya.

Да, тут некоторые коллеги в комментах дискутировали насчет того, что «нельзя так просто взять и поделить сеть на подсети пользователей и банкоматов — есть моменты администрирования и удобства работы» — но, в любом случае, у CIO было еще минимуму 3-5 дней на подумать, а потом решить, что удобство работы перед угрозой полномасштабной вирусной атаки — отходит на второй план. В общем — даже не думали и не сделали НИЧЕГО.

Наши потери от Petya после принятых общих мер — мы потеряли, скорее всего, все машины, которые заразились путем приезда «обновления от MEDoc» (хотя, при использовании IDS типа Defender ATP — и эти потери могут быть сведены к минимуму), мы потеряли 10% от тех машин, которые получили «письма счастья», а компания — потеряла работавших на них сотрудников. ВСЕ! Никакой эпидемии, никаких отключившихся касс и банкоматов (!!!), никаких тысяч часов на восстановление ИТ-инфраструктуры. Осталось восстановить требуемые данные из бекапов (или вообще ничего не восстанавливать, кроме ОС на ПК — если ИТ-инфраструктура сделана правильно и все хранится и бекапится централизованно, к тому же — в облако).

Так что это было, добродии?! Почему Petya гулял по украинским сетям, вынося всех и вся (и не надо рассказывать, что «в Европе/России тоже пострадали», «это была спланированная атака на Украину») — как не лень, некомпетентность и пофигизм CIO попавших под раздачу организаций и полный пофигизм Microsoft Ukraine по отношению к наземной угрозе?!

Ах да, Microsoft и «облака наше все»... Сейчас пойдут разговоры о том, что если бы «все было в Azure», то ничего бы не было. Было бы — с тем же результатом — ваши виртуальные машины в Azure были бы в той же ситуации — локальная сеть, открытые порты и т.п. — потому что в гибридной инфраструктуре облачная часть IaaS по безопасности ну никак не отличается от наземной по необходимости настроек.

Таким же образом, через обновления, Petya успешно бы пролез и на виртуалки в Azure, дальше бы пошел гулять по виртуальным сетям Azure (которые вы бы не поделили на сегменты, не изолировали, не использовали firewall на каждой), а потом и через Site-to-Site VPN залез бы и на наземные ПК пользователей... Или наоборот — с тем же результатом в такой незащищенной от угрозы изнутри «обланой» инфраструктуре.

А то было бы и хуже — учитывая умение Petya считывать учетные записи админов и зная безалаберность этих админов — Petya.Cloud (с модулем работы в облаке — дописать в код пару строчек) давно бы уже имел административные права на ваши подписки в облаках и делал бы там все, что заблагорассудится, кидая вас еще и на деньги — например — поднимал бы виртуалки для майнинга или ботсетей в вашей облачной подписке, за которые вы бы потом платили по 100К-300К уе/мес.

И даже использование облачного Microsoft Office 365, который вроде как SaaS и его инфраструктура защищается Microsoft — при такой дырявой инфраструктуре на местах — не спасет — с тем же успехом вирус добирается до админского аккаунта O365, используя воровство учетных записей — и дальше подписка O365 уже «не ваша».

Вам об этом не сказали Microsoft, Google, Amazon — все, кто продает «облака»? Так это, им же продать надо, а не решать ваши проблемы — а все проблемы облаков — находятся «на местах», а туда особо уже и не продашь — значит, и инвестировать в наземные части заказчиков не стоит ни копейки — даже тренингами и семинарами...

И всем — приготовиться — это была только следующая волна, ждем следующей, как только ребята найдут следующий механизм «заброски» и инфильтрации вируса в корпоративные сети. И этот вирус также не будет обнаруживаться антивирусами по сигнатурам и будет эксплуатировать свежие уязвимости сетей и незакрытые механизмы типа Pass-the-hash/Pass-the-ticket. И вот просто «перенести все в облака» вам не поможет, а подписка на облачные Microsoft ATA/Defender ATP в дополнение к описаным выше мерам — вполне.

И небольшой ликбез для тех, кому интересно (некоторые доклады – почти годичной давности):

Вирус Petya и правильная комплексная защита от него и подобных следующих вирусов

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

Специально по просьбам тех, кто просил подробную, понятную, наглядную и более удобную инструкцию по обновлению до Windows 10 Creators Update. Пользуйтесь! Читайте/смотрите ниже подробную инструкцию о том, как быстро и без проблем обновить вашу нынешнюю версию Windows 10 до новой, апрельской сборки Windows 10 Creators Update. Насчет самого обновления — очень рекомендую, в новой сборке — много нового, интересного и полезного. И, конечно же, она стала устойчивее и безопаснее.

Итак, пошаговая инструкция по обновлению до Windows 10 Creators Update с скринами прилагается ниже. Кому лениво читать, или комикс получился не достаточно подробным — смотрите аналогичное видео про обновление до Windows 10 Creators Update.

Внимание, перед тем, как начать обновление, убедитесь, что:

  • Ваше «железо» соответствует требованиям Windows 10, а также на диске C: достаточно — 8ГБ — места для обновления.

  • Вы установили все требуемые обновления на текущую сборку Windows 10 перед тем, как обновится до новой сборки.

  • Вы сделали резервную копию ваших данных и у вас есть все необходимые драйверы (и умения) на случай, если систему придется переустанавливать.

  • Вы понимаете, что могут возникнуть проблемы с работой ваших программ и «железа». Кстати, мой личный опыт обновления говорит о том, что:

  1. На одном из моих планшетов (а именно — на Surface Pro 3) после обновления до Windows 10 Creators Update перестал работать Microsoft Edge. Проведенное небольшое расследование при помощи утилиты Problems Report показало, что проблема в Edge Extension (плагине), которое добавляет в Edge управление навигацией с помощью пера. Репорт отправил разработчикам (и даже завел проблему на сайте), но решения пока нет.

  2. После обновления моего мининоута GPD Win до Windows 10 Creators Update — его встроенная карточка WiFi перестала соединяться с сеткой. Просто сообщалось, что подключение не удалось. Полечилось какой-то утилитой GDP Win, которая что-то фиксит в самой фирмваре карточки. Решение проблемы и ссылку на утилиту найдете здесь.

  3. Многие в комментах пишут о том, что возникают проблемы с драйверами видеокарт NVidia.

После того, как вы окончательно решились (и понимаете, что делаете) — приступаем к установке бесплатного обновления Windows 10 Creators Update:

Откройте окно Параметры в Windows 10 удобным для вас способом

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

В Параметрах Windows выберите раздел Обновление и безопасность

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

И в разделе Центр обновления Windows (права)/Состояние обновления (заголовок) кликните на линк «Да, покажите, как это сделать» под надписью «Хорошие новости!»

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

Запустится браузер (который установлен у вас в вистеме как браузер по умолчанию — у меня это Microsoft Edge) и в нем откроется страница сайта Microsoft с инструкциями по обновлению (согласно вашим региональным и территориальным настройкам), на которой вы выбираете линк «Сайт загрузки программного обеспечения» (в случае русской версии) и переходите на следующую страницу (или Upgrade Advisor, как в видеоинструкции по обновлению — и пропускаете следующий шаг, если у вас английская версия).

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

На странице «Скачать Windows 10» нажмите кнопку «Обновить сейчас» для начала загрузки мастера обновления до Windows 10 Creators Update. Вообще-то, вы можете напрямую, пропустив первые шаги, перейти на эту страницу «Скачать Windows 10» по прямому линку и начать загрузку мастера обновлений. Также, если вы вдруг еще не обновились с Windows 8.1 до Windows 10 — вам также надо будет начинать с этой страницы и данного шага (но уже за деньги, а не так, как это было еще год назад — бесплатно).

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

Сохраните файл мастера обновления Windows 10 Creators Update (имя и размер файла могут отличаться) на локальном диске вашего ПК/ноута/планшета и дождитесь окончания загрузки

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

По окончанию загрузки файла мастера обновления — запустите его с админскими правами (запрос на эскалацию прав будет показан)

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

Мастер запустится и проведет проверку возможности обновления вашей системы до Windows 10 Creators Update, если ОС потребуются какие-то дополнительные обновления — они будут загружены и установлены на данном этапе. НО, лучше обновить текущую сборку ОС до начала обновления до Windows 10 Creators Update. Дождитесь окончания проверки...

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

После окончания проверки на возможность обновления — нажмите кнопку «Обновить сейчас» в окне мастера

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

На этом этапе мастер проверит совместимость аппаратного обеспечения вашего ПК/лептопа/планшета с требованиями Windows 10 Creators Update. Обычно памяти и процессора хватает, а вот дискового пространства — нет... Для обновления до Windows 10 Creators Update на диске C: должно быть не менее 8ГБ свободного места. Если у вас с местом на диске C: все хорошо — тогда переходите сразу к шагу 17 данной инструкции по обновлению Windows 10, а если нет.... Смотрите, как правильно очистить диск C: и освободить место (особенно на старых, «замусоренных» многими годами обновлений и установкой разного софт, системах — смотрите в видео нижеподробную инструкцию о том, как почистить диск C: и что на нем можно удалить, а что оставить. Также, вкратце, в видео с инструкцией по обновлению до Windows 10 Creators Update я тоже рассказываю об утилите очистки только папки Installer от старых патчей.

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

Если вы решили пойти «простым путем» очистки диска C: (и не смотреть другое мое видео с инструкцией по правильной очистке C: выше) и поудалять немного лишних программ/игр, то сделать это тоже очень просто — оставляем мастер обновления Windows 10 ждать, а сами заходим еще раз в Параметры Windows/Система/Хранилище и кликаем на диск C:

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

В содержимом диска C: выбираем раздел «Приложения и игры»

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

Выбираем в открывшемся списке установленных программ сортировку по размеру и ждем, пока Windows не обновит список программ, построив его от самых больших к самым маленьким

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

Кликаем на «ненужном» приложении (у меня это PCMark) и выбираем в появившейся панели опцию «Удалить» и подтверждаем удаление.

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

При этом не забываем, что если программа установлена не из магазина, то «просто так» она может не удалиться, а открыть свою утилиту удаления и потребовать подтверждения там (как пример — собственная утилита удаления PCMark ниже).

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

После окончания очистки места на диске С: — возвращаемся к мастеру обновления Windows 10 и нажимаем в нем кнопку «Попробовать еще раз» — в результате чего мы возвращаемся на шаг назад и снова жмем кнопку «Обновить сейчас»

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

На этот раз уже «все будет хорошо» и мастер продолжит с информацией о том, что система таки удовлетворяет требованиям... Можете сами нажать кнопку «Далее» на этой странице мастера обновления Windows 10 или он сам автоматически продолжит работу через 30 секунд и перейдет к процессу скачивания и распаковки обновления Windows 10 Creators Update на ваш компьютер.

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

Наблюдать за процессом скачивания обновления мастером (если вы не уверены в том, что «оно качает») вы можете, запустив утилиту Диспетчер Задач Windows 10 и переключившись на закладку «Производительность», выбрать в ней раздел Wi-Fi или Ethernet (если у вас кабель). И будете видеть, качает ли ваш мастер обновления и понимать, что «дергать» его не стоит, особенно, когда кажется, что обновление остановилось. После скачивания обновления мастер перейдет (без вашего участия) к распаковке...

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

Аналогично предыдущему шагу — данный момент обновления — распаковка пакетов установки — от вас совершенно не зависит (а только от производительности диска вашего компьютера). И, так же, как и в случае с загрузкой пакетов — наблюдать за процессом распаковки (если вы думаете, что он «залип») — можете через Диспетчер Задач Windows 10, только, в данном случае, через раздел Диск 0 (С:). Ждите окончания распаковки — это может занять несколько часов...

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

Последний шаг мастера по обновлению Windows 10 после окончания распаковки пакета обновления Windows 10 Creators Update — это запрос на перезагрузку, чтобы Windows 10 продолжила основную часть обновления уже в режиме «синего экрана», который может продлиться еще час-полтора (в зависимости от вашего устройства — у меня на GPD Win этот этап занял около двух часов). Но даже если вы не нажмете кнопку «Перезапустить сейчас» — мастер автоматически перезагрузит ваш комп через полчаса — так что, в принципе, можете запускать мастер на «закачку» обновления Windows 10 Creators Update и идти спать — он дальше почти все сделает автоматически.

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

Далее, после перезагрузки, следует самый длительный этап обновления Windows 10 Creators Update — стандартный синий экран установки обновлений... При этом компьютер будет прегружен еще дважды — на 30% и на 75% этого этапа...

После окончания обновления запускается еще раз короткий мастер начальной конфигурации Windows 10 — с запросом аккаунта, с которым вы будуте выполнять операции, настройками приватности и Кортаны, а после логона — прийдется немного подождать, пока система не сконфигурирует пользовательские приложения для работы в обновленной ОС.

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

Пошаговая инструкция по обновлению Windows 10 до новой сборки Creators Update

По окончанию обновления на диске C: останется папка Windows.old, которая будет занимать достаточно много места и которая предназначена для «отката» на предыдущую сборку Windows, если с Windows 10 Creators Update пойдет что-то не так. Не удаляйте папку Windows.old «руками», для этого в Windows 10 есть опция в параметрах (или папка Windows.old будет удалена сама через 30 дней). Как удалить папку Windows.old правильно и очистить место — смотрите в этом видео у меня на канале iWalker2000.

Подробная пошаговая инструкция для пользователей – как обновить Windows 10 до новой сборки Windows 10 Creators Update

ИТ-карьера (III часть в 3х сериях): практические шаги по установке, управлению Active Directory Domain Services

В этой части — переходим от подготовки рабочего места к изучению конкретных технологий и служб, которые необходимо внедрять в ИТ-инфраструктуру мало-мальской организации (от 15-20 ПК и выше).

Краеугольным камнем любой ИТ-инфраструктуры является (если принимать во внимание правильную модель оптимизации ИТ-инфраструктуры, на которую я постоянно ссылаюсь) служба единой аутентификации и авторизации пользователей и управления их правами и разрешениями.

Такой службой в инфраструктуре, которая обеспечивается сервисами Microsoft, является Microsoft Active Directory (а если быть точным — то конкретная служба Microsoft Active Directory Domain Services).

Поэтому — изучение базовых основ Active Directory является первой же обязательной и неотъемлимой частью обучения будущего Системного Администратора. И даже если вы решили стать Системным Администратором на другой стороне — различных систем Linux и т.п. — концепцию каталога для единой аутентификации вам все равно придется учить — она таки краеугольная, не зависимо от используемых технологий — и, таки и саму Active Directory — очень часто в инфраструктурах мне приходилось встречать те самые Linuxвые серверы, приложения которых использовали для своей работы аутентификацию Active Directory — как лучшего решения в своем классе.

Это видео — первая часть из 3х видео, посвященных общим концепциям, установке, управлению Active Directory Domain Services, а также общим концепциям безопасности групповым политикам, делегации полномочий с использованием Active Directory.

Смотрите обзор возможностей и пошаговую инструкцию по работе с AD DS, в которой:

  • Базовые концепции управления учетными записями, аутентификацией и правами доступа

  • Установка роли AD DS на первый контроллер домена

  • Базовые концепции Active Directory Domain Services

  • Управление и настройка Active Directory Domain Services

  • Добавление серверов и рабочих станций в домен AD

  • Управление учетными записями и группами безопасности

  • Контейнеры/Organizational Unit в AD DS

  • Кратко о групповых политиках

Да, я знаю, получилось длинно, но если вы действительно стремитесь получить те знания, которые необходимы Системному Администратору — думаю, просмотрите это видео внимательно и повторите у своей лаборатории.

В этой части — продолжаем тему изучения конкретных технологий и служб, которые необходимо внедрять в ИТ-инфраструктуру мало-мальской организации (от 15-20 ПК и выше). После развертывания домена Active Directory Domain Services и настройки единой аутентификации пользователей (в предыдущем видео) — разбираемся с тем, что называется AD Group Policy и как с помощью политик настраивать рабочие места в домене и с тем, что такое делегирование полномочий на работу с ADDS — создание пользователей, групп, добавление пользователей в группы и т.п.

Смотрите про управление AD DS и делегацию полномочий, а также про использование групповых политик в которой:

  • Базовые концепции управления доступом к базе Acrive Directory

  • Делегирование полномочий на контейнеры/объекты в AD

  • Создание админов для поддержки пользователей AD DS

  • Базовые концепции групповых политик в AD DS

  • Создание и применение групповых политик

  • Управление объектами групповых политик

  • Фильтрация и избирательное применение групповых политик

  • Анализ действия групповых политик

Смотрите про основные концепции управления инфраструктурой доменов, деревьев, лесов Active Directory Domain Services, базовые понятия и операции:

  • Базовые концепции физической и логической структуры AD DS

  • Добавление компьютеров в домен

  • Немного об управлении облегченным вариантом установки Windows Server Core Installation

  • Добавление дополнительных контроллеров домена в AD DS

  • Создание сайтов AD DS в домене/лесу

  • Понятие репликаций AD DS и управление ими

  • Добавление нового домена в лес AD DS

  • Резервное копирование контроллеров домена AD DS

Продолжение данных учебных материалов — следует. Смотрите подробнее про возможности установки и управления вариантами установки Windows Server 2016 — Core Installation и Nano Server, а также — далее — управление сетевыми службами в Windows Server 2016.

ИТ-карьера (III часть в 3х сериях): практические шаги по установке, управлению Active Directory Domain Services

ИТ-карьера (II часть в 3х сериях): как стать Системным Администратором — практические шаги по подготовке тестовой лаборатории

Это видео — первая часть практических рекомендаций для тех, кто решил таки стать Системным Администратором, не смотря на то, что я отговаривал всех от такого неразумного шага в предыдущих видео про ИТ-карьеру и обязанности системного администратора.

Если вы уже практикующий системный администратор — то можете смело промотать это видео — оно больше направлено на тех молодых и не очень людей, кто от продвинутого юзера или эникейщика решил перейти на следующему уровню — стать таки системным администратором.

В этом видео — практические рекомендации и выработанные годами практики по организации рабочего места для самообучения и различных тестовых лаб.

Как ни странно, но все же Windows 10 является «правильным» рабочим местом системного администратора, с которого он может удаленно управлять и серверами, и использовать встроенную в Windows 10 службу виртуализации Hyper-V для развертывания тестовых виртуальных машин и экспериментов на них. А если мы говорим о домашнем компьютере, который используется и для игр, и для обучения — то тут, однозначно, и альтернативы нет.

Еще раз обращу внимание на минимальные требования к такому рабочему месту, чтобы на нем имелась возможность нормально работать с виртуальными машинами под Windows 10 Hyper-V, следующие:

  • Intel CPU x64 + аппаратная поддержка виртуализации (Intel VT, DEP, SLAT/EPT и т.п.)

  • ОЗУ: не менее 8 ГБ

  • Диск: самая главная часть — очень и очень нужен достаточно объемный SSD (от 256 ГБ и более, желательно — отдельный) или аппаратный RAID с быстрыми HDD

А далее, в видео — пошаговая инструкция, как подготовить рабочее место для дальнейших лабораторных работ/тренировок с различными ОС и сервисами, без знания которых нельзя назвать себя «Системным Администратором», которые будут показаны в этом видео и результаты которых будут использованы в следующих видео:

  • Установка роли/службы Hyper-V в Windows 10

  • Настройка службы Hyper-V, понятие виртуального сетевого коммутатора

  • Как скачать бесплатно Windows Server 2016 и Windows 10 Enterprise

  • Как установить Windows Server 2016/Win10 в виртуальные машины

  • Как создать клонируемый образ (шаблон) установленной и настроенной виртуальной машины с Windows Server/Windows 10 для быстрого развертывания нескольких ВМ

  • Как развертывать виртуальные машины из шаблонов

  • а также — подготовить флешку для установки отдельного сервера Windows Server 2016 на отдельное железо для следующей части...

В этом видео — практические рекомендации и выработанные годами практики по организации небольшой тестовой инфраструктуры с использование «основного» рабочего места и «условного» сервера виртуализации для самообучения и различных тестовых лаб.

В отличие от предыдущего видео, где речь шла о рабочем месте на базе Windows 10, на котором вы можете одновременно и работать, и играть, и изучать новые продукты в виртуальных машинах — это видео посвящено более правильному подходу к созданию тестовой лаборатории — с использованием отдельного физического хоста под управлением Windows Server 2016 и виртуальных машин на нем. Плюс — такой сценарий — отдельное рабочее место и отдельный сервер — будет приучать вас к правильному подходу к административной безопасности — к тому, что нельзя работать в консоли сервера, используя ее, как основное рабочее место.

А далее, в видео — пошаговая инструкция, как подготовить инфраструктуру из сервера виртуальных машин и отдельные нюансы, связанные с настройкой административного доступа, если машины не находятся в общем домене:

  • установка Windows Server 2016

  • установка и настройка роли виртуализации Hyper-V

  • обзор и выбор различных сценариев удаленного управления сервером

  • выбор разных типов дисков/дисковых массивов для работы виртуальных машин

  • развертывание виртуальных машин из шаблонов, которые мы приготовили в прошлом видео

Если вы уже практикующий системный администратор — то можете смело промотать это видео — оно больше направлено на тех молодых и не очень людей, кто от продвинутого юзера или эникейщика решил перейти на следующему уровню — стать таки системным администратором.

ХОТЯ! Если вы уже практикующий администратор и еще не перешли на белую и пушистую сторону облаков — это видео также для вас — вы сможете познакомиться с возможностями инфраструктуры Azure IaaS.

В отличие от предыдущих видео, где речь шла о рабочем месте с использованием имеющихся достаточно мощных физических компьютеров, в этом видео мы используем облачные ресурсы Microsoft Azure — https://azure.microsoft.com/ — где мы берем в аренду требуемые ресурсы. Первый, тестовый, месяц вы можете использовать бесплатно 200 долларов и создавать/запускать на них виртуальные машины, чтобы потестировать или поучиться какой либо возможности различных ОС.

А далее, в видео — пошаговая инструкция, как использовать инфраструктуру Microsoft Azure IaaS для создания своих виртуальных машин и изучения тех или иных функций Windows Server 2016 в облачной виртуальной машине:

  • Как получить временную подписку на Azure

  • Базовые концепции Azure IaaS

  • Обзор доступных решений в Магазине Azure и цен на Azure IaaS

  • Создание виртуальных машин в Azure IaaS

  • Удаленное подключение к облачной виртуальной машине и работа с ней

  • Мониторинг состояния виртуальных машин и состояния счета подписки

И этой серией мы заканчиваем вступительную часть практического руководства о том, как стать Системным Администратором — о подготовке тестовой лаборатории.

В следующих частях — смотрите более подробно про различные роли и функции Windows Server 2016, которые обязательно должны быть знакомы Системному Администратору и, конечно же, рекомендации, как их изучать более подробно.

ИТ-карьера (II часть в 3х сериях): как стать Системным Администратором — практические шаги по подготовке тестовой лаборатории

Про ИТ-карьеру — длинная инструкция на тему, как стать успешным ИТ-специалистом (часть первая в 6ти сериях)

Не прошло и 2х лет, как я закончил первую — теоретическую — часть цикла видео про ИТ-карьеру из пяти частей. Специально для тех, кто планирует посвятить свою жизнь такой неблагодарной специальности, как ИТ-специалист (или IT Professional — ITPro — как говорят у «буржуев», и не стоит путать с разработчиками).

В первой серии про развитие ИТ-карьеры — смотрите о 3х основных составляющих успешной карьеры как для ИТ-специалиста (системного администратора), так и, во многом, разработчика:

  • Подтвержденные знания о продуктах и технологиях — с обязательной сдачей экзаменов по выбранным продуктам и получением сертификации. Для тех, кто планирует работать с продуктами Microsoft, как системный администратор, и получить сертификации по технологиям Microsoft — рекомендуется к изучению следующая ссылка — https://www.microsoft.com/learning/en-us/default.aspx . Одна из возможностей самостоятельного знакомства и обучения продуктам Microsoft — это видеокурсы на портале http://www.microsoftvirtualacademy.com/ . Кроме того, есть сайт-хаб http://mvaclub.ru , который обеспечивает вам быстрый поиск нужных бесплатных учебных онлайн-курсов на том же http://www.microsoftvirtualacademy.com/ . И, конечно же, заглядывайте в плейлист на моем канале, который посвящен техническим видео по Windows Server. Собственно, именно про эту часть карьеры — получение знаний — и идет разговор в данном видео.

  • Потдвержденный практический опыт работы с продуктами и задачами — это еще одна очень важная составляющая успешной ИТ-карьеры. Можно «обвешаться» сертификатами и не уметь применять полученные знания на практике, решая реальные технические и бизнес-задачи с использованием ИТ, выполняя реальные проекты для заказчиков разных размеров. Про то, как приобретать практический опыт, особенно — без наличия требуемого дорогого и мощного оборудования — мы поговорим в одном из следующих видео, посвященных развитию ИТ-карьеры.

  • Умение говорить с людьми, и, особенно, с бизнесом — поскольку ИТ, особенно то, где работают системные администраторы — является не самостоятельной организацией, а сервисным подразделением предприятия. И задача любого ИТ-специалиста — обеспечить эффективное решение бизнес-задач предприятия с применением тех или иных технологий. И умение трансформировать технологические фичи продуктов в работу бизнеса — одно из основных требований успешной карьеры ИТ-специалиста, особенно того, кто хочет зарабатывать «ну очень много», а такое возможно только на позициях руководителей ИТ-департаментов или как ИТ-консультанта, решающего, например, задачи развития ИТ-инфраструктуры крупного предприятия. Чтобы понимать всю прорву задач в этом направлении — я рекомендую посмотреть этот плейлист — Модель Оптимизации ИТ-инфраструктуры.

Во втором видео-презентации — «с чего начать ИТ карьеру» — я постарался еще больше разложить «по полочкам» эти направления, в которых стоит развиваться ИТ-специалисту для успешной карьеры, и то, как приобрести этот самый опыт и знания и как говорить с людьми и, особенно, бизнесом.

Собственно, я постарался выделить все те личностные качества, навыки и действия, которые являются наиболее критичными для достижения успеха в ИТ карьере для системного администратора (и не только), и с развития и совершенствования которых у «себя любимого» стоит начать развитие своей карьеры.

Итак, основополагающими личностными качествами и умениями успешного ИТ специалиста являются:

  • Ежедневная работа — над собой, с технологиями, постоянная учеба, «надо себя заставлять», если хотите оставаться востребованным в ИТ

  • Умение быть заметным в сообществе и компании

  • Умение общаться, особенно с бизнесом

  • Концентрация на бизнес-сценариях применения ИТ служб в организации

  • Знание иностранных языков (в первую очередь — английского), особенно полезно для расширения своей «заметности» на глобальном ИТ рынке

  • Международная сертификация по требуемым в работе технологиям

  • Навыки собеседований и переговоров

  • Умение постановки перед собой целей, которые необходимо достигнуть, «создание кумира»

  • Применение профессиональных знаний и навыков не только на работе, но и в повседневной жизни

Третье видео — наконец-то, о конкретных делах и должности — первом шаге в ИТ карьере для ИТ специалистов — кто такой IT Generalist, он же «эникейшик», он же (частично) «специалист службы поддержки», он же «куда пошлют». При всем, казалось бы, несколько унизительном определении данной позиции — эта ИТ позиция важна и как для дальнейшей карьеры начинающего ИТшника, так и для компаний.

Почему IT Generalist является важной ступенькой в карьере? Потому что без практического опыта, «приложения рук» к практическим вещам, понимания потребностей и запросов пользователей и бизнеса — «нельзя вот так просто взять и стать системным администратором». Сначала надо 2-3 года минимум поработать на подхвате, изучая на практике все глюки и багофичи, с которыми потом придется встретиться уже будучи системным администратором, у которого зона ответственности куда шире — и не только в технологиях, но и в работоспособности самого бизнеса.

Какими навыками должен обладать IT Generalist, что является его основными задачами и зонами ответственности, какие основные инструменты работы у эникейщика — все это в данном видео.

Четвертое видео посвящено системным администраторам — непризнанным гениям и бойцам невидимого фронта — управления ИТ-инфраструктурой организаций.

Смотрите в видео — кто такой системный администратор, чем он занимается, какие задачи стоят перед системным администратором, что он должен уметь и знать, с какими проблемами сталкивается системный администратор в ходе своей работы.

И, главное, сколько зарабатывает системный администратор и что надо знать и уметь для того, чтобы, будучи системным администратором, зарабатывать по максимуму. И какие есть возможности развития карьеры у системного администратора.

Можно долго спорить о том, что должен или не должен делать системный администратор, в конце концов — должностные обязанности позиции с громким названием «системный администратор» определяет работодатель (а в странах с колониальной экономикой они могут быть и типа «раб-системный администратор обязан менять резину на Порше шефа») — в данном случае в этом видео о работе системного администратора автор высказывает свое личное мнение, сформировавшееся за 22 года работа в индустрии ИТ, в основном — системным администратором или консультантом, и, большую часть этого времени — на крупные западные фирмы Winking smile Да-да такая вот длинная история, и это только подтвержденные 22 года работы в ИТ, о которых официально «говорит» моя «трудовая книжка», а вообще, моя «дружба» с компьютерами началась в далеком 1986 году с Atari — но это уже совсем другая история и про ее начало и Atari — здесь.

И два небольших видеобонуса к этой серии про ИТ карьеру.

В первом бонусном видео — подробно рассказывается о том, как сделать читабельное резюме для ИТ-специалиста и какие типичные ошибки допускают в резюме ИТшники (особенно, начинающие).

Итак, основные ошибки в резюме ИТшника, которые стоит избегать:

  • резюме должно быть правильной структуры (структурированный шаблон резюме есть в шаблонах Microsoft Word)

  • резюме — это ваша визитная карточка, она должна быть лаконичной, с четко выраженными мыслями, доступными контактами и не более 2-3х страниц текста

  • Указывайте только необходимую личную и контактную информацию — в адресе достаточно только города и страны, email и телефона. Скайп — по желанию. И посмотрите внимательно, чтобы ваш email выглядел прилично — без всяких «васьОк» и т.п.

  • Используйте буллеты для выделения всей важной информации — будь то ваш опыт работы в начале резюме, или должностные обязанности и достижения на разных позициях

  • в опыте постарайтесь конкретизировать и лаконично представить все свои знания и умения, выделив при этом те, которые больше всего подходят для новой позиции. Опыт работы — это компиляция и лаконизация всех ваших должностных обязанностей и достижений, указанных ниже. И не забудьте в начале указать общий опыт работы в ИТ-индустрии в ГОДАХ (а не с такого-то года!!!)

  • в знаниях технологий — не надо перечня аббревиатур-названий продуктов и технологий — требуются четкие обозначения сервисов (с полным названием продукта) и указанием опыта работы с продуктом — это внедрение, администрирование, поддержка и т.п. Про сервисы — очень рекомендую посмотреть видео о Модели Оптимизации ИТ-инфраструктуры

  • также избегайте перечисления устаревших версий, которые вы в реальности уже в глаза не видели (например, лично я сейчас вижу Windows Server 2003 только в процессе миграции, потому какие-то нюансы администрирования и его функций могу и не помнить) — при указании таких продуктов следует четко писать, что вы сейчас реально делаете на старых платформах

  • и еще — избегайте заявлений типа «‘эксперт по Windows», «знаю DHCP, DNS». Вы уверены, что вы «эксперт»? — экспертом по Windows я могу назвать только одного человека — Марка Руссиновича. Вы хотя бы можете рассказать на базовом уровне про внутреннюю архитектуру Windows? А про процедуры автоматического развертывания? А про работу систем безопасности? Аналогично — упоминание DHCP — что DHCP? Вы знаете протокол? Или сервер DHCP? На какой платформе, в каких инфраструктурах? Можете спанировать DHCP для организации с 10000 ПК в 20 локациях?

Второе бонусное видео — мой коллега из офиса Microsoft Украина Сергей Поплавский https://www.facebook.com/sergey.poplavskiy.35 воспользовался случаем (когда я хотел записать просто обзор Starter Pack for Windows 10 IoT Core on Raspberry Pi 2), чтобы рассказать о тех перспективах в заработке и карьере, которые открывает перед специалистами, которые хотят что-то делать своими руками, направление Internet of Things (IoT).

И о своей лаборатории Microsoft Ukraine IoTLab — www.iotlab.in.ua — которая поддерживает начинающие стартапы, предоставляя место, оборудование, тренинги (не только технические, но и бизнесовые) для тех, кто растит и лилеет свой проект в направлении IoT на технологиях Microsoft.

Так что если у вас есть идеи о том, какое интересное устройство можно реализовать, вам не нравится «работать на дядю» и «получать зарплату» и вы хотите реализовать себя, как успешного разработчика уникального решения — вам как раз в Microsoft Ukraine IoTLab.

Кстати, Сергей в видео подробно рассказывает, в каких направлениях www.IoTLab.in.ua сейчас отбирает проекты на следующую интерацию (это сентябрь 2016 года) и какие критерии отбора.

Так что у вас есть еще немного времени для того, чтобы сделать свой первый шаг в ИТ-карьере успешного разработчика программно-аппаратных решений и заработать свой первый миллион. Придумываем идею, покупаем Starter Pack for Windows 10 IoT Core on Raspberry Pi 2, различные датчики и элементы на китайских сайтах, паяльник и измерительные приборы, качаем весь нужный софт отсюда https://developer.microsoft.com/en-us/windows/iot , внимательно изучаем примеры и демо там же — и с паяльником и клавиатурой в руках — к мировой известности благодаря своему новому суперинтересному гаджету или системе контроля/упраления чем-то Winking smile

А я может найду время между своими проектами, поездками и хобби — и все же мы решим с Сергеем длительный спор насчет того, «может ли Админ стать разработчиком» (про то, может ли разработчик быть админом — мы уже узнали — нет, не может, разработчик всегда пытается изобрести велосипед и пишет какие-то «костыли», которые еще и криво работают — вместо того, чтобы почитать документацию на то, что сделано уже до него). Так что, глядишь, я еще и сам напишу что-то для управления своей ЖД с использованием Raspberry Pi и IoT.

Про ИТ-карьеру — длинная инструкция на тему, как стать успешным ИТ-специалистом (часть первая в 6ти сериях)

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT