`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Как изменилось финансирование ИТ-направления в вашей организации?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Игорь Шаститко

Как было сделано демо Windows Server 2008 на запуске в Киеве, ч.2

+24
голоса

Для организации общего дискового хранилища будущего кластера был выбран самый доступный, и, при этом, достаточно эффективный вариант реализации iSCSI – программый iSCSI Target, реализованный как сервис в Microsoft Windows Storage Server. Особенностью реализации является то, что он позволяет предоставлять доступ по iSCSI к дискам, которые представляются не локальными физическими дисковыми накопителями, а позволяет предоставить клиентам в виде диска файл формата .VHD, расположенный на любом разделе файловой системы и имеющий необходимый размер. Оснастка iSCSI Target позволяет создавать требуемые .VHD диски, определять режим создания «снимков» для их резервного копирования, и, собственно, описывать точки (target) подключения сетевых клиентов iSCSI – безопасность, аутенификация, режим работы – с наборами подключенных к этим точкам дисков .VHD. Если к точке подключено несколько дисков, каждый диск получает свой LUN ID, а если несколько точек – фактически для клиента это разные дисковые контроллеры. В качестве хранилища, как вы поняли, было использовано еще одно лезвие.
Создаем  при помощи оснастки iSCSI Target необходимую точку подключения и конфигурируем ее. Следует обратить внимание на перечень клиентов, которым будет разрешено подключаться к iSCSI – указываем либо IP-адреса их интерфейсов, либо IQN (уникальное имя внутри iSCSI сети), либо FQDN. Создаем два .VHD диска, один размером 2ГБ для будущего диска кворума кластера, и 30ГБ для хранения данных будущей виртуальной машины.
Таким образом, все необходимые компоненты кластера – узлы и общее хранилище – готовы.

Правильно настроенные сетевые интерфейсы – один из аспектов надежной и производительной работы кластера. Если это возможно – изолируйте интерфейсы, на которых будут работать публичная сеть, внутренняя сеть и сеть хранилища (в варианте iSCSI) разными физическими сетями или VLAN. В нашем случае, с лезвиями, которые имеют 2 сетевых интерфейса, мы изолировали интерфейсы для публичной сети (по ней узлы будут  общаться с контроллером домена и предоставлять кластеризуемые сервисы, для примера – сеть 192.168.100.0/24 ) и объединили сеть хранилища, по которой будет работать iSCSI и внутреннюю, приватную сеть кластера, по которой идет взаимодействие узлов, сеть 10.0.0.0/24. Также, в приватную сеть кластера был подключен один из сетевых интерфейсов лезвия с iSCSI Target.
На будущих узлах кластера конфигурируем сетевые интерфейсы, добавляем их в домен.

Подключаем диски общего хранилища через iSCSI. Для этого используем штатную утилиту Windows – клиент iSCSI Initiator. Запускаем ее на первом узле будущего кластера. При первом старте запрашиваются параметры автоматического старта службы Microsoft iSCSI – подтверждаем, и конфигурирования службы Windows Firewall для работы с iSCSI – также подтверждаем. В окне iSCSI Initiator Properties указываем в закладке Discovery в разделе Target Portals IP-адрес сетевого интерфейса сервера хранилища, подключенного у приватной сети (10.0.0.0/24). В дополнительных свойствах (кнопка Advanced) при указании адреса также указываем, что исходящий адрес на клиенте также из сети 10.0.0.0/24. Там же, в дополнительных свойствах, можно указать параметры аутентификации соединения, использования IPsec, проверки целостности данных.
При успешном подключении переходим в закладку Targets, где отображаются все доступные для клиента точки подключения (не диски, которые они публикуют) и их статус на клиента – подключены/не подключены. Выбираем созданную нами точку подключения, содержащую диски для будущего кластера, нажимаем кнопку Log on. В открывшемся диалоговом окне указываем опции для восстановления соединения при перезагрузке и поддержку multi-path. В дополнительных свойствах (кнопка Advanced), аналогично с подключением самой точки, указываем, что локальным адаптером является Microsoft iSCSI Initiator, IP-адрес источника – адрес интерфейса узла из сети 10.0.0.0/24, адрес портала – IP-адрес сетевого сервера хранилища также из сети 10.0.0.0/24. Если подключение успешно, то в списке точек подключения закладки Targets статус нужного нам подключения будет Connected. Если что-то не так – читаем документацию, полная инструкция по работе с клиентом iSCSI здесь - http://go.microsoft.com/fwlink/?LinkId=40963.
Повторяем операции по подключению клиента iSCSI через Microsoft iSCSI Initiator и на втором узле кластера. Таким образом, общее хранилище подключено.

На первом узле кластера при помощи Disk Management  переводим появившиеся диски iSCSI (отображаются как обыкновенные локальные диски) из состояния offline в online, инициализируем, создаем на каждом по одному разделу и форматируем их под NTFS с установками по умолчанию. Для удобства работы с дисками меньшему диску (2ГБ, для кворума кластера) назначаем метку Quorum и букву Q:, большему (30ГБ, для данных виртуальной  машины) – Storage и S:.
На втором узле кластера достаточно только вывести диски в режим online и назначить аналогичные первому кластеру буквы.

Установка и конфигурирование кластера.
На каждом из будущих узлов при помощи Server Manager добавляем функционал Failover Clustering из раздела Features. Также, перед конфигурацией кластера, на обоих узлах рекомендуется установить роль Hyper-V, предварительно обновив ее до версии RC0. На каждом узле сконфигурируйте виртуальный сетевой адаптер Hyper-V как внешний и «привяжите» его к сетевому интерфейсу публичной сети (192.168.100.0/24) обоих узлов. Важно, чтобы этот виртуальный адаптер имел одно и то же имя на каждом узле.

На первом узле кластера запускаем из Start|Administration Tools оснастку Failover Cluster Management, выбираем команду создания нового кластера, указываем мастеру создания кластера имена обеих подготовленных узлов.  Выбираем опцию выполнения тестов работоспособности будущего кластера, дожидаемся выполнения всех тестов, которые могут занять до 30-45минут времени. При успешном окончании тестов указываем имя кластера и его IP-адрес (из публичной сети 192.168.100.0/24, отличный от адресов самих узлов). Кластер готов к работе.

Создание виртуальной машины, которая будет отказоустойчивой благодаря Quick Migration и регистрация ее как приложения кластера.
На первом узле кластера из оснастки роли Hyper-V консоли Server Manager создаем новую виртуальную машину. Основные требования к виртуальной машине – это размещение файла ее конфигурации и виртуального диска на общем диске кластера S:, использование виртуального сетевого адаптера с общим именем. Если по какой-то причине диск находится под управлением второго узла – выполните создание виртуальной машины на втором узле.
Установите Windows Server 2008 в виртуальную машину, установите также на него обновления Hyper-V до RC0. По окончании установки и конфигурации остановите виртуальную машину.
На том узле, котором создавалась виртуальная машина, запустите оснастку Failover Cluster Management, подключитесь к «свежесозданному» кластеру, и выберите раздел Services or Applications, а в его опциях – Configure a Service or Application.

В мастере конфигурирования сервисов и приложений кластера из списка выберите Virtual Machine, на следующем шаге мастера – из списка непосредственно виртуальных машин выберите созданную вами на общем диске виртуальную машину. Мастер добавит ее как приложение в раздел Services or Applications.
Из перечня опций виртуальной машины на кластере выберите Bring this service or application online – вирутуальная машина запустится уже как ресурс кластера.
Для тестирования попробуйте выполнить команду ping или получить какой-то доступ к ее службам.
Для выполнения операции Quick Migration по переносу виртуальной машины на другой узел кластера выберите из опций Move this service or application to another node. В этот момент вы можете увидеть, как идет сохранение состояния машины на общий диск, передача управления диска другому узлу, восстановление состояния на новом узле.

Как было сделано демо Windows Server 2008 на запуске в Киеве, ч.1

Эта запись опубликована в блоге http://blogs.technet.com/iwalker/

Ссылки по теме:
Microsoft iSCSI

Виртуализация и Hyper-V
Кластера Windows Server 2008

+24
голоса

Напечатать Отправить другу

Читайте также

Жах, а не блог-повідомлення. Будь-ласка, ставте першим рядком фразу "на правах реклами корпорації Microsoft". А другим рядком пишіть: "курс молодого бійця-адміністратора Windows Server".

Якщо так вже хочеться прорекламувати нові продукти Microsoft, то написали би коротесеньке повідомлення, наприклад, про те, що в віртуальних машинах новий Windows Server 2008 працює значно швидше за стару Windows Vista. І особиста думка, і цікаво, і не бездумне нахвалювання Microsoft (шляхом інструкції по налаштуванню гіпотетичної, нікому непортібної конфігурації, інструменти для побудови якої використають приблизно 10 людей в країні в кращому випадку на протізі років 3, що би Ви чи інші апологети MS не написали)... ;-)

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT