`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Как изменилось финансирование ИТ-направления в вашей организации?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Дмитрий Чашник, StarLightMedia: «Для нас компетенции являются самой ценной добавленной стоимостью»

+66
голосов

Сегодня мы предлагаем вашему вниманию интервью с Дмитрием Чашником, ИТ-директором медиа-группы StarLightMedia. В начале нашей беседы выяснилось, что Дмитрий до этого три года занимал пост CIO телеканала СТБ, который входит в группу. Отбор на должность ИТ-директора СТБ был сложным. Как отметил Дмитрий, в начале было 40 кандидатов, и семь этапов отбора, которые длились около полугода. Впоследствии Дмитрий стал ИТ-директором всей группы.

Дмитрий Чашник, StarLightMedia «Для нас компетенции являются самой ценной добавленной стоимостью»

А чем, интересно, был обусловлен такой сверхсложный процесс отбора?

В медиа-группе присутствует перфекционизм во всем. В первую очередь это проявляется в отборе персонала – начиная от художников-декораторов и заканчивая айтишниками, которые обеспечивают решение многих базисных задач. До прихода на нынешнюю должность я 13 лет работал на телевидении в ИТ, в т.ч. на канале СТБ, где за время моей работы было развернуто достаточно много проектов. Например, мы выполнили миграцию в общегрупповой Exchange. Это (телеканал СТБ – прим. ред.) был самый крупный актив группы и самый сложный этап миграции между лесами. Здесь же мы доработали Service Desk, который стал централизованным для всей медиа-группы, т.е. все заявки по ИТ от всех подразделений группы проходили через центральную диспетчерскую. Был еще ряд проектов.

Мы перестроили оптическую инфраструктуру телеканала.

Реорганизовали работу ИТ-отдела СТБ, внедрили ряд процессов управления, расширили набор инструментов автоматизации деятельности ИТ-специалистов. Также был построен полноценный business continuity plan (BCP) с процедурами disaster recovery (DRP) и внедрили полноценный мониторинг всех систем и сервисов.

Процесс ITIL Problem management позволил консолидировать централизованный мониторинг сервисов, регистрацию отказов, регистрацию проблем и т.д., и business continuity plan с процедурами восстановления. Это все трансформировалось в систему мотивации для ИТ-специалистов, которую мы (ИТ СТБ – прим. ред.) реализовали первыми в холдинге.

А сколько насчитывается сейчас ИТ-специалистов?

Тут стоит рассказать немного о структуре нашей компании. StarLightMedia – это крупнейшая медиа-группа в стране по всем показателям, в том числе и по количеству сотрудников, и по объемам собственного производства. Скажем, производство СТБ является самым крупным в Украине и одним из крупнейших в Восточной Европе. И это большой вызов для ИТ, нужно отметить.

Группа состоит из шести телеканалов – СТБ «Новый канал», ICTV, М1, М2 и QTV. Плюс еще десять компаний, которые обеспечивают, к примеру, съемки сериалов, реализацию рекламных возможностей группы, аренду съемочного оборудования, построение декораций и пр. Причем эти компании оказывают услуги не только для наших шоу, но и работают на внешних заказчиков. Например, StarLight Scenery строит студии для многих украинских телеканалов и даже для зарубежных. Есть еще StarLight Digital, которая отвечает за все интернет-активности группы, в том числе была главным техническим подрядчиком в SMS-голосовании на отборочных турах Евровидения. Плюс к этому есть ряд сейлсхаузов – по интернет-рекламе, по прямой рекламе на телевидении, по спонсорским размещениям и т.п. В целом в структуре более 15 компаний, свыше 2 тыс. рабочих мест и больше 3 тыс. пользователей.

И сколько ИТ-сотрудников суммарно приходится на всю группу?

Дело в том, что у нас есть разные ИТ-подразделения. В рамках глобального проекта в прошлом году мы объединили пять разрозненных ИТ-подразделений бэк-офиса в одну вертикально-интегрированную структуру. В ней порядка 40 человек, и она обеспечивает все back-office-ИТ-сервисы плюс поддержку пользователей и регистрацию обращений. Теперь это ИТ-департамент StarLightMedia.

Дополнительно в мою зону управления входит ИТ-производство СТБ, это еще 10 человек, и департамент собственной разработки StarLight Digital. Нужно еще упомянуть и о службе эксплуатации площадок – энергетика, кондиционирование, специализированные помещения. Дело в том, что телевидение очень требовательно к энергетике и климат-контролю. Всего суммарно в моем подчинении более 70 специалистов. Это системные администраторы, поддержка пользователей, менеджеры проектов, разработчики, диспетчеры, специалисты документооборота и др. Еще в группе есть примерно 15 системных администраторов ИТ-производства и около 20 разработчиков 1С.

Тут важно отметить, что несмотря на тяжелые в экономическом плане 2014-2015 гг., мы путем реорганизации сумели сохранить основной состав, накопленные знания и опыт.

Насколько можно понять, в силу специфики телевидения ИТ-директор выполняет функции CIO и CTO одновременно.

Дело в том, что телевидение последние лет семь очень активно движется в ИТ, а точнее говоря, практически, уже полностью там. Если раньше в системах вещания в основном были какие-то «проприетарные ящики», которые поддерживались только специалистами производителя, то современные системы вещания – это по сути чистые ИТ-системы, может быть, лишь с какой-нибудь специализированной платой.

Интересно какова роль в этих процессах open source ПО?

Такая же, как и в других индустриях, думаю. У руководства группы большая ставка на ИТ, как на локомотив изменений, инноваций, на способ уменьшения затрат. Одно из направлений в этом движении – использование open source для различных систем, там, где это позволительно с точки зрения надежности, и там, где существует широкое сообщество, чтобы быть уверенными, что мы всегда можем найти специалиста. Мы достаточно активно используем open source

Например, в телефонии – у нас некий гибрид Asterisk с FreeSwitch и openSIPs. Мониторинг реализован на Zabbix и Nagios. Недавно мы консолидировали семь разных систем в один централизованный стек Zabbix, который позволяет мониторить более 600 разнообразных систем и датчиков. На рабочих местах тоже есть open source.

Также в интернет-контуре у нас есть еще целая подсистема отдачи видео, которая построена тоже на открытом коде, это программно-определяемая СХД с блочным кэшированием. Когда мы только подошли к этому проекту, а это был август 2014 г., суммарная мощность платформы по отдаче видео была 3 ГБит/с. А уже в ноябре мы обеспечивали скорость исходящего трафика 22 ГБит/с. Этой весной несколько недель подряд мы фиксировали трафик на уровне 45 ГБит/с, осенью по нашим оценкам будет – 80-90 ГБит/с, так как планируем в ближайшие несколько месяцев увеличить bit rate (качество – прим. редактора) видео почти в два раза и наблюдаем рост просмотров контента через Интернет. Это повысит требования к каналам связи и к количеству отдающих серверов.

А какая операционная система установлена на этих серверах?

Если я не ошибаюсь – Debian. Честно признаюсь, я не вникаю в подробности, относящиеся к ОС, стараюсь концентрироваться на вопросах общей архитектуры. Сотрудники сами проектируют систему, предлагают варианты, мы организуем внутренний технический комитет, в общем, эволюционная модель принятия решений.

Но, фактически, ИТ-директор сейчас один?

Да, мы упразднили должности ИТ-директоров активов. В целом сейчас единый Service Desk, который принимает все обращения.

А на чем сделан Service Desk?

На 1С, на этой платформе в группе сделано все касающееся бизнес-процессов, начиная от Service Desk и заканчивая системами планирования эфира СТБ и многое другое. А кроме того, ITIL Incident Management, ITIL Problem Management – тоже на 1С. Мы отказались от стандартизированных платформ типа 1С УТП и 1С УПП, у нас полностью своя конфигурация, есть несколько своих отделов разработки, которые доводят продукты до необходимой кондиции. Все это делается штатными средствами платформы 1С.

А сколько разработчиков заняты этой системой?

Около 20 человек. Правда, это все отдельные группы по 2-7 человек, каждая работает над какими-то своими системами. Например, на 1С у нас есть система регистрации людей на внешних локациях. Это внешние талант-шоу (например «Х-фактор», «Україна має талант» – прим. ред.), там работает огромное количество персонала телеканалов. Еще на 1С построена большая внутренняя система, которая диспетчеризирует ресурсы (распределяет для работы на разных съемочных проектах). Чтобы вы понимали у нас только режиссеров монтажа более 150 человек, около 5 тыс. различных объектов – камеры, штативы и пр. Имеется порядка 1 тыс. диспетчеризируемых человек, которые отвечают за внешние съемки, – осветители, операторы, водители и т. д. Все делает 1С.

И на чем это все обрабатывается? У вас свой ЦОД?

У нас несколько центров обработки данных.

А вообще площадок сколько?

Есть три базовые площадки – это каналы СТБ, «Новый» и ICTV. На ул.Шевцова самая крупная локация, здесь СТБ и QTV и еще семь компаний. Здесь мы занимаем несколько зданий. Есть площадка канала «Новый» на Тургеневской. Есть здание на Паньковской, там находится ICTV и еще два подразделения холдинга. Есть офисы М1 и М2 на Кошевого. У нас целый ряд собственных серверных в разных частях города.

ЦОДы объединены оптическим кольцом, плюс у нас есть каналы связи с другими съемочными локациями. Мы сами провайдер сервисов для всех компаний группы, т.е. IT SLM, мы предоставляем 45 ИТ-сервисов. У нас 20 ГБит/с включений в UA-IX, и еще 2 ГБит/с внешних каналов в мир, плюс 40 ГБит/с включение в Giganet IX (точка обмена трафиком – прим. ред.). В ближайшем будущем планируем расширить свое включение в Giganet до 80 ГБит/с.

А не планируете все это объединить на одной площадке?

Есть у нас такие планы и это не секрет для рынка. Мы давно смотрим на то, чтобы найти одну площадку и перевести все туда.

Вопрос относился к серверам.

Нет, мы не можем так работать. Более того, мы планируем в ближайшем будущем реализовать сценарий datacenter recovery между основными ЦОДами. Как минимум для бэк-офисных ИТ-сервисов. В случае отказа систем виртуализации на одной площадке, сервис должен запуститься на другой, чтобы исключить любые простои.

Мы вначале объединили персонал, потом объединили управление ИТ-ресурсами, сейчас консолидируем сервисы, инфраструктуру хранения данных и т.д. Кстати, в данный момент внимательно смотрим на программно-определяемые СХД.

А какую-то часть в облако не планируете переводить?

Это дорого. У нас хватает ресурсов для обеспечения всех собственных потребностей компаний группы.

То есть, по сути, ваше ИТ-подразделение…

Сервисная организация. Да, именно так.

Есть ли что-то в области ИТ, что вы отдаете на аутсорсинг?

Вообще, мы стараемся все, что можем, делать сами. Мы прибегаем к аутсорсингу для разработки неспециализированных для нас вещей, к примеру, приложений для iOS, Android. Или, скажем, отдаем на аутсорсинг разработку каких-то модулей 1С, когда не успеваем к назначенному сроку сделать это сами. Кстати, выбор 1С был обусловлен, в частности, доступностью разработчиков, интегрированностью с учетом, массой готовых решений и большим опытом внедрения разных модулей. ИТ никак не координирует работу 1С-разработчиков, а только предоставляет им ресурсы и среды для работы их систем.

То есть, это вообще как-бы отдельная подструктура?

Да, она так и называется – «департамент оптимизации бизнеса».

Давайте теперь немного поговорим об используемых аппаратных средствах. Какой здесь подход?

Здесь зоопарк (смеется).

Это исторически сложилось?

Да. У нас принцип достаточно простой. Проводим мульти-вендорные тендеры, с четким формированием ТЗ, с разбором в деталях, почему так, сколько стоит, почему мы за это платим столько и пр. Не всем это нравится, если вы спросите поставщиков на рынке, возможно, даже услышите негативные отзывы о тендерах StarLightMedia. Все это преследует одну простую цель – глубоко разбираться и не переплачивать. Поэтому зоопарк железа большой. Но из основных вендоров – IBM, Dell, SuperMicro, Cisco.

Особенно тщательно, с точки зрения экономики, относимся к покупкам СХД, т.к. у нас огромные объемы данных. Например, уже пару лет покупаем файловые хранилища одного из производителей, т.к. у них наименьшее TCO за терабайт сырых данных. Все СХД, которые нам нужно купить, делим на классы, и в каждом классе сравниваем стоимость хранения терабайта сырых данных с учетом ТСО. Также мы сравниваем регулярно ленту с дисковыми СХД. Такие упражнения делаются примерно каждый год. Все это чтобы принять решения: нужно мигрировать на LTO 7 или не нужно? Покупать ли сейчас LTO 6 и сколько? Имеет ли смысл в ближайшие три года перестать эксплуатировать СХД с дисками 2-3 ТБ? И другие вопросы…

Интересно узнать результат последнего сравнения.

Результат последнего сравнения, продуктивного, на основе которого уже делаются закупки – лента дешевле. Результат последнего теоретического сравнения – полпетабайтное хранилище от HGST – СХД получится соизмерима по стоимости. Мы сейчас доводим этот расчет до ума. Однако все зависит от потребностей и задач и здесь я говорю только про наш бизнес и конкретный контекст сравнения. Скажем, надежность хранения на ленте – однозначно выше, и у IBM есть гарантии на восстановление данных. К сожалению, на устройствах начального уровня хранить данные в одном экземпляре рискованно.

У нас есть старый парк СХД ЕМС, от которого мы хотим избавиться, потому что очень дорогая эксплуатация. В среднем уровне у нас устройства Hitachi, есть огромный парк хранилищ начального уровня, суммарно почти три петабайта данных, все подключено к продуктивной FC-инфраструктуре. К этой системе подключены видео-монтажные станции, и они работают с контентом на этих СХД. Мы одновременно производим от 30 до 35 телевизионных проектов.

А что интересно происходит с архивом передач, к примеру, за последние 20 лет?

До момента выхода в эфир мы храним резервную копию всего исходного материала на ленте. После выхода в эфир большая часть контента удаляется. Суммарно на ленте сейчас примерно 3,5 ПБ данных. Там же хранится архив ценного исходного материала за прошлые годы.

После каждого сезона где-то 20-30%% контента остается – это какие-то красивые съемки, феерические выступления и пр. Вот, например, «МастерШеф», выпуск длится два часа, это 26 ГБ в готовом для эфира видео-файле. Всего за сезон выходит 20 выпусков, суммарно это около 0,5 ТБ эфирных видео-файлов. При этом объем всех исходных материалов для монтажа «МастерШефа» – более 200 ТБ. Маленький пятисекундный сюжет в эфире – это на самом деле полчаса съемок разными камерами. Часть этих материалов мы оставляем, они хранятся у нас на ленточной библиотеке. Это у нас называется архивом.

А если кому-нибудь потребовалось поднять какой-то определенный эпизод?

Мы пока не внедрили систему управления архивами.

Даже не эпизод, а исходные материалы для эпизода.

С сырьем все понятно. Есть четкая структура каталогов на ленточной библиотеке, в которой после выхода эпизода в эфир хранится некоторая часть исходного материала, но далеко не все, только то, что для нас представляет ценность на будущее. У главного режиссера монтажа есть доступ к этому, он может запустить процедуру извлечения этого контента из ленточной библиотеки. У нас бывают такие ретроспективные передачи.

Архив за сколько лет доступен?

Каналу СТБ уже 20 лет, и какие-то старые выпуски, конечно, хранятся, но не все. Дело в том, что собственного производства СТБ, как такового, было очень много. С приходом Владимира Бородянского в 2004 г. у нас на СТБ начался бурный рост собственного производства, это привело к активному росту ИТ.

СТБ самый большой актив в группе. Сейчас мы, например, после объединения ИТ-подразделений клонируем на другие локации очень много практик управления, различные подходы, процессы, разработанные ранее в ИТ СТБ.

Как ИТ построено сейчас – это объединенный Service Desk, который принимает все обращения, три группы поддержки пользователей, так называемая группа ИТ поддержки кластера на каждой из локаций. Во главе группы человек, который является такими вот вратами для бизнеса этой локации в мир ИТ. Он знает что, как и где и является для них ключевой персоной с точки зрения решения нестандартных проблем, согласований, взаимодействия с бизнесом и т.п. Это первый уровень поддержки. Второй уровень – это две группы системных администраторов. Мы разделили их по трудовому признаку на «черных» (черная консоль) и «белых» (белая консоль). Первые отвечают за Unix-системы, сети, ЦОД, а вторые отвечают за Windows-системы, за все пользовательские сервисы и за инфраструктуру. Ну, и группа документооборота.

Документооборот тоже на 1С?

Документооборот на 1С начали внедрять, проработали пилот и остановились, потому что поняли, что это не принесет никакой экономии. Сейчас еще раз смотрим на это, но уже немного в другом ключе. Пока не буду говорить, но, думаю, это будет прорыв на рынке, мы, наверное, станем первыми, кто сделает такое крупное внедрение в этом контексте.

Какой у вас подход в отношении клиентских мест, есть ли какая-то стандартизация?

Здесь также изначально был зоопарк, но мы постепенно приводим все в порядок. У нас есть ряд стратегий в этом направлении. Первая, мы не используем терминальные рабочие места. Это решение является результатом негативного опыта.

А терминалы были?

Да, около 70 рабочих мест. Это были тонкие клиенты НР. Сотрудники были ими недовольны. И дело тут не в самих устройствах. Просто это не подходит в силу специфики нашего бизнеса. Дело в том, что у наших сотрудников очень часто меняется профиль деятельности, и если кого-то перевели на другую должность, и потребовалось пять открытых окон с видео, то все умирает. Соответственно, мы отказались от этого решения.

Вторая стратегия – всех переводим на ноутбуки. Правда, у нас есть стационарные компьютеры, на которых попеременно работают, скажем, три человека. Есть принципы, по которым мы заменяем технику вообще, и есть принципы, как мы бюджетируем количество техники, которую мы заменим в следующем году.

Вы сказали, что основной подход – это оптимальный выбор с точки зрения цены техники.

У нас есть ряд правил, если это ноутбуки, то это однозначно что-то легкое. Сейчас мы покупаем ноутбуки массой не более 1,5 кг. Для многих сотрудников очень важна мобильность. Это один из критериев отбора, плюс у нас очень жесткий отбор вендоров, которых мы считаем надежными – в ноутбуках это НР, Dell, иногда ASUS (в зависимости от некоторых моделей). К сожалению, мы отказались от Lenovo, который покупали какое-то время, поскольку не нашли оптимальную «середину» в их предложении. Когда нужно в год 300 новых ноутбуков, то модель Сarbon всем не купишь.

В отношении подходов… С одной стороны, понятен подход, когда выбирается оптимальная по цене техника. Но в силу того, что есть некоторая вариабельность не только в ценах, но и в производителях, возникает зоопарк и по этой причине?

Это не проблема.

Но, наверное, технику разных производителей тяжелее поддерживать?

Мы вообще не ощущаем такой проблемы. По нашим наблюдениям, инженеру поддержки пользователей все равно, на каком ноутбуке переустанавливать Windows.

А в отношении чего-то более сложного, такого как, допустим, СХД, серверы?

По СХД мы все равно вынуждены покупать сервисные контракты, особенно, если есть что-то проприетарное, неважно, какого производителя. Если это система начального уровня, а мы сейчас придерживаемся стратегии перевода всего на open source либо на то, что мы можем поддерживать сами, то мы не покупаем контракт. Мы хотим отказаться от ЕМС в пользу программно-определяемых СХД, а в будущем – и от Hitachi. Возможно, мы когда-нибудь откажемся и от лезвийных систем IBM, заменив их на Computing & Storage Blocks на стандартных LowEnd серверах. То есть, наша стратегия – это уход от проприетарных решений.

Как происходит выбор интегратора?

Во-первых, у нас есть определенный набор интеграторов, которые с нами уже давно сотрудничают и успешно реализуют для нас проекты. Во-вторых, по компетентности технического персонала интегратора, потому что нам нужен результат. В-третьих, по тому, насколько интегратор готов поддерживать нас помощью либо советом. Важным фактором также является то, насколько быстро интегратор реагирует, готовит для нас предложения, быстро вносит в них изменения.

И кто, если не секрет, в вашем пуле интеграторов?

Мы работаем с целым рядом интеграторов. Например, при планировании миграции на новые ядерные SAN-коммутаторы класса big enterprise, нам помогал один из них. На данный момент у нас порядка 300 оптических портов, а после миграции станет более 600. С некоторыми интеграторами мы сотрудничаем по обучению, иногда по вопросам консалтинга. Еще мы практикуем другой подход с разными интеграторами – берем их технического специалиста в аренду, скажем, на неделю.

Мы также продаем ИТ-сервисы, как то виртуализацию, Интернет, collocation, резервное копирование и другие.

А кому вы продаете?

Внешним клиентам. Они размещаются у нас в ЦОД, мы им поставляем Интернет и другие ИТ-сервисы.

Они сами к вам пришли?

По-разному. Например, в случае одного из финансовых учреждений мы выиграли тендер. Они искали место для размещения резервной площадки, и их устроила надежность, которую мы обеспечиваем. Они у нас разместили две стойки.

Мы планируем расширить количество внешних клиентов и продавать сервисы, если в группе не появятся новые задачи. Возможно, выйдем на внешний рынок, как интегратор уже проверенных решений с реальным опытом внедрений и поддержки большой ИТ-инфраструктуры.

Но это обусловлено тем, что вы пытаетесь оптимизировать расходы…

Мы увеличиваем нашу доходность. Сейчас внешние клиенты позволяют нам компенсировать какую-то небольшую долю расходов на ИТ, на персонал.

Вы ранее затронули тему обучения. Как вы к этому подходите в рамках ИТ-подразделения?

Старшие обучают младших. В любом подразделении есть juniors, недавно принятые сотрудники, и есть seniors, и знания передаются таким образом. Естественно, мы отправляем людей на какие-то профильные курсы, когда нужно быстро «накачать» сотрудника знаниями. С моей точки зрения, обучение нужно проходить, когда сотрудник уже успел с чем-то повозиться, хотя бы в модельной лаборатории, и попробовал что-то своими руками.

Давайте немного коснемся некоторых актуальных сегодня тенденций и технологий. В вашей работе присутствует такое явление, как большие данные?

Для нас большие данные – это данные от индустриального поставщика ИТК, который обеспечивает информацию по телепросмотрам. Ими пользуются все телеканалы, это аналитика для рынка. На второе полугодие у нас запланировано построение системы сбора детальной статистики и развернутой аналитики по видео-просмотрам на сайтах группы.

Сейчас большая часть видео СТБ и «Нового канала» в украинском сегменте смотрят с наших серверов, вне зависимости это сайт телеканала или какой-то агрегатор контента. Независимо от сайта, все равно это наши сервера, это наш плеер, это наша инициатива по борьбе с пиратством. Наш плеер позволяет нам собирать статистику. Система сбора статистики также будет построена на open source ПО. Скорее всего, это будет та же ZFS для хранения, NoSQL для БД, скорее всего Logstash для сбора и аналитики, ну, и еще что-то. Пока мы только рассматриваем различные технологии, но направление уже понятно.

То есть изначально ставка не делалась, скажем, на монетизацию через YouTube?

Мы монетизируем наш контент на YouTube. Некоторая часть дохода Digital поступает с YouTube. Он сильно вырос в связи с изменением курса доллара. Но стратегически мы видим именно развитие своей сети доставки контента.

А оправдан ли такой подход – развитие собственной сети доставки? Нужна будет поддержка, возникнут и другие затраты.

По нашим расчетам оправдан. У нас есть ряд далеко идущих планов в Digital. Мы считаем, что для нас компетенции являются самой ценной добавленной стоимостью.

А как сохраняются компетенции?

Людьми, их удержанием. Люди выстраивают процессы, привносят изменения в схемы работы, предлагают изменения в систему и т.д. Три года назад интернет-активности существовали во всех подразделениях группы разрозненно – у каждого канала был свой сайт, он как-то там поддерживался. Все это было убыточно. И все существовало лишь с единственной функцией – promo, PR и т.п. Сейчас мы вышли на самоокупаемость. Однако для этого нам понадобилось принять очень много волевых решений. Например, мы сказали редакциям: «Всё, у вас больше не будет собственного подрядчика для поддержки сайта, теперь это будет обеспечивать одна централизованная компания. Вы больше не будете определять то, как раскручивать контент в сети (имеется ввиду SEO-оптимизация, размещение в YouTube – прим. редактора), это будет делать компания StarLight Digital централизованно, для всех. Вы больше не будете иметь своих серверов и каких-то системных администраторов. Но при этом промо-отделы телеканалов все равно будут работать с интернетом, чтобы популяризировать телепроекты».

Вопросы ИТ-безопасности входят в вашу зону ответственности?

Нет, ИТ-безопасность в группе выделена в отдельную структуру, которая подчиняется напрямую генеральному директору. Часто модерированием их вопросов занимается технический директор группы. Мы разделили зоны ответственности. То есть они (информационная безопасность – прим. ред.) занимаются проработкой решений, анализом log-файлов, вторжений и т.п., присылают нам свои рекомендации. Мы с ними где-то соглашаемся, где-то нет, проходят, как правило, тяжелые дискуссии, находим какой-то консенсус, составляем план работы и внедряем.

Вы, наверное, знаете, что в октябре прошлого года мы подверглись довольно массированной атаке. Это был настоящий вызов для ИТ-подразделения. Мы потеряли два наших контроллера доменов в одну ночь, но до половины седьмого утра мы их восстановили. На следующий день атака продолжилась, и мы потеряли еще часть инфраструктуры, правда, не очень большую – порядка трех-четырех серверов и до 40 рабочих станций. Это был специально написанный под нашу медиа-группу вирус, причем под нас была отдельная модификация, а для «Медиа Группы Украина» – другая. Кстати, парни из информационной безопасности StarLightMedia провели весьма серьезную работу по разбору и анализу тела вируса для того чтобы наш антивирусный вендор смог за 1 час выпустить специальный апдейт для нас. Но это отдельный рассказ…

Как вирус к вам проник?

Нам прислали рассылкой эксплойт в Word-файле. Рассылка была на большое количество мейлов сотрудников компании, естественно, часть людей файл открыла. Ни один антивирус не детектировал этот эксплойт, написанный под нас. А вирус был очень хитрый, полиморфный, многокомпонентный – он сам собирал себя в ОЗУ из частей, которые закачивал из Интернета, сам удалял себя с диска. Сейчас наши специалисты по безопасности раскопали log-файлы. К сожалению, у нас полноценное подразделение по ИТ-безопасности сформировалось где-то летом. А тут осенью такое… Притом в этот же день подвергся атаке сайт ICTV, весь контент подменили на ролик одной из партий. Благо у нас нашлись резервные копии на старой СХД.

Обычно такие атаки делаются с целью шантажа, вымогательства и т.п. А здесь что, просто хотели навредить?

Я не знаю. Возможно, просто навредить или показать что-то. Атаке в один день подверглись мы, «Медиа Группа Украина» и «Интер Медиа Груп» – у них изъяли DNS-имена и сайты направляли на сайт этой партии. Вот, собственно, так. А в декабре была очередная модификация этого же вируса, которая тоже не ловилась, и атака была проведена на облэнерго на Западной Украине. Оказалось, что этим же вирусом пытались заразить аэропорт «Борисполь», но они успели этого избежать. И еще ряд компаний, в том числе Днепропетровскую обладминистрацию. Мы привлекли CERT, «Спецсвязь», ряд аналитиков в Европе, которые помогли нам в считанные дни выделить штамм вируса, чтобы найти хоть какой-нибудь метод противостояния.

А как, по-вашему, теоретически можно было уберечься от такой атаки?

Для этого нужен целый комплекс мер: UTM, защита корпоративной почты, безопасность сети, защита клиентских рабочих мест, песочницы, SIEM и т.п. Мы сейчас все это постепенно выстраиваем. Благо часть этого у нас была до начала инцидента, что и позволило найти следы атаки. Сейчас вопросы информационной безопасности в числе наших приоритетов.

В заключение нашей беседы давайте вернемся к вопросам выбора вашим подразделением аппаратных платформ, но с технической стороны. Как принимаются решения по конкретному выбору?

Мы приняли для себя следующий подход. Это не догма, даже не свод правил, это некие общие принципы. У нас есть понимание, для чего проводится каждый конкретный тендер, какая конкретно задача должна быть решена – скажем, это рендеринг дизайнерского видео, где нужна просто процессорная мощность, или это должна быть сверх отказоустойчивая система, или же какая-то задача, требующая максимальное количество ядер.

Всегда есть задача, под которую конкретные профильные специалисты подбирают решения – часто вместе с интегратором или сами. Формируется набор четких технических требований. Исходя из этого, проводится открытый тендер – мы приглашаем достаточно большое количество компаний. После этого, сравниваются предложения. Если между решениями, которые нам, в принципе, подходят по ТЗ, есть существенная разница в стоимости, то бизнес начинает разбираться в отличиях этих решений.

При этом у нас плюрализм мнений – есть мнение конкретного специалиста, есть мнение его руководителя, ИТ-директора, причем они могут не совпадать. В таком случае, как правило, прежде всего, принимают во внимание мнение ключевого инженера, потому что ему отвечать. Есть также мнения специалистов по ИТ-безопасности, руководителей ИТ-производства. Это все анализируется и принимается определенное решение.

+66
голосов

Напечатать Отправить другу

Читайте также

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT