`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Чем хорош DataOps и зачем его внедрять?

Известная стратегия DevOps (сокр. от англ. Development and Operations) нацелена на тесное взаимодействие разработчиков с другими специалистами компании. Ее задачи очевидны — сократить время выхода продукта на рынок, обеспечить его гибкость и непрерывную доставку, повысить качество сервисов да и в целом принимать обоснованные операционные решения. Мотивы применения нового подхода — DataOps — приблизительно такие же. Только здесь речь идет не о разработке ПО, а об аналитике данных. DataOps призван оптимизировать рабочие процессы, связанные с излечением инсайтов (ценных наблюдений) из проанализированных данных. Он также предусматривает налаживание продуктивного сотрудничества между командой data-аналитиков и другими отделами.

Для чего нужен DataOps?

Применение подхода DataOps позволяет руководителям более эффективно управлять своим бизнесом. С его помощью собранные и изученные данные превращаются в основу для принятия объективных решений. В этом процессе трудно переоценить роль технических специалистов, так как основное внимание нацелено на развитие практики управления данными, в том числе правами доступа, контроль качества анализируемой информации, повышение скорости и точности аналитики, автоматизацию и интеграцию необходимых операций.

Для внедрения DataOps могут потребоваться сразу несколько команд: например, команды разработчиков, операционистов, специалистов по безопасности и data-аналитиков. Разработчики продумывают логику и архитектуру приложений, операционисты выполняют их развертывание и мониторинг. Специалисты по безопасности определяют и контролируют политику доступа к данным, data-аналитики и инженеры готовят наборы данных, создают и тестируют модели машинного обучения для поиска ценной информации.

В целом компании ожидают от практики DataOps несколько весомых преимуществ:

  • улучшение сотрудничества между различными командами;
  • возможность быстро и эффективно реагировать на новые запросы;
  • обеспечение более качественной работы и поддержки;
  • мониторинг достижения целей компании в режиме реального времени;
  • возможность избежать аварий и неполадок, заранее прогнозируя их с помощью анализа данных;
  • повышение эффективности работы благодаря статистическому контролю процессов;
  • сокращение времени исправления ошибок.

Однако несмотря на ту выгоду, которую предлагает подход DataOps, компании все еще сталкиваются с некоторыми трудностями при его запуске.

На что обращать внимание?

Исследование NewVantage Partners, проведенное среди топ-менеджеров и технических директоров показало, что только 37% компаний, применяющих data-driven подход, могут похвастаться хорошими результатами. Наиболее распространенные проблемы — непонимание таких инициатив со стороны исполнительного руководства, проблемы комплаенса и общее сопротивление изменениям в компании. Тем не менее, для успешного внедрения DataOps-стратегии одного устранения этих трудностей недостаточно. Важно учитывать еще несколько, на первый взгляд не очевидных, но важных моментов.

1. Навыки data science и общие цели

В рамках подхода DataOps аналитики по сути сопоставляют бизнес-метрики с существующей информацией, на основании чего создают отчеты, которыми делятся с руководством. В этой профессии важны знания математики, в особенности линейной алгебры, статистики и теории вероятностей. Они незаменимы для построения моделей обучения и подбора алгоритмов, поэтому большинству техспециалистов для аналитических целей нужно развивать новый набор навыков. Хотя роль data-специалиста является одной из ключевых в реализации DataOps, другие подразделения бизнеса также должны вносить вклад в успешное внедрение этой стратегии и сосредотачиваться на общих целях компании, не ограничиваясь лишь стремлениями своих отделов.

2. Правильная и четкая интерпретация результатов

Тщательный отбор и анализ данных являются залогом успешной имплементации DataOps. Однако этого мало. Все полученные результаты должны быть приведены в понятный и удобочитаемый формат, который потом могут использовать менеджеры других отделов и руководители. Применяемые инструменты должны позволить всем сотрудникам осуществлять собственный анализ и создавать визуализации, чтобы потом делиться инсайтами с коллегами.

3. Соответствие нормативным требованиям

Важно, чтобы собранные и проанализированные данные соответствовали применимому законодательству и политике компании. Хотя грамотное использование информации является значительным преимуществом для бизнеса, сбор конфиденциальных, в том числе персональных данных, на обработку которых накладывается ряд ограничений, может стать источником дополнительных проблем.

4. Регулярный обмен знаниями

Как уже говорилось выше, DataOps подразумевает сотрудничество между подразделениями компании. По мере разработки метрик и в процессе анализа данных обмен знаниями и навыками между отделами поможет улучшить политику взаимодействия с данными на предприятии. В этом случае аналитика рассматривается с разных перспектив и позиций, что позволяет увидеть новые возможности для использования ее результатов. Это делает подход DataOps еще более практичным и полезным.

Отметим, что сейчас инструменты для анализа огромных массивов данных упрощаются и совершенствуются, что существенно уменьшает затраты компании. В связи с этим, определенным упущением было бы игнорирование пользы от бизнес-анализа данных для добавления ценности своему продукту. Примером хорошей реализации DataOps-подхода в этом контексте становятся популярные приложения, обрабатывающие большое количество данных в режиме реального времени, в основе которых лежат алгоритмы машинного обучения.

Заключение

С каждым годом появляется все больше организаций, использующих подход, ориентированный на данные. Однако для большинства из них процесс извлечения, преобразования, моделирования, форматирования и перемещения информации является труднореализуемым — слишком много ручных операций, ошибок и несоответствий. DataOps применяет концепции и принципы DevOps к обработке и аналитике данных. Результатом этого становится более гибкая, точная и автоматизированная работа с информацией, которая сводит к минимуму потерю времени и ресурсов компании.

Чем хорош DataOps и зачем его внедрять?

Как построить архитектуру высокой доступности

Зависимость бизнес-процессов компаний от информационных технологий во всех сферах экономической деятельности в последние десятилетия постоянно возрастает. Как показывает практика, даже для компаний среднего и малого бизнеса ИТ-системы — включающие в себя такие, например, средства, как система взаимодействия с клиентами, электронная почта, IP-телефония, автоматизация бухгалтерии или интернет-портал, являются фактором выживания. Подобные инструменты дают высокую степень управляемости бизнесом, позволяя без промедления реагировать на изменения рыночной ситуации и добиваться успеха в условиях жесткой конкуренции. Для больших компаний ИТ-инфраструктура, как правило, оказывается критическим элементом бизнес-модели, и выход из строя ее критических элементов даже на короткое время приводит к остановке бизнес-процессов и большим потерям.

При этом современные ИТ-инфраструктуры бизнес-инфосистем всех форм предприятий довольно часто находятся под угрозой незапланированных, непредсказуемых событий, таких как сбои в работе оборудования и его выход из строя, появление программных ошибок, сбои в работе сети, человеческие ошибки, стихийные бедствия и разного рода другие внешние угрозы. Поэтому в любой организации потеря или прекращение предоставления бизнес-функций из-за аварий или катастроф может привести к утрате клиентов, репутационным издержками.

К примеру, несложно представить ситуацию, когда в результате стихийного бедствия или хакерской атаки банк приостанавливает выполнение банковских операций (включая операции по депозитам, перевод денег и т. п.). В результате многие клиенты могут запаниковать или, как минимум, задуматься о надежности своего банка и озаботиться поисками более стабильного. В результате гипотетической масштабной аварии электросети простой более одного часа биллинговой системы крупного регионального оператора связи не позволит принять оплату на сумму более одного миллиона долларов. Тем, кто полагает, что такая ситуация маловероятна, достаточно вспомнить наводнение в Альпах в 2005 году. Тогда в Швейцарии из соображений безопасности пришлось останавливать электростанции и отключать линии электропередач. Целому ряду предприятий, где не были предприняты специальные меры безопасности, был нанесен серьезный ущерб. Аналогичный печальный опыт приобрели и жители Дрездена во время наводнения на Эльбе в 2002 году.

На сегодняшний день многие ИТ-руководители и собственники компаний начали выдвигать более высокие требования к вопросу обеспечения непрерывности работы бизнеса. Однако существующее множество организационных и технологических решений не всегда эффективно обеспечивает необходимый результат из-за ряда особенностей их внедрения и использования в различных сегментах рынка.

Ненадежная надежность

Малые и средние компании стремятся экономить, ведь они тратят на автоматизацию ограниченные свободные средства, которые могли бы быть направлены на развитие. Поэтому инвестирование в резервные компоненты ИТ-инфраструктуры в таких компаниях часто может рассматриваться как избыточное. К тому же рынок СМБ часто использует не специализированные, а «бытовые» решения, предназначенные для домашних пользователей. Для таких ИТ-решений производители в большинстве случаев не указывают параметры надежности, в частности — среднее время наработки на отказ. Добавим к этому отсутствие базы знаний возможных аварийных событий, а также отсутствие понимания руководителями предприятий, не имеющих специальных технических знаний, взаимосвязи функций ИТ-систем с бизнес-процессами, — и мы получим наиболее благоприятные условия для появления аварийных ситуаций.

Немного иначе дела обстоят у крупных компаний. При выборе того или иного ИT-продукта крупные компании менее ограничены в бюджетных средствах, поэтому могут позволить себе уделять необходимое внимание качеству.

обеспечение непрерывности бизнеса

Нам нужна стратегия

Шаг первый: Business Impact Analysis

Определение четких методик и создание конкретных планов может позволить найти баланс усилий и вложений для наиболее эффективной защиты ИТ-инфраструктуры.

С чего начать подготовку планов? Например, продуктивным первым шагом может быть проведение BIA (Business Impact Analysis) — анализа воздействия на бизнес последствий, вызываемых нарушением функций компании в результате бедствий различных типов, и последующего восстановления.

BIA позволяет оценить влияние разнообразных процессов на критически важные бизнес-функции и понять, как потенциальное нарушение этих функций — например оперативных или финансовых — может сказаться на организации. Если говорить простым языком, данный анализ позволяет определить, что может понадобиться восстановить и как быстро.

Анализ влияния на бизнес является одной из лучших процедур планирования, который преследует следующие цели:

  • определение наиболее важных функций и систем;
  • определение финансовых, операционных, юридических и репутационных издержек в случае отказа этих систем;
  • выбор RPO и RTO (об этом — далее);
  • установление требований для восстановления;
  • проведение тестирования;
  • анализ слабых мест и уязвимостей.

Для проведения анализа BIA необходимо выполнить определенную подготовку, а именно:

  • получить данные и информацию о влиянии рисков на бизнес-операции посредством интервью, опрашивая людей с глубокими знаниями и опытом в отношении анализируемых бизнес-функций;
  • провести определение угроз (обычно в соответствии с ISO 31000:2018, документом, который описывает принципы, структуру и процесс управления рисками).

В отдельных случаях опрос BIA можно провести в автоматизированном режиме, к примеру, используя программный продукт BIA Professional от Sungard Availability Services, который позволяет оперативно получать проанализированную обобщенную информацию.

Готовые шаблоны BIA также могут помочь в планировании, но важно понимать, подходит ли выбранный шаблон именно для вашей организации. При этом можно ориентироваться на ISO/TS 22317:2015 — руководство по созданию, внедрению и поддержке формализованного и документированного процесса BIA.

Шаг второй: Business Continuity and Disaster Recovery (BC/DR)

После завершения BIA и выявления потенциальных рисков для бизнеса и вероятности их возникновения, организация может составить подробные планы Business Continuity и Disaster Recovery (BC/DR). Как можно понять из названия план BC/DR состоит из двух концепций: BC — непрерывность бизнеса и DR — аварийное восстановление.

Непрерывность бизнеса обычно представляет собой процессы и процедуры, которые организация должна внедрить, чтобы обеспечить выполнение критически важных функций. План BC должен указать основные функции бизнеса, определить список ответственных должностных лиц, установить, какие системы и процессы должны быть устойчивыми, и подробно указать, как их поддерживать.

План аварийного восстановления (DRP) включает в себя оперативные шаги, которые организация должна предпринять, чтобы за наименьшее время возобновить работу после аварии.

Эксперт в сфере управления повышением устойчивости функционирования предприятия Пол Кирван описывает, что конкретно должно содержаться в плане обеспечения непрерывности бизнеса и аварийного восстановления. В частности стратегия BC/DR должна включать:

  • контактную информацию лиц, которые должны первыми реагировать на чрезвычайную ситуацию;
  • процедуры управления изменениями, описывающие перераспределение полномочий, средств, ресурсов и обязанностей между ответственными лицами в случае невозможности выполнения изначально оговоренных обязанностей;
  • рекомендации по использованию плана, определяющие, какие именно ситуации являются достаточно чрезвычайными для того, чтобы задействовать план BC/DR. Действия, которые должны быть выполнены независимо от способности организации применить план BC/DR;
  • пошаговые процедуры, описывающие набор мероприятий, направленных на выявление возможных критических уязвимостей ИТ-систем и конкретных мер для их восстановления;
  • график проверки, тестирования и обновления, описывающий меры, направленные на обновления оборудования и программного обеспечения, переквалификацию сотрудников и проверку боеготовности плана в целом, и их последовательность.

Рассмотрев ключевые этапы плана обеспечения непрерывности бизнеса BC/DR можно отметить, что непрерывность бизнеса BC и аварийное восстановление DR это тесно связанные практики, которые поддерживают способность организации оставаться в рабочем состоянии после неблагоприятных событий. Главные отличия между этими планами заключаются в том, что BC обычно сосредотачивается на организации в целом, а DR — на технологической инфраструктуре.

Определение RPO и RTO

Существует целый спектр подходов к организации восстановления после аварии. Как правило, решения, обеспечивающие более надежное и быстрое восстановление, оказываются более дорогими, поэтому важно понять, какой именно вариант окажется оптимальным в каждом конкретном случае.

Одним из распространенных способов выбора наиболее подходящего варианта DR будет оценка рентабельности инвестиций в данное решение (Return on Investment, ROI). Для этого необходимо рассчитать совокупную стоимость владения (Total Cost of Ownership, TCO), включающую все затраты, такие как приобретение, внедрение и поддержка ИТ-системы/оборудования, а также обучение и поддержка персонала в течение срока полезного использования выбранного решения. После этого сравнить полученную  стоимость с экономией, возникающей в результате внедрения данного решения. Помочь решить такую задачу может ранее проведенный анализ влияния на бизнес (BIA), который учитывает допустимые объемы потери данных, а также расходы включающие упущенную выгоду, потерю репутации, снижение рыночной капитализации и так далее.

Для того чтобы определиться с требованиями к DR-решению, можно ориентироваться на такие показатели, как целевая точка восстановления (Recovery Point Objective, RPO) и целевое время восстановления (Recovery Time Objective, RTO).

Целевая точка восстановления (RPO) — это точка на шкале времени относительно сбоя, до которой требуется сохранить данные. Изменения данных, предшествующие сбою или аварии на интервал, не меньший этого периода, должны быть сохранены процедурой восстановления.

Целевое время восстановления (RTO) — это максимально допустимый интервал времени, в течение которого компьютер, система, сеть или приложение могут быть недоступны после сбоя или аварии. Данный параметр по сути представляет собой максимальное допустимое время простоя ИТ-системы.

Когда организация планирует свои RPO и RTO, она должна рассчитать их конкретные значения для различных бизнес-процессов.

Тестирование

Однако время не стоит на месте и каждое изменение в организации несомненно повлияет на существующий план BC/DR. Необходимо все время убеждаться, что план актуален, что ответственные лица, участвующие в восстановлении, знают что делать в случае аварии, что приложения имеют актуальные обновления и что необходимое резервное ИТ-оборудование будет своевременно предоставлено или уже есть в наличии.

Чтобы убедиться, что компания сможет восстановить данные и критически важные бизнес-приложения и продолжать работу после прерывания обслуживания, следует регулярно проводить тестирование.

Существует три основных типа тестирования аварийного восстановления. Они включают обзор плана DR, настольный тест и симуляционный тест.

  • Обзор плана. Владелец плана DR и другие члены команды, стоящие за его разработкой и реализацией, детально исследуют его, чтобы найти любые несоответствия и недостающие элементы.
  • Настольный тест. Упражнения, с помощью которых заинтересованные стороны могут шаг за шагом пройтись по всем компонентам плана аварийного восстановления. Это помогает определить, все ли знают, что должны делать в чрезвычайной ситуации. Также выявляются любые несоответствия, недостающая информация или ошибки.
  • Моделирование. Моделирование сценариев аварийных ситуаций — хороший способ увидеть, проводятся  ли необходимые процедуры и выделяются ли ресурсы, включая системы резервного копирования и площадки восстановления, для аварийного восстановления и обеспечения непрерывности бизнеса в ситуации, максимально приближенной к реальной. Моделирование обычно подразумевает создание «тестовой» аварии с последующим выполнением плана DR и оценкой результатов.

При тестировании проверяется множество сценариев аварий, чтобы увидеть, могут ли команды, вовлеченные в процесс аварийного восстановления, своевременно перезапустить технологии и бизнес-операции. Это помогает определить, достаточно ли людей в штате, чтобы выполнить работу по аварийному восстановлению должным образом. Подробнее о том, что представляет собой DRP (план восстановления после аварии) и как его подготовить, мы напишем в наших будущих публикациях.

DRaaS

Большинство организаций используют самостоятельно построенные и поддерживаемые решения по аварийному восстановлению, поскольку считают, что такой вариант дешевле, чем покупка решения у DR-провайдера. Впрочем, качественные, самостоятельно разработанные решения (гарантирующие высокую надежность и скорость восстановления) также обходятся недешево и предъявляют высокие требования к ИТ-персоналу организации. Альтернативой тут могут быть решения DRaaS (восстановление после аварии как сервис), которые позволяют снизить нагрузку на персонал, обеспечить экономию на закупках аппаратного обеспечения и передать задачу восстановления после аварии провайдеру услуги DRaaS. Следите за обновлениями блога, чтобы узнать больше о модели DRaaS и ее преимуществах по сравнению с другими подходами к восстановлению после аварии.

Как построить архитектуру высокой доступности

Топ-5 заблуждений о безопасности данных внутри компании

Правильное обращение с корпоративными данными — верный способ избежать лишних проблем с информационной безопасностью. Однако ложные представления руководителей о том, как происходит работа с данными в их компании, приводят к неверной оценке рисков и делают организацию более уязвимой перед лицом потенциальной угрозы. Мы собрали топ-5 заблуждений о взаимодействии с данными внутри компании, от которых пора избавиться современному и дальновидному бизнесу. 
 
Заблуждение 1. Мы храним важные данные только в базах данных.
Информация из критически важных приложений, таких как CRM или системы бухгалтерского учета, хранится в корпоративных базах данных. Однако это не единственные  хранилища ценной информации в компании. Рабочие файлы в Word  и Excel, презентации в PowerPoint, электронные письма, различные медиафайлы (скриншоты, видео) — все это тоже является кладезем данных — неструктурированных, но не менее важных. И хотя таких файлов очень много, организации, как правило, мало знают об их содержимом. Это затрудняет выполнение требований по обработке персональных данных и может вызвать вопросы, связанные с правами интеллектуальной собственности.  Чтобы обеспечить безопасность ценных данных внутри компании, их нужно идентифицировать и классифицировать. После этого —  определить разрешения и права доступа к файлам, мониторить выполнение установленных правил. 
 
Заблуждение 2. Мы точно знаем, кто и когда имел доступ к данным.
Казалось бы, операционные системы автоматически регистрируют все, что делают пользователи. Но так кажется лишь на первый взгляд. Определить, кто, когда, к каким данным имел доступ — до сих пор для большинства ИТ-администраторов является непосильной задачей. Увидеть, что конкретный пользователь делал с конкретным файлом, с помощью внутренних ресурсов очень сложно. Для проведения такого аудита требуется время — информация собирается из различных источников, проверяется, анализируется, обобщается. И все это делается в основном вручную. Хотя некоторые сведения о пользователях и группах можно узнать с помощью Active Directory и ACL, отследить доступ к файлам без специальных сторонних решений практически невозможно.  
 
Заблуждение 3. Мы распознаем подозрительные события, указывающие на атаку.
Отслеживая поведение пользователя и активность при работе с файлами, можно быстро выявить аномалии и предотвратить их (часто в автоматическом режиме). Однако некоторые компании бросают все силы лишь на то, чтобы не допустить киберугрозы. Они не ищут признаков того, что атака уже произошла, не знают, как реагировать на уже состоявшийся инцидент.  Специалистам важно знать, могут ли их системы защиты вовремя выявлять подозрительное поведение. (Простой пример — хранение или распечатывание большого количества файлов вне корпоративной учетной записи в облаке.) Насколько оперативно они предупреждают о повышении файловой активности? (Это может указывать на атаку вымогателей.) Антивирусные решения, увы, в таких случаях не могут гарантировать безопасность данных.  
 
Заблуждение 4. Мы защищены от вымогателей и автоматически отражаем атаки. 
Перекрыть свою инфраструктуру брандмауэрами, установить последние антивирусные программы — вот что поможет защититься от атак злоумышленников. Соответственно, вот, чем должны заниматься в отделе информационной безопасности. Однако все не так однозначно. Растущее число атак вирусов-вымогателей, которое фиксируется в последние годы, показывает, что вредоносному ПО довольно легко пройти через брандмауэр. Все, что нужно для успешной атаки, — это сотрудник, который опрометчиво перешел по зараженной ссылке. Один клик — и вирус сразу получает доступ к данным и шифрует их. Отчет Varonis Data Global Risk за 2018 год показал, что в среднем больше 20% корпоративных папок доступны каждому сотруднику, а у 58% компаний более 100 000 папок не имеют никаких ограничений доступа. Естественно, все они могут быть зашифрованы в случае атаки.  Для защиты от криптотроянов должны быть введены более эффективные средства управления правами доступа.
 
Заблуждение 5. Мы удаляем ненужные данные и записи неактивных пользователей.
Согласно отчету Varonis, около 54 % данных компаний — устаревшие, а 34% учетных записей — «призрачные» (ghost users), то есть принадлежат неактивным пользователям. Угроза безопасности данных заключается в том, что старые файлы, которые на первый взгляд кажутся неважными, могут обладать скрытой ценностью для злоумышленника.  То же самое относится к аккаунтам-«призракам»: они идеально подходят для хакеров, так как их использование обычно не отслеживается. С одной стороны, нет активного пользователя, который бы заявил о несанкционированном применении своей учетной записи. С другой стороны — у аккаунта есть конкретные права доступа, что помогает преступникам без привлечения внимания добыть нужную информацию. 
 
Бонус для компаний, работающих с пользователями из ЕС
Заблуждение 5+. Мы совместимы с GDPR. Мы легко и быстро находим файлы и обрабатываем запросы потребителей, включая «право на забвение».
 
Право быть забытым (или «право на забвение»), которое должна обеспечить пользователям из ЕС компания, обрабатывающая их данные, для многих организаций все еще является проблемой. Согласно регламенту GDPR, в течение 30 дней они должны идентифицировать всю персональную информацию, связанную с обратившимся лицом, и удалить ее. Проблему усугубляет тот факт, что, как правило, эти данные не находятся в одном месте. И даже если используются соответствующие системы баз данных, конфиденциальные данные о пользователе могут храниться на локальных серверах,  в сообщениях электронной почты или в облаке (см. Заблуждение 1).
 
Заключение
Эволюционирующие виды атак и вирусов продолжают представлять угрозу для ИТ-систем компании, и, следовательно, несут опасность для конфиденциальных данных. Имея неверное представление о реальном положении вещей при работе с данными, исполнительные руководители, сами того не желая, подвергают компанию скрытому риску.  Чтобы избавиться от старых заблуждений и не допустить появление новых, нужно наладить постоянный конструктивный диалог между ИТ-директорами и топ-менеджерами. Обеспечение цифровой безопасности — задача не одного дня и не месяца. Это непрерывный процесс, который предполагает периодический пересмотр и оценку существующих методов защиты, тестирование новых подходов и планов по аварийному восстановлению после инцидента.
 
P. S. Данные — это не только о мучительном планировании безопасности и страхе утечек. Они также являются альфа и омегой в управлении ИТ-инфраструктурой. Поэтому одну из следующих публикаций мы посвятим подходу DataOps. А что? Если есть DevOps, DevSecOps и  DevNetOps , почему не могут быть DataOps? Если хотите узнать подробности, подписывайтесь на наш блог, чтобы не пропустить статью.

Colobridge: Топ-5 заблуждений о безопасности данных внутри компании

Почему резервное копирование для бизнеса — это важно?

Мир принял новые технологии, теперь все операции совершаются онлайн — поиск услуг, общение с клиентами, оплата платежей. Документы хранятся на компьютерах, поэтому резервное копирование для бизнеса становится частью операционных стратегий. Потеря данных грозит простоями, нарушением производственных процессов. Чтобы этого не случилось, компания должна делать копии важной информации, обеспечивать их надежное хранение.

Причины потери информации

Опрос Unitrends показал — теряет данные каждая третья компания. Из-за игнорирования средств цифровой безопасности, отсутствия бэкапа статистика остается неизменной с 2016 года. Причины расставания с важной информацией таковы:

  • Сбой жесткого диска компьютера.
  • Случайное удаление данных (человеческий фактор).
  • Заражение вредоносным ПО (например, вирусом-вымогателем), целенаправленная хакерская атака.
  • Скомпрометированные учетные данные сотрудников.
  • Фишинговые атаки.
  • Физическая кража оборудования.
  • Стихийные бедствия, пожары, другие форс-мажорные обстоятельства.

Из-за потери информации, страдает репутация бренда. Вряд ли кто-то из клиентов захочет интересоваться подробностями сложившейся ситуации. Скорее всего, компанию сочтут ненадежной, а сотрудников — некомпетентными.

Лучшая стратегия резервного копирования данных

Копирование физических или виртуальных файлов или баз данных в дополнительное место ради их восстановления в случае сбоя позволит вам достойно выйти из  непростых ситуаций. Лучшие backup практики включают стратегию 3-2-1. Значит — организации должны иметь ТРИ копии данных в ДВУХ разных форматах, причем ОДНА копия должна находиться не в офисе (например, в облаке).

  • Копия № 1. Локальная копия. Сотрудники продолжают пользоваться этими файлами для обычной работы.
  • Копия № 2. Локальная резервная копия. К сохраненным данным можно получить физический доступ на месте.
  • Копия № 3. Копия, хранящаяся вне офиса. Если что-то случится с помещением офиса или оборудованием, на котором находится резервные файлы, они останутся сохранными.

Два правила хорошего бэкапа

При построении стратегии резервного копирования нужно обратить внимание на два  важных пункта:

  1. Правильно определить, какую именно информацию нужно сохранить. Копию нужно делать, когда потеря данных помешает ведению бизнеса. Если программы легко переустановить, то восстановить детали транзакций или деловой переписки без резерва практически невозможно.
  2. Выполнять резервное копирование данных на регулярной основе, тестировать аварийное восстановление. Необходимо систематически делать резервные копии всех файлов, которые создали или изменили. Лучше всего настроить автоматический бэкап, выполняемый регулярно, периодически проводить тесты плана disaster recovery.

«Слепой» бэкап некласифицированных данных иногда становится источником дополнительных проблем. В резервные копии может случайно попасть персональная информация клиентов, за ненадлежащую обработку которой в рамках нового регламента GDPR предусмотрена жесткая ответственность компаний.

Облако вместо физических носителей

По данным Unitrends, 36% компаний в качестве удаленной площадки хранения бэкапа выбирает облако. Особенно если речь идет о резервном копировании для малого бизнеса. Доля поклонников физических носителей (магнитных лент, съемных дисков или оптических носителей) немного ниже — 31%. Бизнес отдает предпочтение облачным хранилищам из-за удобства и доступности:

  1. Использование облака для копирования данных за пределы офиса намного проще, чем запись на диски и магнитные ленты локально и их перенос в другое место.
  2. Облако может принимать неограниченное количество данных, емкость хранилища всегда можно расширить.
  3. Перед отправкой в облако данные могут быть зашифрованы, что защищает их на всех этапах передачи/хранения.
  4. Низкая стоимость облачных решений помогает компаниям избежать покупки дорогостоящего оборудования, оплаты услуг специалиста.

С 2016 по 2018 год количество организаций, использующих облака для резервного копирования и аварийного восстановления, увеличилось на 22%.

Почему нужно заказать бэкап прямо сейчас?

Потеря данных вредит бизнесу — ведет к простоям, нарушает непрерывность рабочих процессов. Восстановление клиентской базы данных и приложений с нуля занимает много времени и ресурсов. В результате клиенты не могут воспользоваться вашими товарами и услугами, теряют к вам доверие.  Если пользователи не хотят ждать пару лишних секунд при загрузке сайта, вряд ли они потерпят несколько дней, пока проблемы будут решены.

Бич современности — неопределенность. Вы никогда не будете знать, когда что-то случится, что именно угрожает вашим данным и успеху компании. Доверив создание резервных копий облачному провайдеру, вы снимаете с плеч груз ответственности за сохранность информации, можете спокойно заниматься профильными задачами.

Заключение

Pixar почти отказался от фильма «История игрушек-2» из-за человеческой ошибки? Сотрудник случайно отменил год работы всего за 20 секунд, введя неправильную команду сервера. Если бы не бэкап, бизнес-катастрофа была бы гарантирована. От потери данных не застрахован никто, разница только в том, что одни пытаются решить проблему, пытаясь обезопасить себя, а другие просто закрывают на нее глаза. Если вы в числе первых, заходите сюда. Возможно, наша новая услуга — то, что вам нужно.

Почему резервное копирование для бизнеса — это важно?

Любовь и ненависть программистов: базы данных, платформы, фреймворки

Цифровизация стремительно завоевывает все сферы жизни. Новые удобные сервисы, приложения, облегчающие жизнь, инструменты, о которых только могли мечтали, — все это уже воспринимается как должное. Однако запуская очередную программу, вы вряд ли увидите списки людей, работавших над ней (конечно, Adobe Photoshop не в счет), или финальные титры с именами участников проекта, как на телевидении. А ведь без программистов все высокие технологии, которые мы имеем сегодня, так и остались бы мечтами о лучшем будущем.

Сегодня в инфографике мы приоткрываем завесу над внутренней кухней разработчиков и рассказываем об их предпочтениях.

Об опросе

В опросе Stack Overflow, одного из самых известных и горячо любимых программистами ресурсов, приняли участие более 100 000 пользователей из 183 стран. Большая часть из них (39 001 человек) — европейцы. Конечно, в анкете фигурировало множество вопросов, но мы выбрали три самых наболевших — о базах данных, платформах и библиотеках. Результаты оказались очень интересными, и поскольку в исследовании принимало участие огромное количество людей, их можно считать объективными

SQL или NoSQL?

Наиболее часто программисты работают с СУБД MySQL и SQL Server, причем MySQL использует больше половины респондентов (58,7%). В прошлом году ситуация выглядела аналогично, поэтому можно предположить, что реляционные базы данных и соответствующие системы управления сохранят популярность надолго.

Как выяснилось, 41,2% рынка СУБД приходится на SQL Server. Вряд ли это вызовет большое удивление, так как ее вместе с Windows Server продвигает Microsoft. Эксперты подчеркивают, что SQL Server также может привлечь новых клиентов благодаря возможности работать с технологиями искусственного интеллекта.

В последние несколько лет большим спросом разработчиков стала пользоваться система управления базами данных с открытым исходным кодом PostgreSQL. Ее популярность набирает обороты с 2014 года, многие называет ее закономерной заменой Oracle. В списке самых популярных СУБД от Stack Overflow PostgreSQL занимает третью позицию с достойным показателем в 32,9%.

Отметим, что в целом реляционные базы данных все еще более распространены, чем базы данных NoSQL. Однако новые технологии начинают отвоевывать свою долю на рынке и с каждым годом укрепляют свои позиции. Например, MongoDB — документоориентированная система управления базами данных класса NoSQL — является самой желанной СУБД (в контексте исследования Stack Overflow «желанный» означает, что если разработчики эту технологию еще не используют, то хотели бы научиться с ней работать — прим. ред.). За нее отдали свой голос 18,6% специалистов. Самой любимой СУБД (в контексте исследования Stack Overflow «любимый» означает, что пропорционально больше разработчиков хотели бы продолжать работать именно с  этой технологией, а не какой-либо другой — прим. ред.) участники назвали Redis (от англ.— remote dictionary server). Эта опенсорсная СУБД, которая тоже относится к категории NoSQL, работает со структурами данных, имеющими тип «ключ — значение». Redis любят больше половины участников опроса — 64,5%.

В тоже время самой «страшной» и раздражающей считается Db2 от компании IBM — по крайней мере, такой ее назвали 78,2% разработчиков.

Linux в лидерах

Чаще всего программисты используют платформы Linux и Windows Desktop/Server. Linux также является самой желанной платформой разработки для 76,5% пользователей. Многим нравится, что это система с открытым исходным кодом и в ней можно использовать набор мелких простых инструментов, которые легко комбинируются друг с другом для более эффективной работы.

Интересно, что многие разработчики хотели бы начать писать проекты под Android и Raspberry Pi. Также растет популярность бессерверных вычислений.

Самой раздражающей платформой для разработки стала SharePoint (71,8%), которая вот уже второй год не меняет своего места в рейтинге. На втором и третьем местах расположились, соответственно, Drupal (70,4%) и Salesforce (69,7%).

Все любят TensorFlow

В категории самых популярных библиотек, фреймворков и инструментов лидируют Node.js, AngularJS, React и .NET Core. Самой любимой библиотекой 73,5% пользователей назвали  TensorFlow от компании Google. Этот тренд может быть связан с растущей популярностью машинного обучения и необходимостью выполнения высокопроизводительных вычислений, например, для обработки большого количества данных в режиме реального времени.

В свою очередь, разработчики оказались не в восторге от мобильной среды разработки Cordova (59,6%) и Xamarin (51%).

Заключение

Опрос Stack Overflow является масштабным исследованием предпочтений программистов со всего мира. Наверняка некоторые результаты удивили админов, работающих в ИТ-компаниях. Однако эти данные могут им помочь лучше приспособить свою ИТ-инфраструктуру под требования разработчиков и самого проекта.

Любовь и ненависть программистов: базы данных, платформы, фреймворки

Умные устройства на производстве — вызов для ИТ-инфраструктуры?

Носимые устройства, или wearables, к которым относятся любимые нами фитнес-браслеты, смарт-часы и умные очки, — неотъемлемые атрибуты современного тренда цифровизации. Сегодня генерируемые ими данные пополняют нашу датасферу ничуть не меньше, чем данные от ПК или дата-центров. И если раньше такие гаджеты считались исключительно продуктами потребительской электроники, сейчас их часто можно увидеть в серьезном деле — на производстве. Да, они способны упростить немало рабочих процессов, но готовы ли ИТ-инфраструктуры компаний к работе с новыми устройствами?

Смарт-очки в цеху

Один из самых популярных носимых гаджетов, который используют промышленные компании, — умные очки. Среди известных брендов — Google Glass, Vaunt от Intel, Spectacles от Snap Inc, Microsoft HoloLens. Сегодня такие устройства нашли свое применение в автомобильной отрасли, логистике, hi-tech компаниях. С помощью смарт-очков отслеживают комплектацию заказов, автоматизируют контроль качества, налаживают логистику доставки и отгрузки товаров и т.д. Один крупный немецкий поставщик промышленных услуг через умные очки даже сумел организовать процесс поддержки клиентов в аварийных ситуациях на производстве. На основании анализа самых популярных случаев поломок сотрудники компании создали полезные видеоролики, в которых показаны меры по устранению часто встречающихся неисправностей. Видео сохраняется на смарт-очках клиента, и в случае форс-мажора человеку объясняется, в какое помещение он должен войти и что сделать. Например, он видит, в каком положении должны находиться клапаны установки; ему отображаются правильные значения настроек на приборах и т.д. То есть это своеобразная удаленная техподдержка на случай, если нужно оперативно решить проблему, не дожидаясь приезда специалистов.

Как это работает?

Данные на цифровые очки отправляются через сервер. В свою очередь сервер получает их через интерфейсы существующих ИТ-систем — таких, как ERP (англ. Enterprise Resource Planning — планирование ресурсов предприятия), WMS (англ. Warehouse Management System — система управления складом) или PMS (англ. Production Management Systems — система управления производством). Затем локально на очках запускается приложение: оно использует полученные данные и генерирует информацию, отображаемую впоследствии сотруднику.

Серверные платформы для работы с носимыми устройствами могут быть самыми разными — выделенные или виртуальные серверы, локальные (on-premise) или облачные (публичные и частные). Доступ к серверам осуществляется через интернет и по умолчанию защищен HTTPS-протоколом с шифрованием RSA с 2048-битным ключом.

В производственной среде для работы киберочков необходимы сети Wi-Fi/WLAN. Вне помещения они могут передавать данные по Bluetooth, соединяясь, например, со смартфоном. Из-за небольшого размера устройства и малой емкости батарей в очках используется антенна с низкой мощностью передатчика. Поэтому в производственном цехе требуется очень хорошее покрытие сети WLAN. Очки работают как на частоте 2,4 ГГц, так и 5 ГГц.

В режиме офлайн информация может храниться в локальной памяти устройства. После повторного подключения данные автоматически передаются на сервер. Размеры внутренней памяти носимого гаджета тоже постепенно увеличиваются. Например, анонсированная вторая версия Google Glass Enterprise Edition будет иметь 32 ГБ локального хранилища.

Безопасность устройства

Многие производители не планировали превращать носимые устройства в мощные инструменты для бизнеса и видели их место исключительно на потребительском рынке. Из-за такого недальновидного подхода сейчас гаджетам не хватает вычислительной мощности и возможностей подключения. Это является препятствием для обеспечения нужного уровня конфиденциальности корпоративных данных.

Кроме того, необходимо учитывать и политику конфиденциальности производителей носимых устройств. Например, для руководителей компаний часто становится неожиданностью тот факт, что данные, хранящиеся на умных гаджетах, принадлежат не им, а… производителю. Тот же, в свою очередь, в любое время может менять свою политику конфиденциальности, не ставя никого в известность.

Советы от ФБР

Безопасность носимых устройств способна стать серьезной угрозой для современного бизнеса. Взломав гаджет, киберпреступники могут использовать его для атаки на другие системы или сети компании, рассылки спам-сообщений, кражи личных данных, DDoS-атак. Чтобы уберечь компании от такого печального опыта, ФБР подготовило несколько важных рекомендация по цифровой безопасности.

  • Меняйте имена пользователей и пароли, установленные по умолчанию на устройстве.
  • Изолируйте устройства, используя только собственные защищенные сети.
  • Настройте брандмауэры, чтобы избежать трафика с неавторизованных IP-адресов.
  • Выполняйте рекомендации по безопасности от производителя устройства.
  • Выключайте устройства, когда они не используются.
  • Регулярно обновляйте патчи безопасности устройства.
  • Используйте безопасный маршрутизатор с соответствующими методами безопасности и аутентификации.

Популярность носимых устройств стремительно растет, поэтому важно, чтобы компании рассматривали вопрос безопасности внедряемых решений более основательно и заранее, чтобы избежать неприятных последствий.

Заключение

Носимые вычислительные устройства, такие как смарт-очки, облегчают работу на производстве, делая жизнь бизнеса проще и гибче. Однако они также требуют тщательного планирования серверов и покрытия Wi-Fi, в некоторых случаях — надежной интеграции с существующими информационными технологиями. А применяемые решения по безопасности необходимо проверить на соответствие новым реалиям, и если нужно — пересмотреть свою политику ИБ в целом.

Умные устройства на производстве — вызов для ИТ-инфраструктуры?

«Старые новые» vs «новые новые»: в какие технологии вкладывают больше?

Еще десять лет назад будучи «новыми», телеком- и информационные технологии сегодня называются не иначе, как «традиционные». К ним, например, причисляют облачные вычисления, социальные и аналитические платформы, мобильную связь. А вот современными «новыми» окрестили ноу-хау в области робототехники, дополненной и виртуальной реальности, интернета вещей и, естественно, любые разработки в сфере искусственного интеллекта. В течение следующих 5-10 лет они, по прогнозам, будут представлять значительный и уверенно растущий сегмент в совокупных расходах на технологии во всем мире.

4 к 1: рост продолжается

IDC прогнозирует, что в 2019 году на традиционные ИТ и телеком в мире потратят больше 4 млрд долларов. На новейшие технологии выделят ощутимо меньше — 962 млн долларов. Однако через год сумма инвестиций в старые добрые ИТ достигнет 4,3 млрд, а в ноу-хау вложат 1,1 млрд долларов. Рост в обеих категориях будет наблюдаться до 2022 года и, скорее всего, продолжится и после этого.

Эксперты считают, что рост в традиционном сегменте в первую очередь обусловлен вложениями в четыре основных группы технологий: облачные, мобильные, социальные и аналитические (включая big data). Отметим, что именно использование «старых новых» технологий, например — облачных вычислений, позволило компаниям автоматизировать множество процессов и достигнуть заметной экономии. Это способствовало тому, что организации стали выделять больше средств на современные ноу-хау.

Бум для всех

Бум новейших технологий обязан своим стремительным развитием индустрии интернета вещей. Связанные с ней решения активно используются в промышленности и в транспортной сфере, особенно в государствах со зрелой экономикой. В свою очередь развивающимся странам для внедрения новейших технологий требуется больше усилий. Причиной тому, например, может стать устаревшая ИТ-инфраструктура, которая не обеспечивает достаточной вычислительной мощности для развертывания решений на основе искусственного интеллекта. Важную роль играет и законодательство отдельно взятой страны, и если оно по какой-либо причине ограничивает свободу действий игроков технологического рынка (как, например, может быть в случае с построением мультиоблака), скорость внедрения инноваций также снижается.

Однако, по мнению IDC, многие компании на развивающих рынках, решили сосредоточить усилия на быстром внедрении новых технологий, ожидая такую же быструю окупаемость инвестиций.

В целом же затраты на технологические новинки в 2019 году во всем мире увеличатся на 16%. Как, собственно, это и произошло в 2018 году.

Традиционные ИТ — основа цифровизации

Рост вложений в традиционные технологии не так впечатляет, но так же остается стабильным и в 2018-м, и в 2019-м — на уровне 3%. Эксперты подчеркивают, что в этом сегменте многое будет зависеть от мобильных и облачных технологий. Именно на них приходится стабильная доля совокупных расходов бизнеса и потребителей. Для компаний «старые новые» технологии являются основой цифровых стратегий. Без них продолжать цифровизацию бизнеса невозможно. Традиционное ПО также вносит огромный вклад в повышение производительности труда. Да и благодаря инвестициям в облачные платформы у компаний появилась возможность быстро разворачивать новые программные инструменты и продукты.

Цифровая трансформация бизнеса обеспечит значительную долю роста сегмента «старых новых» технологий в ближайшие 5-10 лет.

Естественная связь

Традиционные и современные ноу-хау неразрывно связаны между собой. Облачные и мобильные технологии обеспечивают быстрое внедрение решений и высокую коннективность. Они помогают сократить затраты и упростить рабочие процессы, помогая бизнесу сконцентрировать усилия на цифровых инновациях. И несмотря на то, что основное внимание уделяется развитию новых категорий и тем возможностям, которые они могут дать бизнесу, связь между традиционными телекоммуникационными/информационными и новейшими технологиями усиливается. Растущая доля расходов на серверы и хранилища обусловлена  увеличением количества нагрузок, связанных с внедрением интернета вещей, виртуальной и дополненной реальностью. В свою очередь традиционные приложения и решения системной инфраструктуры остаются в выигрыше от использования новых технологий (например, машинного обучения), так как те помогают оптимизировать работу, снижать расходы и получать конкурентные преимущества.

Заключение

Таким образом, говорить о том, на чьей стороне будущее — «старых новых»» или «новых новых» технологий, — не приходится. Это взаимовыгодный симбиоз, который продлится по крайней мере еще 5-10 лет. А вот что будет потом, пока сказать сложно.

«Старые новые» vs «новые новые»: в какие технологии вкладывают больше?

Компьютерное зрение или обработка звука: что известно о рынке процессоров для ИИ?

Сегодня рынок оборудования для систем искусственного интеллекта развивается очень активно. По словам сопредседателя OpenAI Сэма Эльтмана, именно достижения в сфере «железа» в дальнейшем будут определять развитие новейших технологий. Согласно IDC, доходы вендоров аппаратного обеспечения, так или иначе задействованного для потребностей ИИ, в период с 2016 по 2020 год сохранят среднегодовой темп роста на уровне 60%. Хотя в этом контексте речь идет главным образом о чипах для ускорения глубокого обучения, сегменту других микропроцессоров, в частности для обработки звука и компьютерного зрения, экономисты тоже прогнозируют заметный рост.

Встроенные или автономные?

Развитием процессоров компьютерного зрения мы обязаны прежде всего индустрии автономных, то есть беспилотных автомобилей. В компании Yole Développement выделяют два способа машинной обработки изображений — с помощью самого процессора компьютерного зрения (VP) и встроенного модуля компьютерного зрения (VPU). Первый существует как автономная независимая единица и находит свое применение в основном в сферах биометрии, системах управления дронами, дополненной и виртуальной реальности, умных домов. Второй, как правило, встраивается непосредственно в смартфон и используется в работе приложений, связанных с распознаванием и обработкой визуальной информации. По информации Yole Développement, доходы рынка аппаратного обеспечения для ИИ, который определялся этими двумя основными продуктами, в 2017 году составили 635 млн долларов. Наибольшая доля пришлась на встроенный модуль компьютерного зрения (96%), скорее всего, за счет высоких показателей продаж смартфонов. Однако уже в 2020 году эксперты прогнозируют, что свою долю на рынке отвоюют процессоры обработки звука — как встроенные, так и автономные.

По аналогии с VPU, встроенный модуль обработки звука также используется в смартфонах. В свою очередь, автономный звуковой процессор (SP) работает с приложениями для умных домов, в гарнитуре и шлемах виртуальной реальности. В 2020 году доля этих чипов должна вырасти до 46%, а рынок процессоров машинного зрения и обработки звука в совокупности должен достичь 9,7 млрд долларов. В 2023 году ожидаются еще более впечатляющие цифры — 23,305 млрд долларов США.

Оборудование — самый маленький сегмент

По прогнозам IDC, в 2021 году компании должны потратить на когнитивные системы и системы искусственного интеллекта 57,6 млрд долларов. Для сравнения: показатели 2017 года оказались куда более скромными, так как составили 12 млрд долларов. Около половины (50,3%) этих расходов ожидаемо были направлены на программное обеспечение. На оборудование приходилось всего 18,8%. После 2019 года рост расходов на программное обеспечение несколько замедлится, а расходы на cервисы будут стабильно расти в период с 2016 по 2021 год (среднегодовой темп роста равен 53,7%). Оборудование будет самым маленьким и медленно растущим сегментом, хотя и сохранит высокий CAGR — 40,4%.

Больше всего заинтересованы в применении технологий ИИ банковская отрасль и сфера розничной торговли, промышленность и здравоохранение. Ожидается, что к 2021 году их совокупные инвестиции в сегменты систем искусственного интеллекта составят почти 55% от общемировых расходов.

Чипы для обучения

Особое внимание на рынке ИИ-оборудования уделяется чипам для ускорения машинного (глубокого) обучения. Такие компании, как Nvidia, Intel, Qualcomm, AMD и ряд стартапов работает над тем, чтобы сделать процесс обработки огромного количества данных быстрее, дешевле и мощнее.

Nvidia, которая у всех ассоциируется в первую очередь с разработкой видеокарт для игровой индустрии, также сосредоточена на улучшении своих GPU для удовлетворения требований современных приложений ИИ.

Google, Graphcore, Intel и Scortex разрабатывают чипы с большей пропускной способностью памяти, более высокой плотностью вычислений, эффективностью и производительностью на ватт. Эти микросхемы потом могут использоваться, например, в транспортных средствах с автономным управлением, беспилотных летательных аппаратах и робототехнике.

По данным New York Times, в настоящее время над разработкой чипов для ускорения ИИ работает не менее 45 стартапов. Венчурные инвесторы всего мира настолько в них верят, что в 2017 году уже вложили в релевантные проекты около 1,5 млрд долларов США.

Заключение

Наблюдать за развитием технологий всегда увлекательно. Еще то, что сегодня кажется невозможным, завтра может стать частью нашей повседневной жизни. Вопрос с оборудованием для полноценной и быстрой работы приложений на основе технологии ИИ пока остается открытым. Но сколько же нового и интересного сейчас творится в исследовательских лабораториях вендоров по всему миру!

Компьютерное зрение или обработка звука: что известно о рынке процессоров для ИИ?

Доверие клиентов за миллион долларов: бизнес в опасности?

Бизнес подвергается атакам хакеров регулярно — каждый год, месяц, день. Конечно, вы не услышите от компаний официальных заявлений. Вряд ли кому-то захочется признаваться в собственной уязвимости и подрывать доверие клиентов (пусть и цифровое). Недавнее исследование Radware показало, что минимум одна из пяти компаний сталкивается с информационными угрозами каждый (!) день. Если полистать статистику за 2017 год, окажется, что таких компаний было на 62% меньше.

Цель — не деньги, а репутация

Большую обеспокоенность также вызывает сокращение количества компаний, отрапортовавших о нападениях хакеров с частотой раз или два раза в месяц. Сопоставив этот факт с предыдущей статистикой, можно прийти к выводу, что компании теперь подвергаются атакам чаще. К тому же мошенники стали выбирать более изощренные методы воздействия, так как одна пятая участников опроса Radware вообще не в курсе, как часто в работу их ИТ-систем вмешиваются хакеры и вмешиваются ли вообще.

Современных хакеров едва ли можно упрекнуть в отсутствии фантазии. Их подходы стали более разнообразными, да и векторы атак тоже периодически меняются. Например, DDoS-атаки могут производиться в двух форматах — объемном (volumetric) и необъемном (nonvolumetric). При этом их цель остается неизменной — максимально перегрузить сервер, на котором запущено нужное приложение, запросами, чтобы сделать его недоступным для остальных пользователей. DDoS-атаки являются частой причиной резкого наплыва трафика. Однако если обычно наплыв нежелательного трафика генерировался на уровне сети (уровни 3–4 модели OSI — UDP/TCP-трафик), то в 2017 году предпочтительным вектором атаки оказался уровень приложений. В частности, такое положение вещей обусловлено увеличением объема HTTPS-трафика (на 20%) и DNS-атак (15%).

В 2018 году ситуация тоже особо не изменилась, но количество сетевых DDoS-атак в среднем выросло на 12%. На сетевом уровне на 44% увеличилось количество нежелательного ICMP-трафика. Каждая из 13 организаций подверглась атакам по VoIP.

Тремя наиболее опасными векторами за 2017-2018 год стали веб-атаки, DNS-атаки и SYN-флуды. Как видим, главным мотивом хакеров стали не деньги, а желание негативно повлиять на качество обслуживания клиентов организации, нарушив работу сетевых служб или центра обработки данных.

Стоимость атаки и угрозы в 2019

Один из насущных вопросов, интересующих многих, является стоимость последствий одной кибератаки. Помимо репутационного ущерба и потери доверия клиентов, в среднем один инцидент обходится компании в 1,1 млн долларов США. Эта сумма на 52% превышает показатель, полученный Radware в ходе опроса за 2017 год.

На данный момент самые большие опасения компаний вызывают такие потенциальные угрозы информбезопасности как уязвимости приложений (34%) и постоянный отказ в обслуживании (19%). Отметим, что количество организаций, выражающих страх быть атакованными вирусами-вымогателями, с 2017 по 2018 год снизилась с 26% до 15%.

Интересно, что в разных регионах компании озвучивают разные опасения относительно последствий инцидентов. Так, в Северной Америке больше всего боятся утечки данных, а в регионе EMEA, включающем Европу, Ближний Восток и Африку, в основном переживают за урон, который хакерская атака способна нанести репутации фирмы.

План на случай форс-мажора

Несмотря на то, что только 7% компаний сообщили, что не подвергались кибератакам за 2017 год, число организаций без плана реагирования в чрезвычайных ситуациях осталось на прежнем уровне — 34%. В Radware отмечают, что все более популярной мишенью для хакеров становятся медицинские учреждения. А в даркнете стоимость медицинских карт даже выше, чем у паролей и кредиток. С долей 82% здравоохранение пока лидирует среди отраслей, корпоративные представители которых имеют план реагирования на чрезвычайные ситуации.

Заключение

Статистика по киберинцидентам в информационную эру вряд ли когда-нибудь порадует нас низкими показателями. Однако то, что более 60% компаний, осознавая все потенциальные информационные риски, уже имеют план на случай-форс мажора, дает надежду, что злоумышленники так и не смогут добиться своих неблагородных целей.

Доверие клиентов за миллион долларов: бизнес в опасности?

Облачный офис sine qua non глобального бизнеса

По мере роста бизнеса многие компании открывают филиалы в других городах и странах, расширяя географию своего присутствия и охватывая новые целевые рынки. При этом глобализация экономики с её требованиями быстро изменяться и быть максимально гибким заставляет организации искать новые возможности и инструменты повышения конкурентоспособности. Один из таких инструментов — единая информационная цифровая система управления бизнес-процессами компании.

Виртуальный офис в облаке

Как правило, эта система должна обладать такими возможностями как автоматизация делопроизводства, организация совместной работы, обеспечение централизованного резервного копирования файлов и обмена файлами, иметь интегрированную систему безопасности на основе многофакторной авторизации и ЭЦП, выполнять функции административного контроля, обеспечивать кроссплатформенность терминалов доступа, проводить оперативный сбор информации, а также оперативное получение аналитической и статистической информации на основе механизмов автоматического формирования отчетности.

Чтобы разрешить подобные проблемы и в перспективе получить такие неоспоримые преимущества, как экономичность, гибкость и адаптивность нет ничего лучше использования облачных решений. Одной из наиболее подходящих технологий для организации единого информационного пространства распределенных офисов является концепция имеющая условное обозначение «облачный офис».

По сути, «облачный офис» предусматривает отказ компании от значительной части собственной ИТ-инфраструктуры и перенос большинства приложений в облако. Для сформировавшихся организаций, использующих классическую ИТ-инфраструктуру и устоявшийся набор бизнес процессов, переход к офису в облаке сопряжен с определенными трудностями. Эти компании смогут воспользоваться управляемыми облачными услугами в том случае, если они согласятся  постепенно трансформировать свою инфраструктуру в частное облако или же делегировать часть функций в публичное облако (DBaaS, BaaS, DRaaS и так далее) создав таким образом гибридную инфраструктуру.

К примеру, компания Alcatel Lucent Enterprise предлагает воспользоваться стратегией Rainbow — «облачной платформой управлениями взаимоотношений, которая связывает людей, вещи и системы» и поддерживает разные сценарии развертывания (в частности — в гибридном облаке). По сути, это облачная коммуникационная платформа на основе которой развиваются два ключевых облачных сервиса компании: унифицированные коммуникации как сервис (Unified Communications as a Service, UCaaS) и коммуникационная платформа как сервис (Communications Platform as a Service, CPaaS). Если вкратце, то Rainbow позволяет реализовать гибридные коммуникаци оборудования разных производителей, а также предлагает открытые API  для объединения информационных потоков разнородного программного обеспечения.

Стратегии перехода

Существует множество других типовых стратегий перехода в облако от известных вендоров. Стратегии облачного перехода в виде готовых инструкций от таких компаний, как  Microsoft (для Azure), Antares solutions, Accenture и многих других, позволят разобраться в сложностях облачной миграции и выполнить долгожданный переход. Мы в Colobridge ориентируемся на проектно-сервисную модель работы и, при необходимости, помогаем клиенту выбрать оптимальную для его конкретного случая стратегию миграции.

Для компаний, которые начинают более-менее с чистого листа, наиболее удобным и простым решением для построения единой информационной офисной системы был бы переход непосредственно к облачным технологиям. В частности, при развертывании виртуального офиса в облаке компания избавляется от необходимости приобретения дорогостоящего серверного оборудования, а также проведения настройки и установки сложного программного обеспечения. С учетом  современных трендов одним из важных преимуществ как для работодателя, так и для работника является то, что при работе в удаленном офисе можно обойтись и вообще без офисного помещения — или, как минимум, сильно сократить количество и площадь офисов.

В результате развёртывания облачного офиса новые территориально распределенные бизнес-организации получают возможность более гибко использовать необходимые в текущий момент облачные приложения, реагируя на актуальные потребности бизнеса. Это позволяет снизить капитальные затраты, полностью раскрыть потенциал совместной работы в удаленном офисе и с легкостью по мере необходимости внедрять новые  приложения облачного офиса.

Построение облачного офиса с нуля, как показывает практика, чаще всего происходит на основе двух моделей облачных вычислений: IaaS и SaaS.

В  случае применения IaaS для построения облачного офиса часто используется технология виртуальных рабочих столов (Virtual Desktop Infrastructure, VDI). Главным преимуществом VDI является возможность использования нестандартного программного обеспечения, которое отсутствует в готовых решениях SaaS. К примеру, мы можем предоставить своим клиентам услуги виртуального облачного сервера на основе технологии VDS/VPS или более того — услуги частного облака.

Компании, которым не требуются особые нестандартные приложения, могут реализовать облачный офис на основе готовых сервисов SaaS. Ярким примером тут могут служить программные платформы: Google suite, Office 365 и другие, где, используя единую учетную запись, клиент получает офисные, почтовые, коммуникационные, календарно-планировочные и иные полезные облачные приложения в едином пакете. Впрочем, некоторые типовые задачи, такие как, например, бухгалтерский учет, на основе модели SaaS перенести в облако будет сложнее.

Одним из наиболее перспективных направлений в сфере облачных сервисов является технология мультиоблака. Мультиоблачная концепция представляет собой интегрированную инфраструктуру на основе нескольких облачных провайдеров. Данная технология обеспечивает наибольшую доступность и масштабируемость, а также дает возможность разместить системы как можно ближе к пользователю. Главной изюминкой данной технологии является устранение технологической зависимости от одного облачного провайдера.

Ключевые вопросы

Не стоит забывать, что успешное внедрение облачного офиса является долгосрочной стратегией и для ее успешной реализации необходимо предпринять ряд действий:

  • Провести анализ и глубокую формализацию всех значимых бизнес процессов.

  • Определить необходимый набор облачных программных приложений.

  • Провести планирование графика работы согласно производственных календарей с учетом религиозных, государственных или национальных праздников для различных регионов.

  • Провести строгую формализацию и дополнительную детализацию задач в виде готовых инструкций для работников.

  • Обеспечить отслеживание жизненного цикла проектов с помощью  системы планирования и распределения работы.

  • Обеспечить инструменты общения и коммуникаций для географически распределенных команд или работников

  • Организовать круглосуточную техническую и информационную поддержку облачных приложений для удаленных сотрудников.

  • Обеспечить  контроль промежуточных и конечных результатов работы.

Зачастую представители малого и среднего бизнеса начинают использовать бесплатные версии облачных офисных приложений или участвуют в пробном тестировании платных версий. Для дальнейшего решения о выборе поставщика большое значение имеют техническая поддержка, гарантии конфиденциальности информации и доступности услуги, а также надежность и репутация провайдера.

Облачный офис sine qua non глобального бизнеса

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT