`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Что для вас является метрикой простоя серверной инфраструктуры?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Неоднородность современных ИТ-инфраструктур: с какими трудностями сталкиваются компании?

ИТ-инфраструктуры современных компаний становятся более сложными и неоднородными, к тому же они нуждаются в постоянном масштабировании. Выполнять качественный мониторинг такой среды и вовремя реагировать на сбои в ее работе – вроде бы привычная задача администраторов, но сегодня она сопряжена со множеством трудностей. Именно поэтому специалисты, занимающиеся администрированием информационной инфраструктуры, стараются ее упростить, объединяя технологии и системы, и автоматизировать процессы поддержки ИТ-сервисов.

Актуальность проблемы подтвердило недавнее исследование Ponemon Institute, выполненное по заказу американской компании-разработчика ПО для обработки и анализа машинно-генерируемых данных Splunk. Согласно его результатам, только 24% специалистов заявили, что за последний год стали справляться с масштабированием и сложностью своих ИТ-инфраструктур более эффективно. Немногим больше участников – 29% – сообщили, что им стало легче разворачивать и поддерживать технологии мониторинга корпоративных серверов. Как видим, доля «довольных» респондентов не дотягивает и до трети. Проблема очевидна, и многие команды сейчас находятся в поиске ее решения.

Главной трудностью при управлении ИТ-инфраструктурой половина участников исследования назвала непонимание того, как быстро обнаружить проблему и установить ее причину. Вторая популярная проблема – возрастающая сложность и разнородность ИТ-систем (47%), третья – недостаток необходимых навыков у команды (44%).

Правильная диагностика проблемы – практически половина ее решения. Но без релевантных данных и их правильного анализа быстро обнаружить причину неисправности в системе почти невозможно. При этом большинство респондентов также испытывают сложности используя данные для выявления причин неполадок. Так 70% ИТ-специалистов считают процессы получения и извлечения, а также нормализации нужных данных громоздкими и утомительными. Еще 63% респондентов сообщили, что нормализацию усложняет использование информации разных типов и форматов. Существующие системы мониторинга ИТ-инфраструктуры также не способны обеспечить возможности сбора данных в режиме реального времени (59%). К тому же часто компании сталкиваются с неопределенностью, когда они просто не знают, какие именно данные имеют отношение к возникающим проблемам (56%).

Интересный, но печальный факт: большинство компаний не готовы реагировать на перебои в ИТ-системах или своих сервисах. Только у 29% компаний четко задокументированы и автоматизированы действия, которые нужно предпринимать в случае сбоя. Также они имеют возможность установить причину неполадки благодаря современным инструментами мониторинга ИТ-инфраструктуры. И здесь даже не стоит объяснять, почему эта цифра совсем неутешительная. Просто напомним, что когда доступность и производительность ИТ-системы снижается, это приводит к нарушению привычных рабочих процессов, потере доходов и важных данных, а в отдельных случаях способно стать «началом конца» бизнеса.

Конечно, от отказа систем не застрахована ни одна компания, но есть много способов максимально себя обезопасить. Например, обеспечить прозрачность ИТ-инфраструктуры, организовать сбор данных из различных источников, в том числе с помощью «умных» приложений, задокументировать и автоматизировать процессы по устранению неполадок в системе. Но от части возможных проблем можно избавиться еще легче – просто выбрав надежного провайдера.

Неоднородность современных ИТ-инфраструктур с какими трудностями сталкиваются компании?

Удаленный доступ: осторожно — сотрудники!

Цифровая трансформация позволила компаниям организовать удаленный доступ к своим данным, приложениям и ресурсам. С одной стороны, это облегчило жизнь сотрудникам, так как появилась возможность работать из любой точки мира и присутствовать на важных мероприятиях онлайн. С другой стороны, под прицелом оказались учетные данные корпоративных пользователей, на которые устраивают настоящую охоту фишеры и хакеры. Логины и пароли сотрудников в руках злоумышленников — прямой путь к конфиденциальной информации компании, которой она вряд ли бы хотела поделиться с окружающим миром. Да и сами устройства сотрудников могут оказаться зараженными, и для компании они несут не меньшую угрозу, так как являются точками входа в ее сеть.
 
Статистика компании Duo Security, которая является частью Cisco Systems, показывает, что количество уникальных сетей (вне офиса), через которые происходила аутентификация пользователей в приложениях компании, по сравнению с 2017 годом, в среднем выросло на 10%. Это означает, что люди стали больше работать, используя незащищенные сети Wi-Fi, например, логинясь в рабочие приложения из дому, в кафе, аэропортах или других общественных местах.
 
В 2018 году обращались к приложениям из двух или более различных диапазонов IP-адресов, 26% пользователей, что на 8% больше, чем в 2016 году. Больше всего уникальных сетей зафиксировано в корпорациях — их число увеличилось на 24%. Это легко объяснить тем, что у больших компаний корпоративных пользователей тоже больше. К тому же дочерние предприятия корпораций и их партнерские компании расположены по всем миру, поэтому их сотрудники тоже путешествуют и пользуются удаленным доступом чаще остальных.
 
Еще одно интересное исследование в Duo решили посвятить фишингу, смоделировав 7 483 фишинговые кампании, нацеленные на 230 000 получателей.
 
Выяснилось, что больше половины подстроенных атак принесли специалистам по безопасности трофей в виде хотя бы одного набора учетных данных пользователей. Почти половина пользователей открыли фишинговые письма и почти четверть — нажали на ссылки в них. Больше 10% «жертв» ввели свои учетные данные, имели устаревшие браузеры и операционные системы. Вывод экспертов оказался неутешительный: такое поведение сотрудников компании почти всегда приводит к компрометации удаленного доступа и распространению вредоносного ПО. Исследователи считают, что предотвратить успешные атаки фишеров может более сильная аутентификация пользователей, например с помощью аппаратных токенов или смартфонов.
 
В 2018 году 63% работодателей нанимали на работу удаленных сотрудников, а более половины менеджеров по подбору персонала искали фрилансеров или подрядчиков. Сегодня люди логинятся в приложения, используют сети и системы когда захотят и откуда захотят. Однако удаленный доступ для сотрудников может принести компании дополнительные проблемы в виде сетевых атак и фишеров. Поэтому отделам информационной безопасности стоит усилить верификацию личности пользователя и постоянно контролировать устройства, используемые сотрудниками для работы.

Модернизация сети: новые вызовы для специалистов

Постоянное появление новых технологий ставит перед сетевыми инженерами новые вызовы. Сотрудники компаний становятся более мобильными и все чаще пользуются удаленным доступом, набирают популярность проекты, связанные с IoT, да и облачный бум вот уже несколько лет неизменно остается в тренде. Без безопасных и доступных сетей немыслима работа любой компаний, и специалисты по сетевым технологиям должны всегда держать руку на пульсе и предлагать новые, более эффективные способы модернизации.

Однако, как показало исследование IDG, даже когда компании начинают свои проекты по модернизации сети и дата-центров, их подстерегает целое ассорти проблем. Большая часть трудностей относится к поддержанию сетевой безопасности при обеспечении нужного уровня коннективности (42%). Другие вызовы связаны с защитой от взломов и утечками данных (36%), обеспечением доступности и непрерывности бизнеса (35%) и сокращением операционных расходов (34%).

Однако, как показало исследование IDG, даже когда компании начинают свои проекты по модернизации сети и дата-центров, их подстерегает целое ассорти проблем. Большая часть трудностей относится к поддержанию сетевой безопасности при обеспечении нужного уровня коннективности (42%). Другие вызовы связаны с защитой от взломов и утечками данных (36%), обеспечением доступности и непрерывности бизнеса (35%) и сокращением операционных расходов (34%).
 
Упомянутые выше факторы способствуют тому, что компании продолжают наращивать инвестиции в ИТ и развитие сетей в частности. По информации IDG, в течение следующего года 53% опрошенных компаний планируют с помощью своих вложений обеспечить доступность сети, увеличить ее скорость и производительность, а также повысить уровень безопасности данных.
 
Похоже, мировым компаниям пришлось смириться с тем, что модернизация сети автоматически приравнивается к увеличению бюджета. Так, 43% участников опроса IDG сообщили, что в течение следующего года ИТ-кошелек их организации вырастет на 21%. Традиционно большая часть инвестиций пойдет именно на безопасность сети (61%), разработку приложений (61%) и облачные сервисы (60%).

Отметим, что когда речь идет о модернизации, организации выбирают скорее эволюционный, а не революционный путь. Большинство компаний предпочитают медленное, но непрерывное обновление архитектуры корпоративных сетей. Половина опрошенных специалистов (52%) заявили, что планируют постепенное преобразование, например, замену одного компонента или приложения за раз. Другие хотят обновить базовую инфраструктуру или перепроектировать устаревшие системы (24%).

Что касается ближайших планов по внедрению решений модернизации сети, то 52% респондентов хотели бы развернуть программно-определяемые сети, а еще 48% — внедрить виртуализацию сетевых функций (NFV). С учетом того, какую гибкость обычно дает компании виртуализация сети, такой статистический расклад не должен никого удивлять.
 
Так, например, программно-определяемая сеть (SDN) позволяет направлять трафик, не полагаясь на аппаратное обеспечение, поэтому помогает компании быстрее адаптироваться под потребности новых технологий — например, устройств IoT или приложений big data. В свою очередь, виртуализация сетевых функций (NFV) способна заменить выделенные сетевые устройства (такие как маршрутизаторы и фаерволы) с помощью ПО, запущенного на общих серверах, для того чтобы автоматизировать управление сетью, хранилищами и вычислительными ресурсами. Поскольку SDN и NFV тесно связаны, нередко компании внедряют их вместе и сразу, что, собственно, и отражает статистика IDG.
 
Напомним, что сетевая безопасность по-прежнему является задачей номер один для компаний всего мира, что также подтверждает исследование. Большинство организаций установили антивирусное ПО (74%), внедрили решения для защиты оконечных устройств (62%) и предотвращения вторжений (60%), а также системы управления доступом (52%).

Сегодня специалисты, отвечающие за корпоративные сети, сталкиваются со множеством трудностей, которые выводят их компетентность на более высокий уровень. Реалии не позволяют им действовать старыми проверенными способами, а требуют новых знаний, умений и ответственности за реализацию новых решений. Тем не менее, большинство сетевиков научились успешно справляться с современными ИТ-вызовами и теперь играют важную роль в формировании общей ИТ-стратегии компании.

Colobridge: Модернизация сети: новые вызовы для специалистов

Подрывные инновации: зачем и сколько компании инвестируют в big data и ИИ?

«А там только и разговоров, что о big data»… Порою складывается впечатление, что тема больших данных и искусственного интеллекта будет преследовать тебя везде, где бы ты ни был. В газетах, на форумах, конференциях, в соцсетях, разговорах со знакомыми (и не обязательно айтишниками), на работе и даже дома. Не удивимся, если скоро и дети начнут спрашивать «почему биг дата» и «кто такой искусственный интеллект». Хайп хайпом, но серьезные технологии, которые за ним стоят, похоже, пришли к нам надолго. По крайней мере, в этом уверены компании, которые вкладывают в них миллионы и считают свои инвестиции успешными.

Аналитика и клиенты превыше всего

Когда-то телеграф заменили телефоны, с карет люди пересели на автомобили, а вместо пленочных фотоаппаратов стали пользоваться цифровыми. Новые технологии не только меняют нашу повседневную жизнь, но и полностью перекраивают карты рынка, добавляя новых игроков и отправляя неприспособившихся старых гигантов в утиль. Такие инновации называют подрывными, и именно к ним сейчас относят big data и технологии ИИ. Боясь проиграть, компании не жалеют инвестиций. По данным американских аналитиков из NewVantagePartners, в исследовании которых участвовало 60 ключевых компаний, в том числе Goldman Sachs, IBM, Motorola, Verizon, в проекты такого типа инвестируют 97% респондентов. Хорошая новость заключается в том, что 73% участников опроса заявили, что такая инициатива принесла компании измеримые положительные результаты. Для сравнения, в 2017 году число довольных своими инвестициями оказалось наполовину меньше.

На сегодняшний день главной мотивацией компаний для вложения в технологии big data и ИИ является желание получить качественную аналитику, чтобы в будущем принимать лучшие решения. За этот пункт списка проголосовало около трети респондентов, а 84% уже начали инвестировать именно в это направление. Другими популярными причинами для инвестиций в инновации является желание компаний улучшить качество обслуживания клиентов и сократить расходы. Желания абсолютно оправданы и актуальны во все времена, даже в такие высокотехнологичные, как наши. А вот монетизация данных отличилась довольно низким приоритетом среди инвестиционных планов компаний. Похоже, не всем ясно, как именно можно извлечь прибыль с помощью новых технологий — гораздо очевиднее, как продвинутый анализ способен сократить текущие издержки.

Не остаться за бортом

Можно долго рассуждать о том, какие приоритеты выбирают компании для своих вложений. Но, как ни крути, в случае с big data и искусственным интеллектом главной движущей силой инвестиций выступает страх. Почти четыре из пяти респондентов заявили, что опасаются ослабления своих позиций на рынке из-за стремительного развития маленьких фирм или стартапов, которые внедряют решения на основе big data и ИИ и создают политики управления данными уже с первого дня своего существования. Интересно, что именно технологии искусственного интеллекта большинство компаний (72%) назвали наиболее «подрывной» инновацией. Такого высокого процента голосов не удостоился ни блокчейн, ни даже облачные технологии. Для сравнения: еще год назад среди лидеров компаний сторону ИИ принимало меньше половины — 44%.

Руководители компаний осознают всю важность data-driven подхода, но пока успешно применяет его на практике лишь около трети участников исследования. Наибольшим препятствием на пути к изменениям становятся не технологии, а связанные с ними процессы и люди, которые сопротивляются нововведениям. Тем не менее стратегия по работе с данными уже сейчас является приоритетом для 98,6% компаний, то есть почти для всех.

Заключение

Несмотря на то, что 97,2% компаний инвестируют в большие данные и ИИ, уровень их капиталовложений совершенно не впечатляет: 60,3% вкладывают в эти инновации менее 50 млн долларов, и только у 12,7% инвестиции превышают 500 млн долларов США. Видимо, никто не желает делать резких движений, чтобы инновации оказались максимально плавными и безболезненными для остальных процессов компании.

 зачем и сколько компании инвестируют в big data и ИИ?

Подрывные инновации: зачем и сколько компании инвестируют в big data и ИИ?

Три причины почему ваша защита информации не такая уж надежная

Общая проблема многих компаний — игнорирование важных, но, на первый взгляд, непримечательных моментов, которые впоследствии могут привести к потере данных. К ним относится неоправданный открытый доступ для большого количества папок, действующие, но устаревшие учетные записи пользователей, бессрочные ненадежные пароли от корпоративных аккаунтов и т.д. Мы решили проанализировать, какие едва заметные проблемы досаждают компаниям при защите информации и что делать, чтобы исправить ситуацию.

Чрезмерная открытость вредит данным

Незащищенные папки являются сравнительно легкой и очень желанной добычей для злоумышленников. Все, что им нужно — лишь проникнуть в сеть, а дальше все просто: открыть папку и завладеть важной и конфиденциальной информацией — бизнес-планами, интеллектуальной собственностью, персональными данными клиентов и сотрудников и т. д. По статистике Varonis, 58% организаций имеют более 100 000 папок, доступ к которым открыт в сети для каждого. Таким образом компании сами «передают» информацию в руки злоумышленников. К тому же доступные данные подвергают компанию чудовищным рискам, которые способны нанести вредоносные программы и вирусы-вымогатели. Одного щелчка мыши по ссылке в фишинговом письме достаточно, чтобы все файлы были в один момент зашифрованы или уничтожены безвозвратно.

Усугубляют ситуацию и требования Общего регламента ЕС по защите данных. Он обязывает компании защищать персональную информацию пользователей, а открытый доступ к файлам и папкам этому никак не способствует, что в итоге может привести к огромным штрафам.

Что можно сделать?

  • Определить группы с глобальными правами доступа к конфиденциальным и критическим данным и ввести нужные ограничения.
  • Регулярно запускать полный аудит серверов, просматривая все контейнеры данных (папки, почтовые ящики и т. д.) с глобальными группами доступа, применяемые для списков контроля доступа.
  • Заменить глобальные группы доступа на строго управляемые группы безопасности.
  • Начать с наиболее конфиденциальных данных и проводить тесты изменений, чтобы не допустить возникновения проблем.

По оценкам ИТ-специалистов, для поиска и устранения глобальных групп доступа для каждой папки требуется около 6-8 часов. Администраторы должны идентифицировать аккаунты, которым действительно требуется доступ, создать новые группы и заполнить их нужными пользователями.

Пользователи-призраки нарушают покой

Часто хакеры ищут самые простые и непритязательные способы проникновения в сеть компании. Один из них — использование действительных, но неактивных учетных записей пользователей (их еще часто называют «пользователи-призраки»). Такие аккаунты могут не проявлять активности длительное время и, оставаясь незамеченными изо дня в день, обеспечивать доступ злоумышленников к системам и данным.

Устранение «призрачных» учетных данных — важный аспект защиты информации, который компании часть упускают из виду. Если эти аккаунты остаются без контроля, компания рискует столкнуться с проблемами.

Что можно сделать?

  • Убедитесь, что устаревшие учетные записи деактивированы, удалены или что их повторное использование отслеживается.
  • Примите меры для гарантирования того, что все учетные записи активны и выполняется мониторинг их использования.
  • Определите, каким является нормальное поведение учетных записей пользователей, чтобы в будущем лучше выявлять поведенческие аномалии.
  • Улучшите возможности обнаружения аномалий в компании и продумайте действенные методы реагирования.

Устаревшие, но действующие учетные записи несут угрозу информационной безопасности. Проведите аудит «призрачных» аккаунтов и по мере необходимости удалите или деактивируйте их.

Бессрочный пароль — мнимая защита

Очень немногие учетные записи должны иметь бессрочные пароли. Они открывают мошенникам большие возможности для взлома методом брутфорса. Пароли с неограниченным сроком действия рискуют появится в дампах баз данных взломанных паролей. А если бессрочный пароль «защищает» вход в аккаунт администратора, возникновение проблем — всего лишь вопрос времени. К тому же, по данным Varonis, больше половины пользователей меняют пароль только из-за того, что они его забыли, а не «для профилактики».

Что можно сделать?

  • Установить срок действия паролей учетных записей пользователей.
  • Обеспечить выполнение требований по длине и сложности пароля.
  • Использовать многофакторную аутентификацию везде, где это возможно.
  • Использовать историю паролей, чтобы пользователи не могли применять общие пароли для разных аккаунтов.

ИТ-отделу следует деактивировать бессрочные пароли и установить пароли с ограниченным сроком действия для всех пользователей. В случае если для учетной записи все же требуется статический пароль, необходимо убедиться, что он достаточно длинный и сложный.

Заключение

В вопросах защиты информации всегда важно работать на опережение. И даже если кажется, что ничего не предвещает атаки, это вовсе не означает, что можно бездействовать. Искать и устранять потенциальные бреши в безопасности необходимо постоянно, ведь никогда не знаешь, с какой стороны может нагрянуть угроза. Чтобы не терять времени, уже сейчас можно закрыть неоправданный открытый доступ к своим файлам и папкам, избавиться от «призрачных» учетных записей пользователей и установить сроки на действие паролей.

Три причины почему ваша защита информации не такая уж надежная

Три причины почему ваша защита информации не такая уж надежная

Serverless и преграды на пути к нему

Бессерверные вычисления (serverless) попали в тренды — 2019. Эксперты пророчат этой сравнительно новой парадигме статус ключевой для реализации бэкэнда приложений в центрах обработки данных. Однако массовому переходу на serverless препятствуют несколько важных нюансов, о которых рассказали ученые Калифорнийского университета в Беркли. Их мнение интересно, поэтому мы решили поделиться им с вами.
 
Что такое serverless?
Бессерверные вычисления, или FaaS (Function-as-a-Service) — это разновидность облачных технологий. Они позволяют запускать функции (например, микросервисы, бэкэнд приложений), написанные на языках высокого уровня, прямо в инфраструктуре провайдера. Пользователю не нужно беспокоиться об управлении инфраструктурой и возиться с конфигурациями сервера. При этом он платит только за ресурс, по факту использованный для выполнения кода функции (pay-as-you-go), а не за его резерв (пропускная способность, количество серверов и т.д.), как в других облачных моделях.
 
Сам термин «бессерверный», конечно же, не означает, что в этом виде вычислений не задействованы серверы (не представляем, как такое вообще возможно). Такое название всего лишь акцентирует внимание на том, что все вопросы, связанные с серверами и инфраструктурой в целом, решаются поставщиком услуги. В то же время разработчики могут спокойно выполнять свою работу, не отвлекаясь на непрофильные задачи.
 
Serverless-вычисления отличают от облачных три основных момента. Помимо модели биллинга, о которой мы упоминали выше, разница заключается еще и в том, что ресурсы для хранения и вычислительные ресурсы масштабируются независимо друг от друга. Функции работают stateless, то есть не хранят данные о своем состоянии (предшествующих взаимодействиях), и они должны быть хорошо изолированы друг от друга.
 
Ограничения бессерверных платформ
Несмотря на свое удобство, бессерверные вычисления имеют ряд ограничений. Большинство из них связано с их работой в «режиме» stateless. На stateless-платформе трудно координировать задачи между собой. Например, если функции 2 на вход требуются выходные данные функции 1, она должна уметь отслеживать, когда функция 1 их выдает, что в случае serverless достаточно проблематично. Кроме того, консистентность данных тоже требует соответствующих процессов согласования. Поскольку между облачными сервисами практически нет систем уведомлений, их необходимо реализовать в функциях, что дополнительно усложняет работу программистам.
 
В зависимости от приложения, функции на бессерверных платформах могут работать медленнее, чем принято считать. Дополнительное время уходит на инициализацию программной среды для запуска функции — например, загрузку библиотек Python и выполнение специфичных для конкретного приложения операций инициализации. Во-вторых, одна и та же функция может запускаться на различном оборудовании с отличающимися характеристиками (например, могут использоваться CPU разных поколений). С одной стороны, вы как пользователь можете не заботиться о ресурсах процессора. С другой — вы не способны предсказать производительность бессерверной среды для работы своих приложений.
 
Не для всех алгоритмов
Ученые из Беркли провели исследование пяти конкретных приложений, использующих различные алгоритмы, чтобы проверить эффективность serverless-вычислений. Оказалось, что кодирование видео в режиме реального времени, алгоритмы машинного обучения и массивные алгебраические вычисления, которые обычно выполняются на суперкомпьютерах, на бессерверных платформах работали относительно хорошо. Однако алгоритмы MapReduce и их аналоги имели проблемы с распределением данных. Хуже всего serverless показал себя в работе с приложениями баз данных, ориентированных на транзакции и интенсивную запись.
 
Как улучшить FaaS?
Сегодня разработчикам разрешено указывать только требования к памяти и ограничение времени выполнения своих функций. Однако если бы пользователи могли дополнительно называть конкретные необходимые ресурсы (например, количество GPU, CPU и прочих ускорителей ИИ), результаты работы на stateless-платформах могли бы быть лучше. К тому же оптимальным решением было бы проведение поставщиком анализа кода и предоставление оптимальных ресурсов для функций в автоматическом режиме.
 
Сервисы хранения, используемые для FaaS, должны иметь возможность автоматически подгонять емкость хранилища и вычислительную мощность ad hoc, тем самым освобождая память, которая больше не нужна, для других задач.
 
Чтобы убедиться, что коммуникация между функциями не выходит за рамки ресурса, можно выделить больше ядер для обработки данных. Это позволит им обмениваться информацией и сопоставлять данные до фактического запуска вычислений.
 
Кроме того, несколько облачных функций возможно разместить на одной виртуальной машине. Для каждой можно создать вычислительный граф, благодаря которому наглядно представить взаимосвязь между отдельными функциями и вычислительными этапами. Это поможет оптимально распределить ресурсы.
 
Отдельно стоит отметить тот факт, что оптимизированных под FaaS процессоров пока не существует. Однако, по словам экспертов, вскоре появится возможность предложить вычислительные устройства, адаптированные к конкретным языкам программирования высокого уровня. В качестве примера они приводят RISC-V и платформy ARM Neoverse.
 
Ученые также считают, что оптимизировать производительность бессерверных вычислений помогут доменно-специфические архитектуры (DAS) (например, GPU или TPU).
 
Заключение

Как и у любой другой технологии, у бессерверных вычислений есть свои недостатки. Но это совершенно не означает, что FaaS нежелательно использовать. Все зависит от специфики приложения и целей, которые разработчики ставят перед собой. Критический взгляд на вещи ученых из университета в Беркли вряд ли помешает дальнейшему развитию этой модели. Скорее, наоборот, он поможет ее лучше адаптировать под выполнение своих функций.

Colobridge: Serverless и преграды на пути к нему

 

Облака в 2019: бум мультиклауда и растущие расходы

Мы продолжаем следить за тем, что происходит в мире облачных технологий. Недавно вышел отчет от компании Rightscale (которая, кстати, обрела нового собственника — провайдера решений по управлению технологическими активами Flexera), посвященный облачным тенденциям 2019 года. Опрос базировался на мнениях 786 специалистов из компаний малого и среднего бизнеса, а также сотрудников крупных предприятий. Одна из ключевых идей исследования — все чаще бизнес для своих целей использует комбинации частных и/или публичных облаков, то есть отдает предпочтение мультиоблачной стратегии.

Приоритеты бизнеса

По данным исследования, мультиоблачный портфель собирают 84% крупных организаций. В нем большинство компаний стараются сочетать публичные и частные облака. Количество практикующих такой подход за год незначительно выросло. Если в 2018 году гибридную мультиоблачную стратегию применял 51% респондентов, то в 2018 году этот показатель увеличился до 58%. Доля предприятий, чье мультиоблако состоит только из публичных облаков, снизилась с 21% до 17%. Для частных мультиоблаков этот показатель уменьшился лишь на 1% — с 10% до 9%. В компаниях малого и среднего бизнеса, имеющих в своем штате менее тысячи сотрудников, стратегию мультиклауд внедрил 61% опрошенных. При этом первое место по популярности также заняло гибридное мультиоблако — 35%. Доля публичного мультиоблака составила 20%, частного — 6%.

Частное vs. публичное

В целом компаний, использующих хотя бы одно облако (как частное, так и публичное), оказалось абсолютное большинство — 94%. Пользователи публичных облаков по своему количеству традиционно обходят любителей private cloud — 91% против 72%. Отметим, что в эти доли также входят компании, выбирающие гибридное облако, — 69%. Исключительно публичное или только частное облако использует гораздо меньше организаций (соответственно 22% и 3%).

Ожидаемо в малых и средних компаниях доля внедрения отдельных публичных облаков выше и составляет 24%. В то же время у крупных предприятий этот показатель заметно ниже — всего одна десятая часть, хотя при этом 31% корпораций считает внедрение публичных облаков своим приоритетом. Однако, как показывает статистика, в фокусе 45% компаний все равно находится гибридное облако (28%) или сбалансированное использование частных и публичных облаков (17%).

В среднем 5 облаков для каждой компании

Учитывая как частные, так и публичные облака, аналитики сообщили, что в среднем компании используют почти 5 облаков (если точнее — 4,9). В них респонденты запускают приложения (3,4 облака), или же они находятся на стадии тестирования (1,5).

В компаниях, которые предпочитают публичное облако, для полноценной работы приложений применяются два облака, тестируются — 1,8. Среди поклонников private cloud ситуация не особо разнится: компании используют 2,7 частных облака и экспериментируют еще с двумя.

Интересно, что большинство своих рабочих нагрузок (79%) организации в принципе предпочитают запускать в облаке. При этом на частные облака приходится 41% нагрузок (могут включать существующие виртуализированные окружения), на публичные — 38%.

Расходы растут

Как видим, публичное облако на протяжении нескольких лет не теряет популярности. При этом оно продолжает обременять компании внушительными расходами. Так, 23% респондентов тратят на облака не менее 2,4 млн долларов в год, или 200 тыс. долларов в месяц. Для 33% опрошенных ежегодная сумма инвестиций превышает 1,2 млн долларов США, или 100 тыс. в месяц. Среди крупных организаций расходы еще больше, а вот малый и средний бизнес, имея меньше нагрузок в облаке, получает не такие впечатляющие счета за облачные вычисления. Чуть больше половины тратит на них менее 120 000 долларов в год.

Заключение

Multicloud закрепил свои позиции в топе. Компании предпочитают комбинировать различные виды облаков, предпочитая гибридные мультиоблака приватным и публичным. В среднем каждая компания имеет в своем арсенале пять облаков, и большинство своих нагрузок разворачивает именно в облачной среде.

 бум мультиклауда и растущие расходы

Облака в 2019: бум мультиклауда и растущие расходы

11 типичных ошибок облачного бэкапа

Сколько бы не писали статей о бэкапе, их никогда не хватит, чтобы предотвратить все возможные промахи пользователей. Однако есть и хорошая новость — при выполнении резервного копирования, как правило, совершаются одни и те же ошибки. Это дает возможность их обозначить, проанализировать и систематизировать, и в будущем защитить себя от неприятностей. В новой статье мы собрали самые распространенные ошибки и заблуждения, связанные с бэкапом данных (в том числе облачным). Читайте и учитесь на чужих, чтобы не допускать свои:)

1. Вы храните все резервные копии на одной площадке

Неважно, офис или свой маленький дата-центр — хранить все резервные копии там же, где вы их делаете, довольно опрометчиво. Ваши бесценные данные могут украсть, повредить, уничтожить. И, к сожалению, вы не всегда способны вовремя обнаружить их отсутствие. Помимо человеческого фактора, вашей информации могут грозить различные форс-мажорные обстоятельства — пожары, затопления, землетрясения, извержения вулканов — да все что угодно. Обязательно найдите для хранения части своих резервных копий дополнительную надежную площадку. Мы никогда не устанем напоминать о правиле 3-2-1, которое гласит: вы должны хранить 3 копии ваших данных на 2 различных носителях и иметь 1 копию, хранящуюся вне физической площадки компании — желательно в облаке.

2. Вы не проверяете бэкапы на целостность и актуальность

Некоторые компании устанавливают и настраивают ПО для резервного копирования единожды. После этого они ставят себе галочку за выполненное задание и благополучно о нем забывают. Тем не менее файловые структуры постоянно меняются, создаются новые папки, добавляются приложения. В итоге прежние скрипты для бэкапа оказываются устаревшими, что обычно выясняется в самый важный и неподходящий момент. Даже небольшие организации, имеющие ограниченные ресурсы, должны как минимум раз в три месяца проверять свою систему резервного копирования и при необходимости менять конфигурации.

3. Вы предоставляете серверам доступ к системе резервного копирования

Онлайн-бэкапы очень удобны, никто не спорит. Однако не закрыв доступ к ним (даже с защищенного сервера), вы рискуете получить катастрофу буквально в один клик. Во времена магнитных лент было проще: резервные копии сортировались физически и размещались в безопасном месте. Но сейчас, когда массово используются онлайн-хранилища данных, большинство экспертов полагает, что резервные копии документов должны быть доступны только для чтения.

Не забывайте и про опасности, которые исходят от вирусов-вымогателей, проникающих в сети. Резервные копии должны быть сегментированы, и под них желательно создать отдельный аккаунт, отличный от стандартных учетных записей администратора.

4. Вы путаете термины «синхронизация» и «бэкап»

Некоторые пользователи считают, что резервную копию делать не нужно, так как файлы синхронизируются. Напомним, что «синхронизировать» означает сохранить и согласовать файлы между определенным количеством устройств. Если вы внесете изменение в содержимое файла, оно также отобразится в соответствующих файлах на других синхронизированных устройствах. Это касается и нечаянного удаления файлов. Возможно, решения для синхронизации хороши для личного пользования, но когда речь идет о данных компании, потери могут привести к масштабным последствиям. Синхронизацию можно использовать для удобства работы сотрудников, но резервное копирование она не заменит.

5. Ваши резервные копии ни о чем вас не предупреждают

Различные оповещения дают возможность отслеживать эффективность ваших действий с бэкапом и вовремя узнавать об ошибках. Проблемы с подключением, неправильная настройка, смена пароля и т. д. — обо всем этом вам должны быть отправлены оповещения. О том, что резервное копирование прошло успешно, вам тоже должно прийти сообщение. В противном случае неприятных неожиданностей не избежать.

6. Вы предполагаете, что удаленные файлы хранятся всегда

Публичные облачные провайдеры на какое-то время сохраняют удаленные файлы, но в большинстве случаев этот срок не превышает 30 дней. Как только вы удалили файл, он перемещается в очередь для полного удаления. Dropbox хранит удаленные файлы в течение 30 дней, а для тарифных планов Professional и Business — 120 дней. OneDrive сохраняет файлы 30 дней. Помните, что после полного удаления данные теряются безвозвратно.

7. Вы бездумно открываете доступ к данным сторонним приложениям

Google Drive и Dropbox позволяют запускать и авторизовать сторонние приложения по требованию различных веб-сайтов и приложений. Впоследствии они могут изменять, перемещать или удалять данные. Поэтому, прежде чем предоставить доступ, оцените возникающие риски  своей информационной безопасности. Google и Dropbox также не могут защитить ваши переданные данные, хранящиеся на серверах другой компании. Однако у Google есть несколько хороших рекомендаций, связанных с этой ситуацией, которые помогут избежать проблем.

8. Вы не закрываете приложения и запускаете бэкап

Не каждый сервис облачного бэкапа предлагает возможность копирования ваших файлов, если они открыты. Это означает, что если вы не закроете свои электронные документы, они могут отсутствовать в вашем бэкапе. Конечно, если речь идет о каком-то одном документе, последствия не так страшны. Но в случае с базой данных (например, бухгалтерии) такая ошибка может стать критической. И вроде кажется, что замечание несущественное, но именно из-за таких вот глупых ошибок происходят большие потери.

9. Вы не структурируете файлы и папки

Конечно, хаос в документах никак не повлияет на сам факт резервного копирования. Но когда приходит время disaster recovery, опрометчивость решения не структурировать данные выливается в массу потерянного времени. Как правило, полное восстановление информации — довольно редкое явление. В основном требуется «возвращать» лишь несколько ключевых файлов, причем делать это нужно как можно быстрее. Рекомендуем хорошо отсортировать информацию в несколько легкоуправляемых кластеров. И чем проще будет эта структура, тем лучше. Можно также установить соответствующие права доступа для определенных категорий папок, чтобы предотвратить утечки.

10. Вы считаете, что сможете избежать ошибок

Компании, предоставляющие сервисы облачного бэкапа надежно защищены от внешних атак, но никак не страхуют пользователя от его же ошибок. Удаление или внесение неправильных изменений в локальную версию и синхронизация изменений с облаком способны нанести большой ущерб данным. К тому же трудности могут возникнуть при использовании инструментов для совместной работы. Когда вы предоставляете нескольким людям доступ  к одному файлу, всегда существует риск того, что кто-то неправильно отредактирует или удалит данные. К сожалению, человеческой ошибки избежать трудно. Выходом может стать лишь следование правилу 3-2-1 и хранение резервных копий в течение длительного времени.

11. Вы не учитываете конкретные потребности своей компании

Не все организации нуждаются в едином стандартном подходе к резервному копированию. Если вы не будете принимать во внимание индивидуальные требования к бэкапу со стороны своей компании, вы получить рабочее, но абсолютно бесполезное решение. Если вы подбираете облачный сервис для резервного копирования, подумайте, какие типы данных вы отдаете на хранение. Определите, как долго они там должны находиться, какие из них имеют больший приоритет. Только так вы сможете подобрать оптимальный инструмент, в котором можете быть уверены и за который не будете переплачивать.

Заключение

Причины, которые мы перечислили выше, — это только верхушка айсберга проблем, с которыми могут столкнуться пользователи. Можно готовить массу чеклистов, регулярно проверять резервные копии, проводить тестирование планов аварийного восстановления (одним словом, делать все правильно), однако спрогнозировать, сколько времени уйдет на каждую нужную процедуру, сложно. Поэтому найти хорошего поставщика backup-решений и отдать задачу на аутсорс в большинстве случаев является хорошей идеей и оптимальным решением.

11 типичных ошибок облачного бэкапа

Управление сохранностью данных: как компании защитить себя?

В жестких конкурентных условиях  современного рынка корпоративная информация становится ценным внутренним активом. Однако несовершенства вычислительных и сетевых инфраструктур, уязвимости приложений и недальновидность политик управления часто отрицательно влияют на сохранность данных на предприятии. Проблемы цифровой безопасности приводят к необратимым  потерям. Последствия этого могут быть крайне печальными — как в финансовом, так и репутационном плане.

Чтобы не допустить подобной ситуации, компании необходимо защищать информацию на всех этапах ее жизненного цикла. От создания, обработки и хранения до передачи и полного уничтожения.

Все начинается с бэкапа

О резервном копировании сказано много, но никогда не лишне напомнить. Бэкап — основа безопасности данных, без которой другие методы защиты неэффективны. Под резервным копированием подразумевают создание  копий информации на физических носителях (жесткие диски, магнитные ленты, DVD-R/RW) или в облачных хранилищах. Цель — дальнейшее восстановление в случае потери или уничтожения исходных  файлов.

Ключевыми параметрами резервного копирования являются параметры RPO и RTO. Целевая точка восстановления (RPO) – это максимально допустимое количество данных, которое возможно потерять в случае сбоя, измеряемое во времени. Например, если RPO составляет 15 минут, это означает, что компания может себе позволить потерять данные, накопленные или измененные в течение последних 15 минут работы. Иными словами, если RPO равняется 15 минутам, то и бэкап нужно делать каждые 15 минут. Целевое время восстановления (RTO) – это максимально допустимое время простоя ИТ-системы, то есть интервал времени после сбоя, в течение которого она может быть недоступна.

Виды резервного копирования

Правильный расчет  RPO и RTO и настройка автоматического бэкапа поможет компании обезопасить себя в случае сбоя системы. Это обеспечит сохранность данных, так как их можно быстро восстановить после аварии.

Существует несколько основных методов резервного копирования. Какой из них применить — вопрос существующих потребностей фирмы.

  • Полный. Резервное копирование всех данных.
  • Инкрементный. Резервируются только новые или измененные данные.
  • Дифференциальный. Копируются все данные и файлы, которые изменились с момента последнего полного бэкапа.
  • Полный бэкап системы. Позволяет восстановить систему, какой она была в определенный момент времени, включая ОС, все приложения и данные.

Сегодня треть компаний в качестве площадки для резервного копирования выбирает не физические носители, а облака. Также существуют сторонние поставщики, такие как Acronis, Druva и Veeam, которые реализуют собственное облачное ПО для бэкапа и аварийного восстановления.

Обеспечение безопасности данных: что делать компании?

Один бэкап не поможет защитить данные от утечек, несанкционированного использования или намеренной модификации. Можно с  ужасом представить, что будет, если информация о финансовом состоянии фирмы, личные данные сотрудников и клиентов,  договоры с партнерами, документы, связанные с коммерческой тайной (одним словом все, что является конфиденциальной информацией), станет достоянием злоумышленников. Чтобы этого не случилось, для защиты конфиденциальности данных нужно внедрить особые меры предосторожности. Ниже мы расскажем о самых важных из них.

1. Обучайте сотрудников основам сетевой безопасности

Политика BYOD (от англ. Bring your own device – «Принеси свое собственное устройство»), которую все чаще внедряют современные компании, позволяет сотрудникам свободно работать в офисе со своих ноутбуков и мобильных устройств. Но отсутствие шифрования на этих девайсах или устаревшая операционная система может привести к утечке данных. В корпоративную сеть через незащищенные устройства также проникают вредоносные программы. Сотрудников нужно обучать методам сетевой безопасности, постоянно проводить тренинги и рассказывать о потенциальных угрозах (например, фишинге).

2. Создайте строгую политику BYOD

Конфиденциальная информация может храниться на личных устройствах сотрудников. Поэтому при использовании персональных устройств в офисе необходимо соблюдать определенные меры предосторожности. Нужно правильно настраивать конфигурации ПО, следить за обновлениями, вовремя устранять технические неисправности. Сотрудники не должны оставлять свои ноутбуки, планшеты и телефоны без присмотра в общественных местах.  А в случае кражи или пропажи устройства обязаны сразу сообщать об этом в отдел безопасности. Кроме того, будет полезным применять на таких устройствах шифрование жесткого диска.

3. Шифруйте данные

Ключевой мерой защиты данных является шифрование, при котором цифровые данные, программное/аппаратное обеспечение и жесткие диски шифруются и, следовательно, становятся нечитаемыми для неавторизованных пользователей или хакеров. Защита корпоративной сети — важная составляющая безопасности данных информационных систем для всех организаций, независимо от их размера. Недостаточно шифровать данные только «в состоянии покоя». Для предотвращения несанкционированного доступа нужно также защищать каналы передачи информации. Поскольку при передаче данные могут попасть в «недобрые руки», перед отправкой их тоже необходимо шифровать.

4.  Используйте аутентификацию пользователей

Одним из наиболее часто встречающихся методов защиты данных является аутентификация пользователей корпоративных ИТ-систем. В качестве метрик проверки подлинности компании могут использовать идентификационные пароли и логины. В дополнение к этому иногда применяются методы, основанные на биометрии. Например, сканирование отпечатков пальцев, распознавание лиц или голоса. Местоположение пользователя также может одним из факторов аутентификации. Точки входа, отслеживание GPS и MAC-адреса — некоторые из вариантов, которые применяются в целях организации безопасности данных на предприятии.

5. Следите за безопасностью паролей

В большинстве случаев сотрудники используют слабые пароли для защиты данных в своей системе. В итоге это делает их учетные записи уязвимыми для хакерских атак и вредоносного ПО. ИТ-отдел должен разъяснять сотрудникам важность безопасных паролей, отслеживать их надежность на этапе создания. Также можно использовать менеджеры паролей. Они помогут генерировать сложные ключи и обеспечат их безопасное хранение.

6. Внедрите управление идентификацией и доступом

С помощью IAM  (англ. Identity and Access Management) компании могут обеспечить безопасный доступ ко всем своим данным. IAM вместе с технологией единого входа (SSO) помогает организациям правильно сопоставлять идентификаторы и  анализировать, кто, когда и к каким данным обращался. Соответственно, могут быть назначены группы пользователей, создан список деталей прав доступа для каждой из категорий, что значительно уменьшит вероятность утечки данных из компании.

Почему терять данные — опасно?

Последствия для предприятий, которые испытывают утечку данных, очень серьезны. Они сталкиваются с рядом проблем, на избавление от которых у них уходит много времени и средств. Вот только некоторые из них.

1. Потеря дохода

Потеря дохода в результате нарушений безопасности является распространенным явлением. Исследования показывают, что треть предприятий, которые сталкиваются с утечкой данных, в конечном итоге теряют деньги. Любой серьезный инцидент, связанный с ненадлежащим обеспечением конфиденциальности данных, угрожает непрерывности бизнеса, приводит к незапланированным простоям и оттоку клиентов.

2. Репутационный ущерб

В большинстве случаев вам нужно, чтобы ваша конфиденциальная информация такой же и оставалась. Клиенты также ценят свою конфиденциальность и совсем не обрадуются, узнав, что их персональные данные утекли в открытый доступ. Вряд ли они потом доверятся бизнесу с  подмоченной репутацией.

3. Риск для интеллектуальной собственности

Когда мы говорим о киберпреступности, мы обычно представляем огромные финансовые потери или кражу личных данных. Однако любой, кто знаком со шпионажем, знает, что интеллектуальная собственность также является мишенью для злоумышленников. Если вы готовите выпуск нового продукта, утечка информации может стать решающей для дальнейшего существования вашего бизнеса.

4. Скрытые расходы

Судебные тяжбы, восстановление репутации, расследования инцидентов, усиление мер безопасности — за все это тоже придется платить, не говоря уже о повышения страховых взносов.

Чтобы обезопасить свой бизнес и не допустить неприятных ситуаций, важно заранее продумать стратегию data-безопасности. Она должна включать в себя несколько важных пунктов: резервное копирование, управление аутентификацией пользователей и правами доступа, строгую политику BYOD и план аварийного восстановления данных в случае инцидентов. И если ИТ-отдел перегружен другими задачами, можно  обратиться к поставщику нужных решений, который возьмет на себя часть ответственности за обеспечение сохранности данных вашего предприятия.

Управление сохранностью данных: как компании защитить себя?

Чем хорош DataOps и зачем его внедрять?

Известная стратегия DevOps (сокр. от англ. Development and Operations) нацелена на тесное взаимодействие разработчиков с другими специалистами компании. Ее задачи очевидны — сократить время выхода продукта на рынок, обеспечить его гибкость и непрерывную доставку, повысить качество сервисов да и в целом принимать обоснованные операционные решения. Мотивы применения нового подхода — DataOps — приблизительно такие же. Только здесь речь идет не о разработке ПО, а об аналитике данных. DataOps призван оптимизировать рабочие процессы, связанные с излечением инсайтов (ценных наблюдений) из проанализированных данных. Он также предусматривает налаживание продуктивного сотрудничества между командой data-аналитиков и другими отделами.

Для чего нужен DataOps?

Применение подхода DataOps позволяет руководителям более эффективно управлять своим бизнесом. С его помощью собранные и изученные данные превращаются в основу для принятия объективных решений. В этом процессе трудно переоценить роль технических специалистов, так как основное внимание нацелено на развитие практики управления данными, в том числе правами доступа, контроль качества анализируемой информации, повышение скорости и точности аналитики, автоматизацию и интеграцию необходимых операций.

Для внедрения DataOps могут потребоваться сразу несколько команд: например, команды разработчиков, операционистов, специалистов по безопасности и data-аналитиков. Разработчики продумывают логику и архитектуру приложений, операционисты выполняют их развертывание и мониторинг. Специалисты по безопасности определяют и контролируют политику доступа к данным, data-аналитики и инженеры готовят наборы данных, создают и тестируют модели машинного обучения для поиска ценной информации.

В целом компании ожидают от практики DataOps несколько весомых преимуществ:

  • улучшение сотрудничества между различными командами;
  • возможность быстро и эффективно реагировать на новые запросы;
  • обеспечение более качественной работы и поддержки;
  • мониторинг достижения целей компании в режиме реального времени;
  • возможность избежать аварий и неполадок, заранее прогнозируя их с помощью анализа данных;
  • повышение эффективности работы благодаря статистическому контролю процессов;
  • сокращение времени исправления ошибок.

Однако несмотря на ту выгоду, которую предлагает подход DataOps, компании все еще сталкиваются с некоторыми трудностями при его запуске.

На что обращать внимание?

Исследование NewVantage Partners, проведенное среди топ-менеджеров и технических директоров показало, что только 37% компаний, применяющих data-driven подход, могут похвастаться хорошими результатами. Наиболее распространенные проблемы — непонимание таких инициатив со стороны исполнительного руководства, проблемы комплаенса и общее сопротивление изменениям в компании. Тем не менее, для успешного внедрения DataOps-стратегии одного устранения этих трудностей недостаточно. Важно учитывать еще несколько, на первый взгляд не очевидных, но важных моментов.

1. Навыки data science и общие цели

В рамках подхода DataOps аналитики по сути сопоставляют бизнес-метрики с существующей информацией, на основании чего создают отчеты, которыми делятся с руководством. В этой профессии важны знания математики, в особенности линейной алгебры, статистики и теории вероятностей. Они незаменимы для построения моделей обучения и подбора алгоритмов, поэтому большинству техспециалистов для аналитических целей нужно развивать новый набор навыков. Хотя роль data-специалиста является одной из ключевых в реализации DataOps, другие подразделения бизнеса также должны вносить вклад в успешное внедрение этой стратегии и сосредотачиваться на общих целях компании, не ограничиваясь лишь стремлениями своих отделов.

2. Правильная и четкая интерпретация результатов

Тщательный отбор и анализ данных являются залогом успешной имплементации DataOps. Однако этого мало. Все полученные результаты должны быть приведены в понятный и удобочитаемый формат, который потом могут использовать менеджеры других отделов и руководители. Применяемые инструменты должны позволить всем сотрудникам осуществлять собственный анализ и создавать визуализации, чтобы потом делиться инсайтами с коллегами.

3. Соответствие нормативным требованиям

Важно, чтобы собранные и проанализированные данные соответствовали применимому законодательству и политике компании. Хотя грамотное использование информации является значительным преимуществом для бизнеса, сбор конфиденциальных, в том числе персональных данных, на обработку которых накладывается ряд ограничений, может стать источником дополнительных проблем.

4. Регулярный обмен знаниями

Как уже говорилось выше, DataOps подразумевает сотрудничество между подразделениями компании. По мере разработки метрик и в процессе анализа данных обмен знаниями и навыками между отделами поможет улучшить политику взаимодействия с данными на предприятии. В этом случае аналитика рассматривается с разных перспектив и позиций, что позволяет увидеть новые возможности для использования ее результатов. Это делает подход DataOps еще более практичным и полезным.

Отметим, что сейчас инструменты для анализа огромных массивов данных упрощаются и совершенствуются, что существенно уменьшает затраты компании. В связи с этим, определенным упущением было бы игнорирование пользы от бизнес-анализа данных для добавления ценности своему продукту. Примером хорошей реализации DataOps-подхода в этом контексте становятся популярные приложения, обрабатывающие большое количество данных в режиме реального времени, в основе которых лежат алгоритмы машинного обучения.

Заключение

С каждым годом появляется все больше организаций, использующих подход, ориентированный на данные. Однако для большинства из них процесс извлечения, преобразования, моделирования, форматирования и перемещения информации является труднореализуемым — слишком много ручных операций, ошибок и несоответствий. DataOps применяет концепции и принципы DevOps к обработке и аналитике данных. Результатом этого становится более гибкая, точная и автоматизированная работа с информацией, которая сводит к минимуму потерю времени и ресурсов компании.

Чем хорош DataOps и зачем его внедрять?

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT