`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Как изменилось финансирование ИТ-направления в вашей организации?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Александр Черников

Big Data 2016-17: по возможности объективно

+66
голосов

C сентября 2008 г., когда термин «большие данные» появился в авторитетном журнале Nature, прошло уже семь лет. Основной вопрос, на который многим хотелось бы иметь ответ – а воз и ныне там? Вот как на него отвечает Gartner, которая сейчас готовится к проведению Symposium/ ITxpo 2015.

А у меня – Мандриан
«Собачье сердце»

Вы не любите кошек?! Да вы просто не умеете их готовить!

Наши постоянные читатели наверняка заметили, что мы всегда стараемся как можно более четко определять предмет, о котором идет речь. Давайте начнем с этого и в данном случае.

Мы также считаем вопросы, связанные с Big Data, важными для многих отечественных компаний. Целью этого текста является дальнейшее уменьшение разнотолков в области практического применения больших данных. Хотелось бы также, чтобы приведенные результаты исследования Gartner помогли руководителям бизнеса и ИТ более четко позиционировать себя на своей «дорожной карте» в пути к Big Data.

Big Data

На фоне множества определений Big Data, которые дают аналитики, бизнесмены и профильные (и непрофильные) журналисты в меру своего понимания, хотелось бы обратиться к определению Gartner. И если не принять его за основу, то, по крайней мере, принять к сведению. В оригинальном виде:

Big Data is high-volume, high-velocity and/or high-variety information assets that demand cost-effective, innovative forms of information processing that enable enhanced insight, decision making, and process automation.

Таким образом, давайте примем, что Big Data – прежде всего «информационный актив». Он требует ранее неизвестных и рентабельных форм обработки информации. Это необходимо для «проникновения в суть», принятия решений и автоматизации процессов. Обязательное условие – оперирование большими и очень большими объемами информации с высокой и очень высокой скоростью.

На наш взгляд, такое определение довольно исчерпывающе, – и вместе с тем достаточно понятно с точки зрения бизнеса. Было бы просто здорово, если бы в дальнейшем прекратились всякие спекуляции и домыслы в этой области и все понимали бы одинаково, о чем идет речь, когда говорят о «больших данных».

Big Data 2016-17

Основной, как теперь модно говорить, «месседж» пресс-релиза Gartner от 16 сентября по результатам очередного исследования, заключается в следующем: «В ближайшие два года более 75% компаний инвестируют капитал в направление ИТ, которое принято обозначать как Big Data (или, по крайней мере, запланируют это)».

Собственно, дело уже почти сделано в прошлом и текущем году.

Согласно прогнозу, инвестиции в Big Data продолжат увеличиваться в 2015 г., но не так быстро как в предыдущие годы – всего на 3% по сравнению с 2014 г. Дело здесь не в охлаждении компаний к данному направлению. Просто ведущие компании большинства информационно плотных рынков уже сделали это, и текущая фаза не может быть охарактеризована иначе, чем «подбирание хвостов».

Проведена большая работа по подготовке специалистов – прошло уже по крайней мере три выпуска бакалавров и магистров по Big Data. Уже также определились «лучшие практики». Стало почти понятно, сколько денег следует выделять на проекты Big Data и какими могут быть ожидаемые и действительные значения возврата инвестиций (ROI).

Опрос, о котором идет речь, Gartner провела среди 437 компаний-участников Gartner Research Circle Members в июне. Кроме того, он включал не только эти глобальные организации всех основных отраслей промышленности, но и крупнейшие компании, которые не являются постоянными респондентами Gartner.

Любопытно приведенное в отчете резюме по данному вопросу Ника Хайдекера (Nick Heudecker), директора по исследованиям Gartner.

«Темы, которые прежде определяли Big Data, – такие, как большие массивы данных (massive data volumes) и несоизмеримые источники данных (disparate data sources) больше не пугают компании. Они становятся вполне знакомыми им и даже обыденными. Это делает внедрение решений класса Big Data одной из господствующих тенденций последнего времени».

Выявились и основные прикладные области для Big Data. Среди компаний, которые вложили капитал в такие технологии, 70% хотят анализировать данные о местоположении (analyze location data) – клиентов, заказчиков и т.д., а 64% – анализировать свободно написанный (неструктурированный) текст.

Определились ключевые понятия, которыми в основном оперируют компании при работе с Big Data (в оригинальной терминологии):

  • enhancing the customer experience;
  • streamlining existing processes;
  • achieving more targeted marketing;
  • reducing costs.

Среди этих понятий, пожалуй, традиционно загадочным для бизнес-пользователей (уж который год) остается «customer experience». Уделим ему еще немного внимания, также используя определение Gartner.

Customer Experience

Big Data 2016-17 по возможности объективно

Customer Experience часто переводится у нас как «качество обслуживания клиентов». Это не совсем верно. Gartner говорит, что это – «восприятие клиента и связанные с ними его ощущения, вызванные одноразовым и совокупным эффектом взаимодействий с персоналом поставщика, системами, каналами или продуктами». В оригинальном виде:

Customer’s perceptions and related feelings caused by the one-off and cumulative effect of interactions with a supplier’s employees, systems, channels or products.

Как и в предыдущие годы, организации рассматривают усиление (повышение, расширение) Customer Experience как основную цель проектов Big Data (64% респондентов).

Process Efficiency и More-Targeted Marketing считают предназначением Big Data 47% компаний. Требования безопасности если и повышаются, то не слишком существенно – с 15% в 2014 г. до 23% в 2015 г.

Интересно и мнение Лайзы Карт (Lisa Kart), директора по исследованиям Gartner.

«Поскольку работа с Big Data сегодня становится довольно обыденным явлением, для аналитиков фокус смещается от проверки гипотез к непосредственному поиску источников дополнительной ценности (shifting focus from hype to finding value).

В то время, как постоянная проблема понимания ценности все же остается, на первый план выдвигаются уже практические задачи навыков, управления, финансирования и возврата инвестиций».

Надо сказать, однако, что вопрос возврата инвестиций далеко не прост, – и далеко не всем понятен (по крайней мере, когда речь идет о Big Data). 43% из тех, кто планирует вкладывать капитал в большие данные, и 38% из тех, кто уже сделал инвестиции, не уверены, что добьются приемлемых значений ROI.

Одно из наиболее существенных изменений в результатах опроса 2015 г. – должность в организации, которая инициирует проекты Big Data. В 2014 г. 37% таких проектов запускали и курировали CIO, а 25% – руководители подразделений (маркетинга, продаж и т.д.). В 2015 г. эти числа почти сравнялись – 32% и 31% соответственно.

Еще раз слово Нику Хайдекеру: «Бизнес-лидеры берут на себя более активную роль в информационных и аналитических проектах тогда, когда они начинают уверенно понимать, что Big Data даст их подразделению более высокую ценность решений, принимаемых на основе обработки данных (value of data-driven decision making)».

Таким образом, можно сказать, что корпоративный мир сегодня стоит на пороге осознанного и почти стандартного, хорошо описанного массового внедрения решений класса Big Data.

В заключение повторимся, что этот блог выходит в преддверии наиболее значительного в IT-мире «слета» CIO и других старших руководителей Gartner Symposium/ ITxpo 2015, который пройдет в Орландо 4-8 октября.

Работа с большими данными будет там одной из основных тем. Постараемся осветить это в соответствующем репортаже.

+66
голосов

Напечатать Отправить другу

Читайте также

Отличная статья!
Добавлю только что касается украинских реалий: у нас в основном пока интересно только снижение затрат (reducing costs).
Стоимость 1 ТБ данных в реляционной базе данных 50 тыс. долл, в Hadoop (Big Data) - 2 тыс. долл.
Разница в 25 раз в пользу Big Data.
Плюс Big Data требует простых серверов и использует open source ПО.
Препятствием к проникновению этой технологии является только отсутствие знаний и специалистов в Украине.

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT