+44 голоса |
Как всякая новая «Большая Вещь» концепция Big Data в последние два-три года является своеобразным маркетинговым тараном, применяемым в буквальном смысле для вышибания денег из потенциальных заказчиков. Но представление ее как «актуального бизнес-приоритета» сегодня, пожалуй, является некоторым преувеличением даже для стран с наиболее развитыми информационными технологиями
Поток публикаций и все новые предлагаемые области использования Big Data сделали свое дело – «панацея» на слуху, и все, что связано с «большими данными» уже кажется понятным и привычным. Между тем, за последние четыре года сами аналитики Gartner дважды меняли название отслеживаемой категории, пока пришли к окончательному названию «Big Data».
В 2010 г. это – «Extreme Transaction Processing», в 2011 г. – «Big Data and Extreme Information Processing and Management» (причем сам термин «Big Data» приводится еще в кавычках). Только в 2012 г. Big Data получили свое окончательное название как категория. Кроме того, далеко не все так уж прекрасно с продвижением и рациональным использованием Big Data.
Рис. 1. – Big Data на пороге «впадины разочарований».
Согласно Gartner, самые большие разочарования этого года, так или иначе связанные с Big Data, приходятся на Cloud Computing и In-memory Databases, которые в этом году (наряду с виртуальной реальностью) находятся на самом дне «Впадины обманутых ожиданий» (Trough of Disillusionment).
Поскольку на созревание Big Data и выход технологии на стабильную платформу продуктивности аналитиками Gartner отводится от 5 до 10 лет, то можно ожидать, что через год-два для нее наступит время стремительного падения популярности. Вместе с тем, как видно на верхних графиках, в 2014 г. Big Data окажутся на вершине «дутых ожиданий» (Peak of Inflated Expectations), которые частично оправдаются, видимо, только к концу десятилетия.
Как известно, гипоцикл вообще был придуман для демонстрации текущего уровня гиперболизации появляющихся технологий относительно реального уровня видимой на сегодня их полезности.
Например, для Cloud Computing и вычисления, и хранение данных в облаке воспринимаются клиентами в основном как экономически выгодные варианты, но… «организации немного разочарованы действительной достаточно высокой стоимостью Cloud Computing», как недавно сказал в интервью InformationWeek аналитик Gartner Ник Хайдекер (Nick Heudecker). Он же добавил: «Мы начинаем сегодня видеть некоторое сопротивление со стороны организаций, которые наконец поняли, что они, возможно, экономят не так уж много денег».
Это, в частности, объясняет, почему после громких медных труб и барабанов разговоры о Cloud Computing поутихли и сегодня не так уж много практических подвижек в этой области – тем более, в Украине.
Происходит это в основном потому, что использование чего-либо, приближающегося к Big Data, в облаке требует таких затрат на хранение и перемещение данных, что они могут превысить выгоды от удаленного компьютинга. Хайдекер сослался на прецедент потокового сервиса цифровых музыкальных записей Spotify, который, промучившись пару лет, в конце концов решил построить собственное локальное (on-premises) облако.
Еще одна цитата: «Облако имеет смысл, когда вы не можете предсказать свою загрузку данных или свои требования к производительности системы. Но как только у вас есть предсказуемая рабочая нагрузка, и вы можете легко оценить, в каких ресурсах будете нуждаться, облако становится гораздо менее привлекательным».
Хайдекеру вторит Роб Розен (Rob Rosen), руководитель направления Big Data в компании Pentaho (open source provider of reporting, analysis, dashboard, data mining and workflow capabilities), который сказал, что «Облако – великолепное место для прототипирования и построения концепта архитектуры. Но как только все заработало и объемы данных и вычислений начинают увеличиваться, компании начинают получать ежемесячные счета, которые заставляют их сказать – эй, обождите, может, пора перенести все это на свою площадку»?
То же касается In-memory Database. Эта технология привлекла большое внимание за счет рекламируемых выгод быстрой работы (fast performance), упрощенной инфраструктуры (simplified infrastructure) и требований к потребляемой мощности (power requirements).
Вопросы появляются, когда речь заходит о поддержке аварийного восстановления (support for disaster recovery), высокой доступности (high availability), имеющемся наборе инструментов для работы с базой данных (database tooling), и создании команды разработки приложений.
Согласно Gartner, положение существенно не изменится в следующие два-пять лет, а возможно и более, в зависимости от используемой СУБД. Платформа SAP HANA, Aerospike, акселератор IBM BLU для DB2, Microsoft SQL Server 2014, разработки Oracle – все это до сих пор окончательно не вышло из бета-стадии.
Другие технологии, связанные с Big Data и отраженные в гипоцикле, включают SQL-интерфейсы Hadoop и Internet of Things, которые сейчас подбираются к пику дутых ожиданий, и несколько разновидностей social analytics, которые стремительно опускаются во впадину разочарований.
Тем не менее, согласно Gartner, латентный период созревания целого ряда технологий, связанных с Big Data, относительно скоро закончится и в последующие несколько лет следует ожидать существенных изменений и перекраивания рынка.
Поэтому, не умаляя значения направления, хочется сделать следующие выводы:
- Учитывая неопределенное состояние технологий, связанных с Big Data, в Украине сейчас были бы полезнее не маркетинговые мероприятия (что мы наблюдаем и текущей осенью), а семинары по изучению соответствующих продуктов и «лучших практик» внедрения в различных отраслях.
- Более предметный разговор о преимуществах и недостатках Big Data следовало бы перенести на год-два, когда, скорее всего, и определятся области для использования «больших данных» в украинских реалиях.
Ready, set, buy! Посібник для початківців - як придбати Copilot для Microsoft 365
+44 голоса |
Александр,
вы написали:
Согласно Gartner, самые большие разочарования этого года, так или иначе связанные с Big Data, приходятся на Cloud Computing и In-memory Databases
А у Гартнера на графике: In-memory Analytics
К тому же отчет Гартнера вышел в июле и фраза про "не вышло из бета-тестирования" устарела :)
Oracle на Oracle Open World представил In-memory Databases, об этом уже писали. в т.ч. и на КО. И это не бета ;)
Про дутые пузыри...это философское...всё у нас такое. Но объемы данных растут, с этим никто не спорит..и всем с такими объемами нужно работать или начать думать, как будем работать.
А почему Вы уверенны что "это не бета" ?
Бета-тестирование (англ. beta testing) — интенсивное использование почти готовой версии продукта (как правило, программного или аппаратного обеспечения) с целью выявления максимального числа ошибок в его работе для их последующего устранения перед окончательным выходом (Релизом) продукта на рынок, к массовому потребителю.
А у Oracle данный продукт уже с начала осени 2013 в официальном прайсе и продается массовым потребителям.
А как этот продукт называется?
Я говорил об этом в своей статье недавно:
http://ko.com.ua/po_sledam_oracle_openworld_2013_92114
Там и ссылка на оригинал.
Хотя помимо этого продукта у Оракла есть еще две In-memory Databases:
1. Times Ten - основа для Exalytics.
2. Endeca - продукт для работы с неструктурированной информацией (Big Data).
Оба эти продукта тоже уже давно продаются (несколько лет) и тоже вышли из возраста бета-тестирований :)
Ну зачем сразу "помимо этого" - давайте закончим с
Oracle Database In-Memory Option.
В прайсе нет, в промышленных дистрибутивах нет.
Обещают в следующем году (возможно).
А Ваше высказывание "Times Ten - основа для Exalytics" мне понравилось.
Да, вы правы - Oracle Database In-Memory Option еще нет в прайсе.
У Оракла там Oracle Database In-Memory Cashe - работает на основе TimesTen.
По поводу основы для Exalytics - на самом деле Exalytics может работать без Times Ten, а например с Endeca. Но я видел статистику использования Exalytics - там на каждые 100 продаж Exalytics - 3 используется с Endeca, а остальные 97 - с Times Ten - in-memory database, которая позволяет обычный оракловский БИ "делать" in-memory.
Приведу эту статистику (количество использований Exalytics на каждую сотню внедрений):
чистый BI - 41
BI и бюджетирование - 23
BI on DWH - 17
BI Apps - 12
Endeca - 3
BI & ERP - 3
BI & SAP - 1
Видно, что это уже давно не "бета-тестирование" in-memory databases, а массовое использование.
Добрый день, Александр, Борис.
Спасибо за поправку, Александр.
Разумеется, я проверил текущее состояние указанных продуктов.
Хотелось бы только отметить, что для продуктов такого уровня после формального окончания бета-тестирования сама начальная стадия "втягивания" в продукт продолжается еще некоторое время и требует, по крайней мере, нескольких патчей.
Многие практики подтвердят, что после официального выхода продукта разумно подождать еще некоторое время, а не бросаться в первопроходческую лихорадку.
Именно об этом и говорят два пункта, завершающие блог. А к Большим Данным, ИТ, конечно придут -- правда, к тому времени нынешние объемы будут казаться не такими уж и большими :)
Вот еще "информация к размышлению":
www.clabbyanalytics.com/uploads/BLU.pdf
Research Report
"IBM DB2 BLU Acceleration vs. SAP HANA vs. Oracle Exadata"
от сентября сего года.
Т.е., аналитики только начали проводить сравнительный анализ решений (даже не "историй успеха"). А компании-разработчики уже естественным образом приходят к потенциальным заказчикам, говоря о преимуществах именно своего товара.
Еще раз скажу - сейчас время изучения, а не внедрения наперегонки.
Александр, это очень рекламное исследование :)
В нем рассказывается как "IBM beat SAP на 13%" и т.п. :)))
Насколько я знаю, IBM DB2 BLU Acceleration появилась в июле 2013 г. и действительно без еще "историй успеха".
В то время как SAP HANA и Oracle Exadata уже продаются несколько лет и имеют сотни, если не тысячи клиентов.