| +11 голос |
|
Использование «больших данных» уже начинает менять бизнес и научные исследования, но предприятия должны быть подготовлены для того, чтобы удалось из этой информации получить конкурентные преимущества.
Новые сетевые устройства и приложения, в свою очередь компании хранить все большие объемы данных, наращивая объем хранилищ. Во втором квартале 2011 г., согласно IDC, мировые поставки систем хранения выросли на 30,7% и достигли объема 5429 петабайт, что превышиет рост сетей и больше, чем предусматривает закон Мура.
Как отмечает главный инженер и один из основателей Greenplum Люк Лонерган (Luke Lonergan), «большие данные» нуждаются в принципиально новых инструментах анализа. Регрессионные алгоритмы, используемые для расчета вероятности событий, на 30 ГБ данных могут потребовать для расчета 27 часов, а при использовании технологий распараллеливания на 32 ПК этот процесс займет всего минуту. Новые инструменты обработки должны уметь оперировать с данными разных источников (блоги, комментарии, пр. неструктурированная информация), и совершенно не такими методами как современные базы данных. Вероятно, это приведет к созданию принципиально новых платформ, из которых пока наибольшие перспективы у Hadoop.
По словам Пинга Ли (Ping Li), возглавлявшего Big Data Fund в венчурной компании Accel Partners, «платформы, которые позволят использовать потенциал «больших данных», еще предстоит создать. Обычные инструменты BI и ERP платформы адаптируются для крупных массивов данных, но они не позволяют работать с ними эффективно и не снимают задачу разработки принципиально новых продуктов».
Стратегія охолодження ЦОД для епохи AI
| +11 голос |
|

