Google отсортировал терабайт данных за 68 секунд на кластере Map/Reduce из 1,000 компьютеров (небось кластер из 4,000 ядер, но комментариев, чтобы спросить, на блоге нет). В среднем же в январе этого года объем данных, обработанных в гугловском Map/Reduce, составил 20 петабайт ежедневно. Яховский бенчмарк по сортировке терабайта внутри кластера Hadoop составил 209 секунд на 910 4-ядерных компьютерах.
Де і як компаніям необхідно укріпити свій захист
+22 голоса |