Google отсортировал терабайт данных за 68 секунд на кластере Map/Reduce из 1,000 компьютеров (небось кластер из 4,000 ядер, но комментариев, чтобы спросить, на блоге нет). В среднем же в январе этого года объем данных, обработанных в гугловском Map/Reduce, составил 20 петабайт ежедневно.