Будущее процессоров: искусственное стимулирование или виртуальная реальность?

23 август, 2006 - 15:27Александр Корень

В практическом материале нынешней темы номера, посвященной процессорам, мы бы хотели коснуться трех вопросов: проанализировать, на чем же все-таки остановились «классические» одноядерные кристаллы, насколько они уступают в производительности двухъядерным чипам и каковы перспективы и тех и других в будущем.

Изрядно обжегшись на псевдоновых технологиях, за которыми стояли лишь маркетинговые ходы производителей, рядовые пользователи, похоже, решили не устраивать ажиотаж по поводу выхода новых продуктов (процессоров, чипсетов, видеокарт). Думаем, в таком подходе есть здравый смысл, – ведь если каких-то пять лет назад новое «железо» почти в любом случае означало лучшую функциональность и бóльшую производительность по сравнению с устройствами предыдущего поколения, то сейчас это утверждение далеко не всегда справедливо. Еще раз позволим себе повториться. 64 бита, большой кэш, новые наборы мультимедийных расширений, многоядерность, наконец, дают преимущества только в конкретных случаях и при определенных условиях, а не «везде и всегда», как это было, скажем, с увеличением тактовой частоты. При этом стоимость подобных нововведений несоизмеримо выше, чем их реальная отдача. Напрашивается очевидный вывод: чтобы Intel и AMD могли больше заработать, нужно либо увеличивать количество «случаев» и диапазон «условий», либо искать дополнительные формы стимулирования клиентов для применения новинок.

К сожалению, такие новые технологии, как многоядерность и/или 64-битовые расширения, не всегда соответствуют основной аксиоме компьютеростроения о том, что «главной движущей силой внедрения новых цифровых технологий являются развлечения».

Поскольку основная тема сегодня – многоядерность, рассмотрим доводы в пользу этой технологии с точки зрения производителей.

Ускорение работы многозадачных сред (Windows XP). Не станем спорить: в ПК на новых процессорах действительно можно быстрее переключаться между окнами приложений, выполнять больше независимых операций и т. д. Но есть и контраргумент: а много ли найдется пользователей, которые скажут, что им недостаточно производительности современного компьютера на базе одноядерного CPU для работы в среде Windows XP или любой другой ОС.

Одновременная работа нескольких ресурсоемких приложений. Обе компании любят демонстрировать диаграммы, скажем, со скоростью работы в Far Cry при запуске в фоновом режиме медиакодирования DVD в MPEG-4 и проверке системного диска на вирусы. Согласны, процессоры Dual Core имеют здесь ощутимое преимущество, однако возникает вполне логичный вопрос: «А часто ли используется такой режим на практике?» Уверены: не очень. В определенной мере подобная многозадачность, конечно же, может помочь сэкономить время, но, как показывает статистика, пользователи крайне редко одновременно запускают задачи с высокой степенью важности.

Медиакодирование, работа с графикой, моделирование. Это именно те задачи, в которых многопотоковость – действительно важный инструмент увеличения производительности. Однако в домашних условиях медиакодирование задействуется не слишком часто, а для профессиональной сферы создание мультиядерных CPU скорее можно рассматривать как «ту же скорость, но за меньшие деньги», потому что ранее для подобных приложений применялись мультипроцессорные конфигурации.

Аппаратная виртуализация ресурсов. Самая таинственная «фишка» многоядерных процессоров. После появления двух видеокарт в одном компьютере, двух ядер в CPU, двух каналов памяти и т. д. стало ясно, что производительность такого ПК чаще всего является избыточной. В результате решили попробовать, а почему бы из одного компьютера не сделать «два», а то и больше путем установки программной «прослойки» между аппаратной частью и ОС. Если подобная технология действительно станет массовой, у нее есть шанс быть полезной, однако говорить об этом пока рано.

Прежде чем комментировать результаты тестирования, давайте обсудим, какими же техническими усовершенствованиями нас будут радовать новые семейства процессоров: Core 2 Duo от Intel и Athlon 64 X2 в исполнении Socket AM2 от AMD.

Intel – максимум на грани возможностей

Уже ни для кого не секрет, что на сегодняшний день наиболее производительными десктопными процессорами по совокупности характеристик являются Core 2 Duo. Однако благодаря чему Intel удалось достигнуть таких результатов?

Процессорная шина Core 2 Duo работает на эффективной частоте 1066 MHz, что соответствует полосе пропускания 8,5 GBps. Напомним, что она получила распространение еще с первыми моделями Pentium 4, но полагаем, что не все читатели знают о том, что максимальная частота, на которой сохраняется ее работоспособность, составляет порядка 1200 MHz (при реальном значении 300 MHz). В связи с этим позволим себе предположить, что дальнейшего роста этого немаловажного параметра мы вряд ли дождемся. Попытка внедрения граничного значения 1200 MHz даже в экстремальную серию Extreme Edition кажется весьма сомнительной – Intel наверняка не пойдет на такой шаг ввиду сложностей с ее технической реализацией и необходимости признания того факта, что это невозможно.

Усовершенствованию подверглась кэш-память: 64 KB L1-кэш действительно очень существенно повлиял на увеличение производительности, однако при текущем техпроцессе дальнейших изменений в этом направлении не предвидится. L2-кэш вообще достиг «эпического» размера 4 MB, что уже можно назвать пределом для большинства десктопных задач. Последующий рост данного параметра (скажем до 6 или 8 MB) не принесет дивидендов в плане производительности, если речь не идет о серверном применении, но существенно увеличит тепловыделение и размер кристалла. Каким же образом возможно повышение быстродействия? Ответ напрашивается только один – увеличение тактовой частоты и, соответственно, ужесточение технологических норм производства.

Сегодняшнего 65-нанометрового процесса наверняка хватит для беспроблемного достижения (в случае необходимости) значения в 3 GHz, а вот боóльшие частоты уже под вопросом. Хотя и это существенный запас по производительности, так что AMD придется весьма постараться, чтобы приблизиться к подобным результатам.

AMD – потеря текущих позиций для увеличения потенциала

Компания совсем не зря оттягивала до последнего перевод своей платформы на DDR2. Как оказалось впоследствии, причина тому отнюдь не в технологической сложности, а, скорее, в самой целесообразности этого шага. Большим преимуществом отработанного двухканального контроллера DDR400 было и остается чрезвычайно малое время доступа к памяти. Внедрение DDR2-533 ухудшило данный показатель, обеспечивая при этом боóльшую полосу пропускания, которая далеко не всегда используется на все 100%. Как мы уже неоднократно говорили, другого выхода у AMD просто не было, и последним официально зафиксированным стандартом «обычной» DDR по JEDEC стал именно DDR400, так что дальше в этом направлении, по сути, некуда двигаться.

Какова же ситуация на сегодня? Теоретическая полоса пропускания процессорной шины у Athlon 64 X2 равняется 8 GBps, аналогичную производительность имеет двухканальный контроллер памяти DDR2-533 (8,5 GBps), так что максимально целесообразным режимом работы подсистемы памяти для данной платформы станет DDR2-667 (10,5 GBps). Дальнейшее увеличение пропускной способности памяти DDR2-800 (12,8 GBps) или даже DDR2-1000 (16 GBps) явно не имеет смысла. Поэтому следующим этапом для роста быстродействия станет ускорение процессорной шины Hyper-Transport, благо для этого есть все возможности. Данная последовательная шина еще не приблизилась к своим технологическим ограничениям, поэтому очень скоро мы сможем увидеть HyperTransport 2 с частотой 1200 MHz (пропускная способность 9,6 GBps), а со временем и 1600 MHz (12,8 GBps), и, соответственно, существенный рост скоростных показателей.

Новейшей моделью Athlon 64 X2 из доступных на сегодняшний день является 5000+, оснащенная 2×512 KB L2-кэш, так что легко ожидать появления в ближайшее время 5200+ с вдвое увеличенным кэшем (однако предположим, что этого окажется недостаточно для успешной конкуренции с топовыми продуктами Intel). Также возможно, что AMD удастся получить 2,8 GHz на существующем процессе с допуском 90 нм, но это значение уже точно станет пределом, а мы все привыкли к «трудностям перевода» процессоров Athlon на следующую ступень технологических норм, а значит, вероятен застойный период где-то под конец текущего года.

Обе компании по-прежнему движутся вперед разными путями. У Intel более понятная стратегия с достижением результата «здесь и сейчас», однако менее перспективная. У AMD, наоборот, больше шансов опередить Intel в будущем. Так что посмотрим, кто сможет лучше реализовать свое преимущество. Вот на этой оптимистической ноте можно переходить к заключительной части нашего материала – результатам тестирования и подведению итогов.

Подведение итогов

В процессе подготовки тестирования мы долго обсуждали, какие же процессоры должны принять в нем участие. С одной стороны, данным материалом мы завершаем обзоры одноядерных CPU, а посему неплохо было бы включить их типичных представителей (имя которым легион), с другой – обсуждаем приход двухъядерных вычислителей на массовый рынок. В результате было решено взять топовые версии самых распространенных поколений процессоров Pentium 4 и Athlon 64 и сравнить их с наиболее производительными решениями архитектуры Dual Core. Такой подход, по нашему мнению, позволит определить от чего и к чему мы идем, сохраняя при этом информативность и «полезность» приведенных показателей.

Будущее процессоров искусственное стимулирование или виртуальная реальность?
Будущее процессоров искусственное стимулирование или виртуальная реальность?
Будущее процессоров искусственное стимулирование или виртуальная реальность?
Будущее процессоров искусственное стимулирование или виртуальная реальность?
Будущее процессоров искусственное стимулирование или виртуальная реальность?
Будущее процессоров искусственное стимулирование или виртуальная реальность?
Будущее процессоров искусственное стимулирование или виртуальная реальность?
Будущее процессоров искусственное стимулирование или виртуальная реальность?
Будущее процессоров искусственное стимулирование или виртуальная реальность?

Классический тест, определяющий вычислительный потенциал процессора CPU RightMark 2005, продемонстрировал, что новое ядро от Intel действительно способно на многое: налицо огромный прирост быстродействия при использовании инструкций SSE2/SSE3. Чипы AMD всегда были сильны в «математике», но сейчас существенно уступают Core 2 Duo. Обратите внимание, самая старшая модель из линейки Pentium 4 обладает почти вдвое более слабым модулем FPU, чем E6700. Диаграммы, отображающие разницу в результатах программного рендеринга, отчетливо зафиксировали, что даже в однопотоковом режиме ядро, применяемое в Core 2 Duo, значительно быстрее, чем в Athlon 64 X2 (тест CPU RighrMark как раз и примечателен тем, что способен отобразить чистую производительность без участия подсистемы памяти и даже L2-кэша). Интересное наблюдение: относительный прирост от использования многопотоковости у конкурентов практически одинаковый. О Pentium 4 и одноядерном Athlon 64 можно сказать, что они показали неплохие результаты, однако только до того времени, пока не применяются несколько параллельных веток исполнения. Архиватор 7-Zip задействует сложные алгоритмы кодирования с объемным словарем, поэтому неудивительно, что Core 2 Duo с такими высокопроизводительными вычислительными блоками и огромным кэшем оказался вдвое быстрее недавнего чемпиона Athlon 64 3800+, даже новый 5000+ отстал от лидера почти на 50%. Для сложных игр с использованием высокопроизводительных видеокарт большинство современных процессоров оказывались «бутылочным горлышком», но, как показали тесты в Quake 4, новый топовый продукт от Intel и здесь смог существенно изменить ситуацию. Во встроенном тесте F.E.A.R. видно, что все процессоры продемонстрировали примерно одинаковые результаты.

Интересные показатели наблюдаются в новом наборе скриптов от независимого производителя тестов компании SPEC. В пакетах 3D-моделирования огромное значение имеют оптимизация кода, объем L2-кэша, а также скорость подсистемы памяти. Легко можно заметить, что для программы Maya более предпочтительными являются процессоры Intel. Так, даже Pentium 4 смог обогнать новейшего представителя семейства Athlon 64 X2. Зато в 3dsmax результаты более ровные, однако по-прежнему лидер – E6700. Достаточно странные результаты получились в предварительных настройках, эмулирующих работу пакетов CAD/CAM. Аномально низкие показатели Athlon 64 5000+ можно объяснить только какими-то проблемами с совместимостью, опять-таки видна явная оптимизация под процессоры Intel.

Очередной раунд «гонки вооружений» закончился тотальным преимуществом Intel, однако делать однозначные выводы явно преждевременно – новые двухъядерные процессоры от Intel и AMD еще не стали массовыми, и неизвестно, как будут обстоять дела с ценами и доступностью. Но тот факт, что интенсивный рост производительности по-прежнему продолжается, не может не радовать.

Конфигурации тестовых систем
Процессор Intel Core 2 Duo E6700, 2,66 MHz Intel Pentium 4 661, 3,6 GHz AMD Athlon 64 X2 5000+, 2,6 GHz AMD Athlon 64 3800+, 2,4 GHz
Материнская плата Intel D975XBX (i975X) ECS KA3MPV Extrime (nForce5) MSI K8N SLI (nForce4 SLI)
Память Super Talent DDR2-533 2 GB Corsar DDR400 1 GB
Видео ATI Radeon X1900 512 MB
Жесткий диск Seagate ST3400832NS 400 GB
Блок питания SeaSonic SS-600HT 600 Вт WinFast FA-480A 480 Вт
OC Windows XP Professional SP2, DirectX 9.0c