`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Как изменилось финансирование ИТ-направления в вашей организации?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Масштабируемость производительности Pentium 4: возвращаемся к истокам

0 
 

Времена, когда выход каждого нового процессора или модификации "старого" с более высокой частотой работы воспринимался как событие, достойное стать "темой номера", а сам новичок подвергался детальнейшему "осмотру и разбору" и тестировался по полной программе, -- эти времена давно прошли. Однако процессоры все-таки выходят, и довольно часто, и оставлять факт их появления совсем без внимания -- неправильно. Поэтому мы всегда стараемся придумать что-нибудь "эдакое"...
На этот раз в качестве "эдакого" мы решили исследовать зависимость производительности процессора Pentium 4 от частоты. К слову, недавно вышедший Pentium 4 3,2 GHz предрасполагает своей частотой к подобному исследованию, поскольку именно эта модель обладает в два раза большей частотой, чем самый низкочастотный процессор, выходивший в этой линейке, -- Pentium 4 1,6 GHz. С момента выхода Pentium 4 успел "вырасти" по данному параметру ровно вдвое! Замечательный повод, чтобы сравнить производительность самого младшего и самого старшего CPU в линейке, не так ли?


Масштабируемость производительности

Масштабируемость производительности Pentium 4 возвращаемся к истокам
Масштабируемость производительности Pentium 4 возвращаемся к истокам
Масштабируемость производительности Pentium 4 возвращаемся к истокам
Масштабируемость производительности Pentium 4 возвращаемся к истокам
Масштабируемость производительности Pentium 4 возвращаемся к истокам
Масштабируемость производительности Pentium 4 возвращаемся к истокам
Под этим термином (как это часто бывает в IT-сфере, "не очень правильным по сути, но уже прижившимся де-факто") мы привыкли понимать величину прироста быстродействия от повышения частоты работы ядра в рамках одной процессорной архитектуры при прочих равных характеристиках сравниваемых CPU. Для начала попытаемся разобраться даже не с сутью самого термина, а с тем, зачем он нам нужен. Самый простой и очевидный ответ: чтобы правильно спланировать модернизацию компьютера (upgrade). "И что, это все? -- спросят читатели. -- Неужели масштабируемость интересна только тем, кто планирует покупку более высокочастотного процессора?". Разумеется, не только. Более того, с нашей точки зрения такая "приземленная" трактовка вопроса на самом деле неправильна -- в основном масштабируемость интересует нас по совсем другим причинам. Самая главная из них -- оценка перспектив архитектуры. Когда встает вопрос о замене в системном блоке процессора с частотой 2000 MHz на его аналог с частотой 2500 MHz -- это уже, как говорится, "приехали" -- либо такая замена приведет к увеличению общего быстродействия системы, либо не приведет. Если не приведет, проблема никуда не исчезнет, и мы будем вынуждены искать другие способы решения задачи. Возможно, придется менять систему в целом, возможно -- увеличивать их количество и т. д. и т. п.

Однако сам факт возникновения такой ситуации, когда модернизировать систему "малой кровью" оказывается невозможно, -- уже свидетельствует о том, что либо в момент покупки о последующей модернизации никто не думал, либо... была неверно оценена масштабируемость, или таковая оценка не производилась вообще! А как же иначе? Если заранее известно, что у текущего процессора X с частотой 2000 MHz производительность всего на несколько процентов выше, чем у предыдущей 1600-мегагерцевой модели, то уже понятно, что даже если частота его дорастет до 3...4...5 GHz, реально толку от этого никакого не будет. Следовательно, следует смириться с тем, что покупаемая система является "венцом творения" в рамках данной архитектуры и модернизации в будущем не подлежит, по крайней мере в процессорной части. Таким образом, основной задачей, которую решает оценка масштабируемости быстродействия процессорной архитектуры с ростом частоты, является защита инвестиций пользователя. Звучит, конечно, несколько пафосно, но, тем не менее, именно так оно, по большому счету, и есть.

Теперь вернемся к самому понятию. Быть может, многие скажут, что мы в очередной раз объясняем достаточно примитивные вещи... Однако, как показала практика, иногда нужно заниматься и таким неблагодарным делом, потому что периодически накапливается "критическая масса" читателей, которые давнишний материал по тем или иным причинам не читали, а сами над затрагиваемыми вопросами не задумывались. В основном исключительно по причине собственной лени и отсутствия любопытства, но не нам их за это винить -- далеко не всем необходимы знания в этой области. Итак, нам нужно определить, насколько "перспективна" какая-либо процессорная архитектура. Для этого нам необходимо от чего-то отталкиваться, иметь перед глазами некий "идеал масштабируемости" -- недостижимый, но в то же время служащий эталоном. В нашем случае этот идеал прост: производительность идеально масштабируемой по частоте системы растет прямо пропорционально частоте, на которой работает ее процессор.

На практике способность процессора выполнять команды с определенной скоростью действительно растет прямо пропорционально частоте. То есть в условиях исполнения нулевого цикла масштабируемость всех без исключения современных x86 CPU в самом деле идеальна.

Проблемы начинаются "за пределами процессорного ядра". Связаны они прежде всего с тем, что во всех современных CPU применяется коэффициент умножения, благодаря чему ядро работает на намного большей частоте, чем процессорная шина. Основное неудобство такого подхода состоит в том, что данные и команды поступают в процессор со скоростью меньшей, чем он в состоянии их выполнять. Это приводит к тому, что, начиная с определенного момента, наращивание скорости (частоты) работы процессорного ядра перестает приводить к повышению быстродействия, а лишь увеличивает относительное время простоя. Именно этот аспект и является главным при оценке масштабируемости архитектур по частоте. Следует выяснить, не наступил ли у данной модели CPU "порог насыщения".

Однако нелишне помнить и о другой стороне медали -- влияние производительности процессора на общую производительность системы в зависимости от задачи может варьироваться в очень широких пределах. Иными словами, неправильно оценивать масштабируемость процессора путем замера скорости в какой-нибудь трехмерной "стрелялке" или (если уж совсем дурацкий пример подбирать) времени дефрагментации жесткого диска. С другой стороны, следует избегать и искушения "удариться в синтетику", ибо синтетические процессорные тесты, как правило, содержат достаточно большой объем вычислений при относительно малом объеме кода и данных, что фактически нивелирует влияние подсистемы памяти. В нашем же исследовании, наоборот, желательно его учитывать. Таким образом, лучше всего, с нашей точки зрения, для оценки масштабируемости подходят реальные задачи различного плана, активно задействующие центральный процессор. Именно их мы и использовали в данном тестировании.


Тестирование

Для тестирования нами были отобраны три процессора Pentium 4 -- 1,6 GHz (частота FSB 533 MHz, объем кэша второго уровня 512 KB, поддержка Hyper-Threading отсутствует), 2,4 GHz (частота FSB 800 MHz, объем L2-кэша 512 KB, поддержка Hyper-Threading отсутствует) и 3,2 GHz (частота FSB 800 MHz, объем L2 512 KB, поддержка Hyper-Threading). Все они устанавливались в одну и ту же системную плату -- Intel D875PBZ Desktop Board (чипсет i875P). Кроме того, система оснащалась 1 GB ОЗУ (2 512 MB DDR400 SDRAM DIMM). Состав тестовых приложений подбирался, как уже было сказано, с таким расчетом, чтобы, с одной стороны, все они зависели от производительности процессора, с другой же -- представляли самые разные классы задач.

В результате мы остановились на комбинации из 3ds max 5.1 + Brazil Rendering System 1.0 (традиционная для всех наших процессорных тестов группа "считалки-рендерилки"), на трех архиваторах (7-zip, WinRAR и кроссплатформенный BZip2), одной программе для компрессии мультимедийных данных -- Windows Media Encoder 9 (AVI-файл конвертировался в формат MPEG-4), и Adobe Photoshop 7.0, который так же, как и 3ds max, предназначен для работы с графикой, но "в несколько ином ключе". Все тесты проводились под управлением OC Windows XP Professional (SP1), поддержка Hyper-Threading даже на Pentium 4 3,2 GHz для чистоты эксперимента была отключена (по причине того, что более ранние процессоры, с которыми он сравнивался, не поддерживают эту технологию).

Также мы избрали несколько необычный формат представления результатов тестов. Как легко заметить, он один у всех диаграмм и является графиком, где на оси X "отложены" частоты процессоров Pentium 4, а на оси Y -- время исполнения задачи (чем меньше, тем лучше). Однако нам показалось вполне логичным и уместным ввести, кроме синей линии, показывающей реальный рост производительности, еще одну -- красную. Эта линия соответствует идеальному приросту производительности, т. е. отталкивается от результатов Pentium 4 1,6 GHz, а все следующие точки строятся по принципу: "Результат должен быть настолько лучше, насколько выше частота". Таким образом, красная линия позволяет нам визуально оценить "степень неидеальности" ситуации для каждого конкретного приложения.


3ds max 5.1

Почти идеальный график. Если недостижимую в реальности "абсолютную масштабируемость" принять за 100%, то результативность Pentium 4 2,4 GHz составляет порядка 97%. Итог в случае с Pentium 4 3,2 GHz несколько хуже -- его эффективность по отношению к идеалу -- около 77%. Это первый "тревожный звонок", однако давайте все-таки не будем забывать, что 100% КПД в природе просто не встречается и даже результат в 77%, по большому счету, может быть назван весьма существенным достижением.


Архиваторы

Ситуация самая сложная -- что, впрочем, было нами предсказано заранее путем чисто "натурфилософских" рассуждений: если самым тяжелым бременем для масштабируемости производительности является память, то соответственно программы, наиболее критичные к подсистеме памяти, покажут самую низкую масштабируемость результатов. Это предположение оказалось полностью верным -- в архиваторах все "достаточно грустно" -- даже Pentium 4 2,4 GHz отстал от идеала на 11--21% (в зависимости от типа программы), а Pentium 4 3,2 GHz иногда демонстрирует производительность, отстоящую от идеальной, более чем на 50%.


Windows Media Encoder

Почти совершенная диаграмма, однако общая тенденция все равно заметна: "эффективность" Pentium 4 3,2 GHz самая низкая. И все же процессору удается не пересечь рубеж в 70%, что обнадеживает -- в "нормальных" задачах, не предъявляющих повышенных требований к подсистеме памяти, новый процессор все еще показывает довольно существенный прирост производительности "на один мегагерц".


Adobe Photoshop

Курьезный результат у Pentium 4 2,4 GHz -- он лучше (!) "идеального"! На самом деле никакого чуда не произошло -- не будем забывать, что в данном случае более мощный процессор отличается не только возросшей частотой работы ядра, но и более быстрой процессорной шиной, так что он вполне может оказаться пошустрее "гипотетического", показатели которого рассчитывались на основании быстродействия CPU с медленной шиной. А вот Pentium 4 3,2 GHz никаких сюрпризов не преподнес -- неплохой результат, но без "чудес".


Выводы

Самое время вспомнить, что Pentium 4 3,2 GHz является, судя по всему (если Intel не поменяет планы), последним процессором на ядре Northwood. Следующее же ядро (Prescott) планируется оснастить 1 MB кэша второго уровня -- ровно в два раза большим, чем сейчас. Можно с довольно высокой степенью вероятности предположить, что вопросом масштабируемости задаемся отнюдь не только мы одни, более того, наверняка R&D-инженеры Intel имеют возможность проводить подобные тесты намного раньше. Как мы убедились, решение о переходе на новое ядро принималось, судя по всему, не только потому, что "пришла пора" или из-за готовности 0,09-микронного процесса к промышленному производству.

Скорее всего, не последнюю роль в принятии этого решения сыграли и "внутренние тестирования", в том числе нацеленные на выяснение темпов роста производительности при увеличении тактовой частоты ядра. Мы же можем только констатировать, что "эффективность" последнего Pentium 4 на ядре Northwood оказалась (как и следовало ожидать) самой низкой среди всех процессоров на этом ядре, но в среднем его КПД нельзя назвать "из рук вон плохим" -- это вам не Celeron 733 MHz на шине 66 MHz. Создается впечатление, что Intel заранее наметила себе некие цифры, на которых "следует остановиться", и действует в соответствии со своими планами. Насколько они окажутся удачными, мы сможем оценить, взглянув на результаты будущих Pentium 4 на ядре Prescott.

Процессоры Intel Pentium 4 предоставлены компанией K-Trade: тел. (044) 252-9222
и представительством Intel в Украине: тел. (044) 490-6417

0 
 

Напечатать Отправить другу

Читайте также

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT