`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Как изменилось финансирование ИТ-направления в вашей организации?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

ATI vs. NVidia: арена -- DirectX 9

0 
 

"Долгие роды в муках", сопровождавшие появление на свет нового поколения графических чипсетов, закончились. "Ребеночка" (а точнее, не одного, а целую тройню) наконец-то показали миру. Акселераторы семейства GeForce FX уже доступны не только представителям тестовых лабораторий, но и простым смертным, т. е. покупателям. Однако все мы помним, в какой стране живем и как быстро к нам попадают новинки... Одновременно с GeForce FX к нам добралась и новая линейка DX9-акселераторов от ATI. Чем не повод поставить их рядом?
Можно без преувеличения сказать, что GeForce FX на протяжении нескольких месяцев был одним из самых ожидаемых продуктов. От одного перечисления спецификаций у понимающих захватывало дух, а заложенные в графический процессор возможности обещали нечто фантастическое -- едва ли не очередной переворот в 3D-графике, после которого все прежнее покажется работами примитивистов. Тестеры в нетерпении потирали руки, фанаты запасались кровно заработанными на покупку нового "чуда техники" от NVidia... А остроухая полуодетая девочка-эльф (анимированный 3D-персонаж из "технологического демо" от NVidia для серии GeForce FX) успела стать чуть ли не главным символом "светлого будущего" мира 3D.

Но час пробил, начали появляться данные о производительности GeForce FX... затем о ценах на карты... и компьютерный мир в недоумении пожал плечами: за такое быстродействие вы хотите столько денег?! Даже ярые поклонники NVidia с трудом решались выкладывать по $450--500 за первые карты на GeForce FX. Дело осложнялось еще и тем, что NVidia резко решила "перепрофилировать" GeForce FX, пустив основную массу чипов в производство профессиональных акселераторов Quadro. В общем, ожидаемого фурора явно не получилось.

Тем временем ATI, и до этого не дававшая NVidia спокойно почивать на лаврах, без лишнего шума выпустила ряд новых продуктов. Выяснилось, что старший из них, Radeon 9800 Pro, порой без особого труда обходит конкурента, оказываясь при этом еще и дешевле. Помимо этого, ATI отличилась плодовитостью, выпустив еще несколько новых чипов и переименовав часть старых. В итоге образовалось "полное покрытие" рынка графики, но разобраться в нем самому без толмача теперь уж точно стало не под силу.

Собственно, такому "толмачеству" и посвящено наше очередное тестирование. Благо, все необходимое для этого имеется -- карты на всех новых чипах ATI и NVidia уже появляются в продаже в Украине. Перед походом в магазин за новым акселератором, да и просто "для общего развития" хорошо бы составить некоторое представление о том, кто же из них что собой представляет.



Джон Сильвер сказал бы, что NVidia "бросало, как маркитантскую лодку" в процессе выпуска чипсета, который "привнесет кинематографическое качество в 3D". Все мы хорошо помним достаточно частые смены позиции этого разработчика -- его заявления "колебались" от весьма оптимистичных и бравурных анонсов нового ядра, которое (в какой раз!) перевернет мир 3D-графики, до осторожного "Выпустим, но позже. Техпроцесс не отлажен". И вообще на вопрос "когда?" вполне вероятно было получить исчерпывающее "When it's done!". Но ничего, все уже давно привыкли к "долгостроям" в компьютерной индустрии, и только лишь законченные оптимисты до сих пор верят, что сроки выпуска в анонсах производителя имеют хоть что-то общее с реальными датами выхода продукта на рынок.

ATI vs. NVidia арена -- DirectX 9 Главное в другом: в конце концов NVidia "докатилась" до того, что во всеуслышание заявила -- "Quadra вам, а не GeForce FX!". То есть для потребительского рынка это ядро будет выпущено ограниченным тиражом для эксклюзивных продуктов. А основная масса новых чипов пойдет на рынок профессиональных ускорителей. Ждали-ждали и дождались... Действительно, как в хорошем кино -- никто заранее не может предсказать концовки. Будем считать, что первый "кинематографический эффект" NVidia удался еще до выпуска FX.

Скорее всего, такие странности были связаны не только со сложностью разработки этого чипсета и освоения нового техпроцесса. Немалую роль здесь сыграла и компания ATI, в прямом смысле обеспечившая NVidia "нарушение цикла". Какого цикла? Полугодичного цикла выпуска очередных поколений графических процессоров. Первые "симптомы" возникли еще во времена GeForce3. А уж с выходом Radeon 9700 Pro, после которого NVidia вдруг поняла, что ее имя и определение "самый быстрый акселератор" уже не являются синонимами, и вовсе наступил "рецидив"...

Технические характеристики видеочипов
Оборудование на тестирование предоставлено компаниями
Но на этом все не закончилось. Канадский разработчик продолжал "добивать" своего конкурента -- Radeon 9700, Radeon 9500/9500 Pro, возвращение обновленного Radeon 8500 под именем Radeon 9100, больше и больше набирающая популярность у пользователей серия Radeon 9000. А крыть все это нечем: GeForce FX как находился в лабораториях разработчика, так и продолжал там оставаться. В свое время достаточно успешная серия GeForce4 Titanium даже с "за уши притянутым" AGP 8Х уже никак не могла конкурировать с новыми чипсетами ATI в верхнем секторе. А в нижнем... Ну, многие все еще продолжали покупать MX440, но таких становилось все меньше и меньше. Однако главное заключалось в том, что впервые ATI обошла своего конкурента не в нижнем и даже не в среднем, а в верхнем ценовом диапазоне! Разумеется, ее противники вовсю маршировали с плакатами "Даешь GeForce FX!", убеждая всех (в первую очередь самих себя) в том, что с выходом этого ядра так неожиданно начавшийся праздник в лагере ATI очень быстро закончится и NVidia в очередной раз докажет всем, кто же правит рынком 3D.

И, казалось бы, невозможное свершилось -- эта компания не обманула ожиданий своих поклонников (ну, разве что заставила их подождать чуть больше разумного). Мало того, она "выстрелила" сразу целой серией модификаций GeForce FX, видимо, рассчитывая одним махом наверстать все упущенное за это время.


GeForce FX крупным планом

Для начала рассмотрим всю серию акселераторов GeForce FX.
  • GeForce FX5800 (NV30). Именно то ядро, с которого все и началось. Самая старшая модель в линейке, до последнего времени топовый чип NVidia. Единственная на сегодняшний день игровая видеокарта, оснащенная памятью DDR II.
  • GeForce FX5600 (NV31). Продукт среднего уровня, обладающий сниженными тактовыми частотами и уменьшенным числом текстурных блоков на конвейер.
  • GeForce FX5200 (NV34). Самая младшая модель, "DirectX 9 для бедных". Да-да, это все та же серия МХ, но в новом обличье: по сравнению с FX5800 частоты снижены, количество конвейеров уменьшено наполовину.
Каждая из вышеописанных модификаций имеет вариант Ultra с более высокими по сравнению с базовой моделью частотами ядра и памяти. Как видно из перечисленного, на сегодняшний день серия GeForce FX включает в себя шесть (!) различных вариантов чипсета NV30, покрывающих практически все сегменты рынка. Во времена GF4Ti модельный ряд верхнего уровня состоял только из трех продуктов, а подобным разнообразием могла похвастаться только бюджетная серия МХ (которая, к слову, имела отдаленное касательство к ядру NV25). Сейчас же NVidia заявляет, что все варианты GeForce FX построены на основе одного -- старшего -- чипа. Так ли это -- мы поговорим чуть ниже, а пока более подробно остановимся на особенностях архитектуры NV30.

ATI vs. NVidia арена -- DirectX 9
N31 (GeForce FX5600 Ultra)
ATI vs. NVidia арена -- DirectX 9
NV34 (GeForce FX5200)
Для начала -- это изменение технологического процесса с 0,15 мкм на 0,13 мкм плюс использование медных проводников. Это позволило увеличить число транзисторов на кристалле до рекордной величины -- 125 млн. Но, раз транзисторов стало больше, значит, и функциональность чипа повысилась? Разумеется. Итак...

По требованиям DX9 акселератор, поддерживающий этот API, должен иметь два геометрических и два растровых процессора. Новый продукт NVidia "несет на борту" 3 и 4 процессора соответственно. Причем растровые процессоры имеют по три ALU каждый: два -- для целочисленных операций и одно -- для операций с плавающей точкой.

Далее, как мы уже упоминали, поддержка памяти DDR II с шириной шины 128 бит. Контроллер памяти также был доработан. Кстати, схема его не изменилась -- это по-прежнему четырехканальный коммутируемый контроллер.

Улучшенный механизм анизотропной фильтрации, существенно снижающий потери производительности при его активации. Качество при этом страдает весьма незначительно. Кроме этого, появился новый режим анизотропии -- 8Х. Алгоритмы сглаживания также подверглись изменениям: добавлено два новых режима -- 8Х и 6хS.

Значительно повышена эффективность технологий экономии полосы пропускания видеопамяти. Теперь кадровый буфер полностью подвергается сжатию -- компрессируется как информация о цвете (исключительно при использовании MSAA) с коэффициентом до 4:1, так и Z-буфер (информация о глубине). Это позволило значительно снизить падение производительности при включении режима FSAA. Реализованы механизмы Early HSR, Early Z Cull -- т. е. сжатия и раннего отсечения невидимых поверхностей.

Увеличена точность как целочисленных, так и форматов с плавающей точкой до 10/16 и 16/31 бита на каждый компонент соответственно. Введена поддержка 128-битного цвета.

Ну и наконец, реализована гибко перепрограммируемая логика работы чипа с помощью языка Cg. Именно это, по мнению разработчика, упростит написание сложных шейдерных процедур и позволит реализовать ранее недоступные эффекты.

Это то, что касается NV30 в целом. А теперь хотелось бы немного поговорить об основных отличиях разных семейств друг от друга. В принципе, можно утверждать, что NV30 и NV31 практически идентичны за исключением частот и поддержки DDR II. Ну и, разумеется, уменьшение у NV31 либо числа конвейеров, либо числа текстурных блоков в зависимости от режима работы. Как мы говорили выше, новое ядро является перепрограммируемым и в разных ситуациях может динамически перераспределять количество конвейеров и TMU. К примеру, 4 2, 8 1 в случае с NV30 или 4 1, 2 2 в случае с NV31.

А теперь перейдем к NV34. Разработчик утверждает, что в его основе лежит NV30. Так-то оно так, но не совсем. Вернее, ядро-то в основе лежит, но как? Для начала сравним число транзисторов у NV30 и NV34 -- 125 млн. и 47 млн. соответственно. Разница почти в три раза! Не наводит ли это на размышления? Ну хорошо, можно списать это на уменьшение числа конвейеров и текстурников. Но ограничивается ли этим дело? Попробуем подумать.

Итак, единственная формула для NV34 -- это 2 2. Два конвейера, два TMU. Ни о каком гибком изменении их числа речь не идет. Соответственно, и никакой оптимизации под задачу. Это раз.

Кто может поручиться, что два конвейера и два TMU, грубо говоря, занимают 78 млн. транзисторов? Никто. Следовательно, нет гарантий, что в чипе не убраны еще какие-либо функциональные блоки, учитывая и заявление NVidia о том, что задачи распараллеливания вычислений шейдеров лучше выполняются на NV30 и NV31. Это два.

Отсутствие в NV34 возможности сжатия без потерь цветовой информации в кадровом буфере и Z-буфере. Отсюда -- снижение быстродействия при использовании механизмов сглаживания. Это три.

Ну и наконец, старый 0,15-микронный техпроцесс. В какой-то мере он, безусловно, просто не дал разместить на кристалле все необходимые блоки. Вернее, сколько могли, столько их и разместили. Но это еще не все: техпроцессом ограничивается не только возможная функциональность чипа, но и его тепловыделение, максимальные рабочие частоты (а значит, и способность к разгону). Это четыре.

В общем... Да никто и не ожидал от карты нижнего класса каких-то заоблачных характеристик. Но все это наводит на невеселые размышления. Учитывая то, что один "удачный МХ" (GF4 MX) мы уже видели...


А что у ATI?

ATI vs. NVidia арена -- DirectX 9
ATI R350
Как мы уже сказали в начале, этот производитель зря времени не терял: мало того, что пока ожидался GeForce FX, он успел "отхватить" достаточно большой кусок рынка производительных акселераторов, так на сегодняшний день ATI является своеобразным рекордсменом по покрытию этого рынка. Судите сами -- в настоящий момент в ее арсенале находится 20 (да, двадцать!) графических чипсетов и их модификаций.

Вначале этот материал задумывался как обзор GeForce FX. Однако пока искомый чипсет доехал к нам, параллельно с ним успели появиться три новых продукта компании ATI -- Radeon 9200, Radeon 9600 и Radeon 9800. Поэтому как-то сам собой обзор трансформировался из "театра одного актера" в противостояние современных DX9-акселераторов.

Давайте кратко остановимся на том, что же собой представляют новые чипсеты канадского разработчика. По правде говоря, "новыми" их вряд ли можно назвать. Скорее, несколько переработанными и исправленными версиями предыдущих ядер. Кроме этого, все чипы имеют версии Pro с повышенными частотами.

Radeon 9800. На сегодняшний день -- флагманский продукт ATI, приходящий на смену Radeon 9700. Почти полный аналог предшественника за исключением двух моментов -- реализации FIFO-stream buffer и оптимизации работы с буфером шаблонов. Последнее существенно увеличивает производительность при просчете динамических теней.

Остановимся подробнее на F-buffer. Данная технология представляет собой возможность ускорителя сохранять в своей локальной памяти все промежуточные значения параметров, возникающие при просчете шейдерной процедуры. При наличии оптимизированного компилятора это позволяет аппаратно выполнять шейдеры практически неограниченной длины. Причем вычисления производятся для целой области экрана, а не путем многопроходного построения изображения. Достигается это с помощью разбития шейдерной процедуры на фрагменты, каждый из которых, отработав, записывает рассчитанные цветовые параметры в F-buffer, откуда они считываются следующим фрагментом процедуры.

Недостатком этого чипсета можно считать устаревший техпроцесс, не позволяющий существенно наращивать рабочую частоту ядра.

Radeon 9600. Первый чип ATI, произведенный по 0,13-микронному техпроцессу. К чему это привело, видно на примере Radeon 9600 Pro: частота ядра достигла 400 MHz -- больше, чем у 9800 Pro. В остальном же это преемник Radeon 9500, представляющий собой "половину" ядра R300. Однако увеличение рабочих частот должно довольно существенно повлиять на производительность.

Radeon 9200. В принципе, исключительно "маркетинговый" чип. Это все тот же Radeon 9000, но с реализацией поддержки AGP 8Х. К слову, необходимость в ней он испытывал точно такую же, как и GeForce4 MX440-8X. Видимо, ATI справедливо посчитала, что "8Х" в маркировке карты никогда не помешает, даже если фактически эта шина чипсетом не востребована. Но и это еще не все -- продолжаются "игры с цифрами". Сначала Radeon 9000 получает индекс, больший, чем более производительный Radeon 8500 (впоследствии ситуацию исправляют путем переделки 8500 в 9100). Теперь же снова -- тот самый Radeon 9000 трансформируется в 9200 и опять "обходит" 9100...


Описание продуктов

ATI vs. NVidia арена -- DirectX 9
Club 3D Radeon 9800 Pro
ATI vs. NVidia арена -- DirectX 9
Atlantis Radeon 9600 Pro
ATI vs. NVidia арена -- DirectX 9
AOpen Aeolus FX5800
ATI vs. NVidia арена -- DirectX 9
ASUS V9560 Video Suite (FX5600)
ATI vs. NVidia арена -- DirectX 9
Gainward Ultra/760XP (FX5600 Ultra)
ATI vs. NVidia арена -- DirectX 9
MSI FX5200-TD128 (FX5200)
Ну а теперь самое время познакомиться с теми, кто будет представлять новые графические чипсеты в нашем материале. Как известно, чип сам по себе -- просто кусок кремния. Ускорителем он становится только лишь в составе такого "хитрого зверя", который получил название "видеокарта".

На сегодняшний день на рынке доступно уже достаточно большое количество продуктов на GeForce FX от различных производителей. Но так как, во-первых, это тест чипсетов, а не ускорителей, а во-вторых, скорость акселераторов разных марок на одном чипсете различается весьма незначительно, то для обзора мы выбрали по одному экземпляру от каждого поставщика.

Club 3D Radeon 9800 Pro. Карта выполнена по эталонному для этого ядра референс-дизайну. Поэтому по ней можно судить о том, как будет выглядеть Radeon 9800 в ближайшее время, пока производители не начнут выпускать собственные "изыски". В первую очередь обращает на себя внимание система охлаждения: по старой традиции ATI на радиаторе установлен малошумный низкооборотистый вентилятор. А вот радиатор имеет весьма оригинальную форму параллелограмма с закругленными углами. Практического смысла в такой конструкции ноль, но смотрится красиво. Следующий момент -- дополнительный разъем питания. На этой модели он перенесен несколько вглубь PCB, что может вызвать неудобство при отключении карты. Сама плата была существенно переработана по сравнению с Radeon 9700 ввиду увеличенной тактовой частоты.

Atlantis Radeon 9600 Pro. Эта модель производства Sapphire опять же обращает на себя внимание прежде всего охлаждающей системой. Для ядра, работающего на частоте 400 MHz, используется кулер, который чуть ли не меньше, чем на северном мосту чипсета материнской платы! Вот что значит переход на новый техпроцесс... В остальном же, не считая измененной разводки PCB, карта ничем не выделяется. Собственно, Sapphire никогда особо не отличался, а просто делал очень качественные, "красивые" продукты. Не больше, но и не меньше.

AOpen Aeolus FX5800. А вот этот монстр вызывает уважение: его масса -- чуть ли не полкилограмма! Более чем внушительные радиаторы на памяти привели к тому, что карта занимает два разъема на задней панели ПК (по-другому она могла бы просто вырвать слот AGP). В принципе, эта модель полностью копирует референсный дизайн NVidia, поэтому искать в ней что-либо особо примечательное не стоит. Отметим только, что вентилятор на ядре снабжен автоматическим регулятором вращения. Если карта работает в "легком" режиме, он снижает обороты, при запуске 3D-приложений -- повышает. Это позволяет значительно уменьшить шум в то время, когда не используются "тяжелые" приложения.

ASUS V9560 Video Suite. Данная модель построена на чипсете GeForce FX5600. Это без преувеличения самый "навороченый" продукт теста. Куда ни кинь взгляд, везде явно видно желание "выделиться" -- это и радиаторы на плате под цвет золота, и два DVI-выхода (D-sub? Ну что вы -- это уже не модно. Ах, нет денег на LCD с DVI-входом? Тогда покопайтесь в коробке, для таких, как вы, там припрятаны два переходника). Кроме того, полный набор фирменных утилит этого производителя, включая VideoSecurity II для построения охранной системы путем подключения камеры наблюдения к видеовходу. В общем, не хватает только коврика из крокодильей кожи -- а так все, в принципе, есть...

Gainward Ultra/760XP. Еще один продукт на основе FX5600. Правда, на этот раз с приставкой "Ultra". Разумеется, после вышеописанного он смотрится скромнее. Зато работает побыстрее. Никаких особых изысков, просто видеокарта. Представитель серии Golden Sample, в которую входят акселераторы, оснащенные более быстрой видеопамятью. Поэтому оверклокерам стоит обратить на нее внимание.

MSI FX5200-TD128. Об этом продукте мы уже писали ("Компьютерное Обозрение", # 21, 2003). Чипсет GeForce FX5200, 128 MB локальной видеопамяти. "Изюминка" данной модели -- наличие пульта ДУ, что существенно упрощает управление идущим в комплекте с картой мультимедийным ПО. Также пульт поддерживает работу с TV/FM-тюнерами этого же производителя. В общем, для нетребовательного игрока, предпочитающего удобство скорости, -- в самый раз.


Методика тестирования

ATI vs. NVidia арена -- DirectX 9
ATI vs. NVidia арена -- DirectX 9
ATI vs. NVidia арена -- DirectX 9
ATI vs. NVidia арена -- DirectX 9
ATI vs. NVidia арена -- DirectX 9
 
ATI vs. NVidia арена -- DirectX 9
ATI vs. NVidia арена -- DirectX 9
ATI vs. NVidia арена -- DirectX 9
ATI vs. NVidia арена -- DirectX 9
ATI vs. NVidia арена -- DirectX 9
Прежде чем переходить непосредственно к описанию методики, стоит остановиться на выборе ускорителей для тестирования. Как мы уже говорили ранее, этот материал представляет собой сравнение двух новых линеек DX9-совместимых акселераторов от ATI и NVidia. В качестве "отправной точки" был взят наиболее быстрый на сегодня DX8-чипсет -- GeForce4 Ti4600 (он же GeForce4 Ti4800). И лишь в роли иллюстративного материала выступают результаты предыдущего поколения видеокарт -- GeForce4 MX440 и Radeon 9200. Еще раз напомним: последнему новое название графического ядра не дало ни расширенной функциональности, ни повышения быстродействия. Это все тот же Radeon 9000 с интерфейсом AGP 8X.

Детальное же рассмотрение производительности всех имеющихся сегодня на рынке графических чипсетов выходит за рамки этой статьи. Поэтому вряд ли стоит искать здесь сравнение "каждого с каждым" или рекомендации по смене видеокарты для процессора класса Pentium III 733 MHz.

Ну а теперь перейдем непосредственно к методике сравнения ускорителей.

В качестве тестовой платформы выступала система на основе материнской платы ASUS P4T533 (чипсет i850E), процессора Pentium 4 2,4 GHz, 512 MB PC1066 RDRAM под управлением Windows XP Professional SP1. Для акселераторов ATI использовались драйверы Catalyst 3.4 (7.88), а для продуктов NVidia -- последняя версия Detonator FX -- 44.03. Все измерения проводились в режиме 1280 1024 при 32-битной глубине цвета.

Далее -- что касается выбора платформы для тестирования. Применение материнской платы с интерфейсом AGP 4X при том, что практически все участники поддерживают 8Х, может показаться странным только на первый взгляд. В действительности же выигрыша от нового интерфейса нет никакого, а вот проблемы пока еще присутствуют. Начиная от несовместимости или нестабильной работы некоторых ускорителей в комбинации с некоторыми моделями материнских плат при использовании AGP 8X и заканчивая невозможностью функционирования в режиме свыше 4Х опять же при определенных комбинациях видеокарты и системной платы. Поэтому и было выбрано пусть не самое современное, однако одно из наиболее быстродействующих и стабильных решений. А разрешение и битность цвета обусловили выбор частоты процессора. Дело в том, что в таком режиме львиная доля нагрузки ложится именно на акселератор. Вклад CPU практически нивелируется. Разница в производительности между акселераторами при использовании процессоров с частотами 2,4 и 3,06 GHz ничтожна и составляет порядка 7%.

Измерения проводились в двух режимах -- без фильтрации текстур и полноэкранного сглаживания и с включением AA и Texture Filtering одновременно. При этом для каждой модели выбирались максимально поддерживаемые ею режимы. Опять же при разрешениях 1280 1024 использование FSAA практически не дает никакого улучшения изображения, однако столь тяжелые условия ускорителям создавались искусственно для выяснения наибольшего падения производительности.

Теперь перейдем к списку использованного ПО.

Для оценки производительности в Direct3D применялся следующий набор: 3DMark 2001SE, 3DMark 2003, Code Creatures Demo и Unreal Tournament 2003 (набор тестовых скриптов разработки [H]ard|OCP) в режиме "облета", карта dm-Antalus.

Добавление в набор тестов 3DMark 2001SE обусловлено недавно разгоревшимся скандалом между разработчиками пакета 3DMark 2003, компанией FutureMark Corporation и создателями графических чипсетов ATI и NVidia (причем основные претензии предъявлялись именно к последней). Вкратце суть конфликта такова: по утверждениям FutureMark, драйверы серии Detonator FX отслеживали запуск 3DMark 2003 по отрисовыванию стартовой заставки пакета, после чего в некоторых игровых подтестах оптимизировали либо подменяли вызовы, предусмотренные разработчиком теста, таким образом, что быстродействие продуктов на основе GeForce FX существенно увеличивалось. Разумеется, при этом настолько же существенно падало качество изображения (здесь прилагательное "существенно" оставим на совести FutureMark с учетом того, что визуальные тесты многих лабораторий показывали как раз обратное -- несущественно). С полным отчетом по этой теме можно ознакомиться по адресу www.futuremark. com/companyinfo/3dmark03_audit_ report.pdf.

Ввиду сложившейся ситуации и начавшейся (судя по всему, на момент выхода материала уже и закончившейся) "войны патчей" было решено добавить в материал и результаты старой проверенной версии этого пакета, дабы избежать обвинений в предвзятости и субъективности. Действительно, насколько страдает качество из-за не совсем честного поведения Detonator FX и в какой мере оправданы действия FutureMark, существенно "урезавшей" производительность GeForce FX в версии 3DMark 2003 3.30, -- вопрос весьма и весьма спорный.

Аналогичные же претензии предъявлялись и к ATI, однако в более мягкой и сдержанной форме. Видимо, оптимизация драйверов этой компании была более "щадящая". В общем, из всего этого можно сделать один малоутешительный вывод -- началась "борьба за попугаев". Увеличение быстродействия теперь происходит не только за счет улучшения архитектуры ускорителя, но и за счет оптимизации его драйверов под конкретное тестовое приложение. Еще раз -- тестовое, т. е. синтетическое, т. е. к реальной производительности в игровых приложениях не имеющее практически никакого отношения.

Закончим с DirectX и перейдем к следующему API, в последнее время не столь популярному у разработчиков игр, -- OpenGL. На сегодняшний день не существует сколь-нибудь современного и "тяжелого" игрового приложения, поддерживающего этот API. Все игры, на нем реализованные, вышли уже достаточно давно и вряд ли пригодны для оценки быстродействия новейших чипсетов. Поэтому в данном случае был выбран пакет SPECviewperf, позволяющий оценить производительность графического ядра в профессиональном OpenGL. Отчасти такой шаг объясняется вышеописанной причиной, отчасти -- тем, что последнее время мы как-то все больше сосредоточились на игровом применении видеокарт, совершенно забыв, что на них ведь можно и работать. Согласитесь, использовать 127 млн. транзисторов, функционирующих на частоте 400 MHz, за которые заплачено полтысячи долларов, только для запуска игр -- это, в общем-то, несколько странно. Такой "монстр" вполне способен потрудиться и в графической станции. Тем более что настоящие профессиональные OpenGL-ускорители дороже на порядок да и практически не доступны на нашем рынке.

Сам тестовый пакет SPECviewperf основан на нескольких движках наиболее популярных программ трехмерного моделирования. Кратко остановимся на каждом подтесте.

3dsmax-02 -- основой этого подтеста служит известный пакет 3D Studio MAX 3.1. Используются модели высокой и средней степени сложности. В первом случае реализуется освещение 5--6 источниками света, во втором -- только двумя.

dx-08 -- пакет для анализирования и визуализации научной информации IBM Data Explorer версии 2.1.

drv-09 -- Design Review, пакет моделирования сложных зданий, включая полную их инфраструктуру -- трубопроводы, кабельные системы, системы вентиляции и т. д.

light-06 -- Lightscape, моделирование естественного освещения.

proe-02 -- Pro/Engineer 2001. Данный CAD-пакет вряд ли нуждается в представлении. В тесте используются две модели различной степени сложности. В процессе теста производится натягивание текстур на каркас, отсечение невидимых поверхностей, краевое сглаживание модели, вращение в режиме каркаса, сборка/разборка модели. Один из самых сложных подтестов.

ugs-03 -- Unigraphics V17. Модель вращается в трех режимах -- текстурированная, текстурированная с прозрачностью и каркасная. С использованием сглаживания и без оного. Тесты повторяются дважды -- вращение в центре рабочего окна и вращение с отсечением на границе окна.

Ну а теперь, разобравшись, как и что мы тестировали, самое время посмотреть на результаты.


Комментарии к результатам

Начнем с результатов в 3DMark 2001SE. Безусловными лидерами стали два топовых чипсета ATI -- Radeon 9800 Pro и Radeon 9700 Pro. Третьим идет GeForce FX5800. Разница между этими чипами становится еще более существенной при включении сглаживания (AA) и анизотропной фильтрации -- в этом режиме Radeon 9800 Pro демонстрирует практически такую же скорость, как FX5800 в обычном режиме. Четвертое место -- за GeForce4 Ti4600. Учитывая то, что этот тест достаточно старый и рассчитан только на DX8-акселераторы, обойти новые ускорители в нем вполне реально за счет "грубой силы", что успешно продемонстрировал Ti4600, показав более высокое быстродействие, чем FX5600/5600 Ultra. Последний по производительности практически идентичен Radeon 9600 Pro. А вот не Ultra-версия скоростью не порадовала -- более низкие показатели только у бюджетного FX5200 и морально устаревшего Radeon 9200. Ну а в случае с MX440 комментарии и вовсе излишни.

Ситуация в 3DMark 2003 почти аналогична вышеописанной для первых трех позиций. Только падение скорости в "тяжелом" режиме для Radeon 9700 Pro стало более ощутимым, и он показал почти идентичные с FX5800 результаты. А вот Ti4600 откатился с четвертого места практически до уровня FX5200 -- сказались наличие подтеста DX9, который он не прошел, и оптимизация пакета под новое поколение ускорителей. Четвертое место занял Radeon 9600 Pro, обойдя обе версии FX5600. Результаты FX5200 снова весьма невысоки -- все-таки бюджетный ускоритель не способен работать в подобных режимах.

Code Creatures до появления 3DMark 2003 был, пожалуй, самым "тяжелым" графическим тестом. Редкий ускоритель мог продемонстрировать в нем скорость, приемлемую для нормальной играбельности. Даже чипы последнего поколения в разрешении 1280 1024 показывают не более 35 fps. Если говорить о распределении мест, то ситуация практически полностью аналогична 3DMark 2001SE. Снова Ti4600 удалось занять четвертое место за счет более высокой тактовой частоты ядра и большего числа текстурных блоков по сравнению с FX5600.

Unreal Tournament 2003, несмотря на недавнюю дату выхода, относится уже к играм предыдущего поколения, не рассчитанным на DX9, поэтому и результаты в нем достаточно интересные. Четверка лидеров по-прежнему осталась без изменений. И снова в затылок новейшим чипам дышит достаточно "пожилой" Ti4600. А вот FX5200 отошел на самое последнее место, уступив даже Radeon 9200 и MX440, лишь незначительно опережая их в режиме HQ. Однако с такими установками все три карты показывают быстродействие ниже предела играбельности. Этот режим явно не для них. Неожиданно хорошо прошел данный тест Ti4800SE (Ti4200), продемонстрировав сравнимую с FX5600 Ultra и Radeon 9600 Pro производительность.

А теперь перейдем к результатам SPECviewperf.

В первом подтесте -- 3dsmax-02 -- все карты четко разделились на четыре класса, внутри которых они демонстрируют практически идентичную производительность. Кстати, падение скорости от класса к классу очень плавное и разница даже между первым и последним чипом огромная. В принципе, это приложение не тот случай, где основную роль играет ускоритель. Большая часть работы при просчете сцены ложится на процессор.

Drv-09 опять четко расставил карты по классам. Но это первый тест, который демонстрирует подавляющее преимущество чипов NVidia. Парадоксальная ситуация, но здесь FX5200 обошел несравнимо более мощный Radeon 9800 Pro. Все-таки оптимизация драйверов может даже заведомо более слабый чип вывести вперед. А уж OpenGL-драйверы NVidia писать умела всегда.

А вот в следующем подтесте -- dx-08 -- опять все стало "с ног на голову": теперь пришла очередь NVidia потесниться и уступить практически все первые места продуктам ATI. На этот раз бюджетный Radeon 9200 обошел FX5800...

Light-06, моделирующий реальное освещение помещений, -- единственное приложение, которому что Radeon 9800 Pro, что МХ440 -- нет разницы. Все чипы показали практически одинаковый результат.

Pro/Engineer опять демонстрирует лучшую отлаженность драйверов NVidia. Снова ее продукты занимают все верхние позиции. И опять FX5200 обходит Radeon 9800 Pro. Правда, обходит чисто номинально. Все-таки не всегда еще продукты ATI можно рекомендовать для использования в серьезных приложениях. Несмотря на мизерную разницу между участниками в этом подтесте, одинаковые результаты FX5200 и 9800 Pro наводят на размышления.

Ugs-03 несколько поправляет наше предыдущее утверждение -- "не для всех приложений", а не "не всегда". В этом тесте ATI опять в два раза обгоняет чипсеты конкурента.

Все-таки профессиональные OpenGL-приложения весьма тонкая вещь -- каким-то необходим большой fillrate, кому-то более предпочтительна скорость работы с каркасными моделями. Некоторым подавай и то и другое. А есть пакеты, которым акселератор нужен чисто номинально, а основная нагрузка ложится на процессор.


Выводы

Сперва попытаемся ответить на вопрос: удалось ли NVidia то, что она планировала? Удался ли ее новый чипсет? Не были напрасными столь долгие ожидания этого графического ядра? Не ошиблись ли в очередной раз ее поклонники, досрочно подняв на флаг GeForce FX и пребывая прямо-таки в религиозном экстазе после прочтения спецификации?

Рискуя навлечь на себя шквал гнилых томатов от этих самых поклонников и почитателей, на весь список вопросов приведем один-единственный однозначный ответ -- нет. В таком виде, в котором это ядро существует сегодня, -- не удалось. Продукт не провальный, это ясно. Но ожидания и обещания явно не соответствуют тому, что мы получили в итоге. "Короля скорости" мы так и не увидели -- продукты ATI по-прежнему быстрее. И чем "тяжелее" графический режим, тем больше видна разница. Это, кстати, при том, что тот же Radeon 9800 Pro вышел гораздо с меньшей помпой, чем NV30.

К тому же модельный ряд GeForce FX достаточно узок -- опять же у ATI в арсенале гораздо больше продуктов, перекрывающих весь спектр рынка, а не заявленные шесть моделей, из которых в лучшем случае на рынке будут присутствовать четыре. Да и потом, линейка ускорителей, состоящая из продуктов класса "дешево, но никому не нужно", "довольно дорого и ничуть не лучше, чем у конкурента" и "достаточно быстро, но космически дорого" вызывает недоумение... Судите сами: нам был обещан DX9 для бедных? Ну, в принципе, мы его получили. Только куда его, простите, девать с такой "выдающейся" производительностью? Какой толк в поддержке новейшей версии этого API в GeForce FX5200, если использующие его приложения все равно превратятся в слайд-шоу? Да и старые игры для него -- тоже задача не из простых. Только если уж играть совсем в "неприличных" на сегодняшний день разрешениях...

Что касается FX5600, то тут ситуация тоже достаточно странная -- интерес представляет только версия "Ultra" этого чипсета. Но цена на него пока выше разумной. Производительность зачастую ниже, чем у Ti4600, и практически всегда меньше, чем у Radeon 9600 Pro. И опять возникает вопрос: ну и кому нужен DX9 на такой скорости?

Что там осталось -- FX5800? Да, достаточно быстрое ядро. Не чемпион, но вполне достойный противник. Но вот цена, шум, конструктив, нагрев... Нет уж, простите. Столько времени делать такого "флагмана"?

Теперь насчет обещанного "кинематографического качества". Сменится еще, как минимум, два поколения ускорителей, прежде чем это самое "качество" придет (возможно) на экраны мониторов. К тому времени FX будет храниться разве что в музеях коллекционеров и на полках неудачливых пользователей, в спешке приобретших его в надежде на "кино" уже сегодня. Да и сам разработчик, похоже, не верит в долгую жизнь этого своего детища. Уж слишком быстро анонсирован FX5900. Причем именно в таком виде, который должен был изначально иметь NV30.

В итоге получаем странную, запоздалую линейку чипов, место которой под солнцем уже занято продуктами ATI. Линейку, которую в очередной раз ждали, ждали и дождались... Плюс к этому не делающий чести NVidia скандал с FutureMark, попытки любыми способами "спасти лицо" своего нового ядра. Хорош же должен быть ускоритель, чтобы продвигать его на рынок такими методами!

Может, NVidia стоило раньше посмотреть, что же за наработки она купила вместе с 3dfx? Может, надо было раньше их использовать? Меньше создавать шумихи вокруг своих продуктов, а больше заниматься их разработкой? Тогда, глядишь, и не пришлось бы снимать с производства еще не вышедший чипсет...

В общем, не сильно веселая картина получается. Если так будет продолжаться и дальше, кто знает, куда заведет эта дорожка некогда ведущего игрока рынка 3D? Видимо, эта компания начинает потихоньку забывать уроки истории. Забывать, как сама стала когда-то на этом рынке лидером. И какую опасность могут представлять даже для ведущих игроков пусть небольшие, но агрессивные компании, которые предпочитают сначала делать, а потом уж говорить о сделанном.

Пока что мы наблюдаем очередную демонстрацию с транспарантами "GeForce FX5900". Было это уже... Неужели повторится снова?
0 
 

Напечатать Отправить другу

Читайте также

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT