`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Как изменилось финансирование ИТ-направления в вашей организации?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

NVIDIA GeForce 8800 GTX – первый GPU с унифицированной архитектурой рендеринга

Статья опубликована в №43 (562) от 14 ноября

0 
 

Осень для сегмента графических плат – традиционный период выхода новых продуктов и обострения конкурентной борьбы между двумя главными игроками. Так произошло и сейчас – NVIDIA открывает сезон громких анонсов представлением на суд публики семейства GeForce 8800 и чипсетов серии nForce 680x. Если говорить о графическом ядре G80, то на сей раз это не просто очередное улучшенное поколение: речь идет, ни много ни мало, о революционном изменении конвейера рендеринга 3D-сцены.

Не секрет, что после объявления о слиянии AMD и ATI Technologies NVIDIA оказалась в ситуации некоторой неопределенности. Ведь до сих пор чипсеты и графические решения последней считались наилучшим выбором для процессоров Athlon 64 (особенно это утверждение справедливо в отношении высокоуровневых систем). Теперь же объединенная компания в той или иной степени будет прилагать усилия к продвижению собственной платформы. В противоположном лагере положение тоже непростое – Intel не слишком заинтересована в укреплении NVIDIA, прежде всего это касается наборов системной логики (чипсетостроительное подразделение – значительная часть бизнеса самой Intel). В условиях такой глобализации у NVIDIA остается не так много способов удержаться на плаву, и, что немаловажно, сохранить независимость. Привлекательность и технологическое лидерство продукции – самые существенные из них. Только они могут вынудить консолидированных гигантов оставить место для «третьего лишнего» как обеспечивающего те или иные конкурентные преимущества их собственным платформам.

NVIDIA GeForce 8800 GTX – первый GPU с унифицированной архитектурой рендеринга
Новый флагман NVIDIA GeForce 8800 GTX имеет два разъема SLI и два дополнительных коннектора питания. При длине 27 см плата поместится далеко не в каждый корпус

В свете описанной ситуации как никогда значимым выглядит состоявшийся 8 ноября официальный анонс семейства графических процессоров GeForce 8800, а также чипсетов nForce 680a и nForce 680i. К выпуску этих продуктов, особенно нового GeForce, NVIDIA готовилась долго и весьма основательно, а от того, что же получилось на выходе, во многом будет зависеть дальнейшая судьба этой компании.

На данный момент семейство G80 включает в себя две видеокарты – GeForce 8800 GTX и GeForce 8800 GTS. Последняя отличается несколько пониженными тактовыми частотами и наличием только 96 шейдерных процессоров.

Архитектура будущего

В следующих материалах мы еще вернемся к рассмотрению новых чипсетов, но, разумеется, наибольший интерес представляет графическое ядро G80, архитектурные усовершенствования и производительность которого мы исследуем подробно.

Чтобы разобраться, в чем же заключаются революционные нововведения, рассмотрим традиционный конвейер, в котором «собирается» 3D-сцена. Максимально упрощенно это выглядит примерно так: вначале подготовленные центральным процессором данные о вершинах полигонов проходят стадию расчета, после чего с использованием его результатов осуществляется построение примитивов – треугольников, линий и точек. Следующий этап – текстурирование и наложение специальных эффектов – выполнение пиксельных шейдеров. Затем идет растеризация, т. е. превращение трехмерной сцены в растр – готовый двухмерный кадр, который через фреймбуфер будет выведен непосредственно на экран. На этой же стадии происходит отсечение невидимых с текущего ракурса поверхностей с помощью данных Z-буфера, расчет антиалиасинга (если он применяется) и наложение постфильтров.

NVIDIA GeForce 8800 GTX – первый GPU с унифицированной архитектурой рендеринга
Общая структурная схема нового ядра G80. GeForce 8800 GTX содержит 128 унифицированных шейдерных процессоров

Фокус в том, что к G80 понятие графического конвейера, по сути, неприменимо. Этот чип имеет массив унифицированных процессоров (у GeForce 8800 GTX их 128), которые в зависимости от нагрузки в той или иной сцене могут выполнять и вершинные, и геометрические, и пиксельные, и даже физические расчеты!

Преимущества такого подхода очевидны. Это и почти полное отсутствие простоев в работе блоков процессора независимо от того, каких вычислений больше в той или иной сцене, и возможность без ограничений повторно использовать промежуточные результаты расчета любой стадии 3D-сцены (ранее записать их в память на случай, если они понадобятся снова, было фактически невозможно). Кроме того, часть вычислений, до этого проводимых на CPU, теперь выполняются на графическом процессоре, высвобождая мощности для других, не менее ресурсоемких задач. Ну и, разумеется, возможность параллельно исполнять разные этапы подготовки сцены, обмениваясь результатами с другими процессорами (в терминологии NVIDIA подобный параллелизм носит гордое имя GigaThread). Как такой подход реализован практически, мы видим на общей структурной схеме GeForce 8800 GTX. Она объясняет, почему этот чип обладает совершенно «неканоническими» характеристиками – 768 MB видеопамяти, 128 (!) унифицированных шейдерных процессоров с частотой 1,35 GHz, при этом только 24 ROP, которые работают с гораздо меньшей скоростью (575 MHz), а количество текстурных блоков равно 32. Ширина шины памяти – 384 бита.

При разработке G80 основное внимание было уделено максимальному быстродействию в приложениях DirectX 10 – именно в них унифицированная архитектура сможет проявить свои преимущества наиболее полно. Тем не менее, по заверениям NVIDIA, в существующих бенчмарках производительность GeForce 8800 также очень высока, что мы и проверим в ходе тестирования.

Особый акцент сделан на технологии CUDA (Compute Unified Device Architecture), которая открывает новые возможности просчета игровой физики на графическом процессоре. Кроме того, поскольку тип задачи присваивается тому или иному шейдерному блоку динамически, вполне вероятно в перспективе выполнение и множества других задач, например в области научных вычислений. Очевидно, что с появлением унифицированной архитектуры концепция GPGPU (General-Purpose сomputing on Graphics Processing Units) обретет гораздо более серьезную базу, а в будущем сможет повсеместно использоваться для решений такого класса. Тем более что и ATI много говорит о поддержке на своих графических чипах «атипичных» вычислений. Какие аргументы в сложившейся ситуации предоставит AGEIA в пользу применения для этих целей отдельных специализированных продуктов типа PhysX – пока непонятно, но маркетологи компании наверняка уже работают над этим.

NVIDIA GeForce 8800 GTX – первый GPU с унифицированной архитектурой рендеринга
NVIDIA GeForce 8800 GTX – первый GPU с унифицированной архитектурой рендеринга
Объяснение преимуществ унифицированной архитектуры «на пальцах»

Не обошлось без нововведений и в области настроек, улучшающих качество изображения. Теперь и GeForce поддерживает одновременно рендеринг в HDR и антиалиасинг (причем реализован HDR с точностью 128 бит – по 32 бита на компонент цвета). Новый тип антиалиасинга – CSAA (Coverage Sample Antialiasing) обеспечивает значительное уменьшение ступенчатости изображения, а в сочетании с новой высококачественной анизотропной фильтрацией (которая к тому же работает значительно быстрее, чем раньше) изображение на мониторе, пожалуй, близко к идеальному. Новые режимы антиалиасинга включают в себя 8х, 16х и 16хQ.

Проведена некоторая работа и в отношении видеофункций G80 – технологии NVIDIA Pure Video и Pure Video HD подверглись множеству оптимизаций, направленных в первую очередь на более быстрое и качественное воспроизведение контента высокой четкости.

Сама плата GeForce 8800 GTX, помимо непривычных спецификаций, отличается просто-таки монструозными габаритами (из-за которых вполне может не поместиться во многие корпуса даже «энтузиастского» класса), огромным размером самого GPU, колоссальными тепловыделением и энергопотреблением. По данным NVIDIA, ее пиковое энергопотребление находится на уровне 124 Вт. Тем не менее утверждается, что согласно новомодной методике расчета производительности на ватт и на квадратный миллиметр ядро G80 является лидером среди современных GPU.

NVIDIA GeForce 8800 GTX – первый GPU с унифицированной архитектурой рендеринга
Новый API DirectX 10 позволит создавать игры с подобным качеством графики

Субъективно видеокарта очень горячая. Это касается как температуры радиатора, так и температуры воздуха, выдуваемого из нее массивной охлаждающей системой. Рекомендованная мощность блока питания при наличии в системе одной видеокарты GeForce 8800 GTX – 450 Вт, с поддержкой силы тока не менее 30 А по линии +12 В. Как ни странно, все эти «ужасы» совершенно не отражаются на уровне шума, производимого GeForce 8800 GTX. Работающую плату практически не слышно, причем независимо от того, запущен ли тяжелейший бенчмарк или система находится в режиме ожидания. Никаких изменений частоты вращения вентилятора отмечено не было.

Результаты тестирования

Переходим к самому интересному – как же проявит себя новый флагман NVIDIA в тестовых приложениях? Подчеркнем еще раз: архитектура GeForce восьмой серии разрабатывалась для игр поколения DirectX 10 и должна максимально раскрыть свои возможности именно в них. Тем не менее все без исключения традиционные бенчмарки демонстрируют заметный отрыв не только от конкурента в лице Radeon X1950 XTX, но и от двухплатной SLI-видеокарты GeForce 7950 GX2. Нельзя сказать, что он очень уж впечатляющий, но как для решения, оптимизированного для работы с ПО следующего поколения, – более чем достаточный.

NVIDIA GeForce 8800 GTX – первый GPU с унифицированной архитектурой рендеринга
NVIDIA GeForce 8800 GTX – первый GPU с унифицированной архитектурой рендеринга
NVIDIA GeForce 8800 GTX – первый GPU с унифицированной архитектурой рендеринга
NVIDIA GeForce 8800 GTX – первый GPU с унифицированной архитектурой рендеринга
NVIDIA GeForce 8800 GTX – первый GPU с унифицированной архитектурой рендеринга

Важный момент – по мнению самой NVIDIA, разрешение 1600×1200 является минимальным, рекомендованным для применения с GeForce 8800 GTX. И это правда. Мощности данной видеокарты, даже без использования режима SLI, вполне хватает для самых тяжелых графических настроек: 200 fps в DOOM 3, в режиме 1600×1200, Ultra High Quality – это недосягаемый ранее результат для любых конфигураций в штатном режиме. Как только у нас появится возможность заполучить две такие платы, мы обязательно опубликуем данные о производительности в SLI. И все же они могут быть не столь показательными – даже одиночная GeForce 8800 GTX полностью утилизирует ресурсы сверхмощного Intel Core 2 Extreme X6800, и не вызывает сомнений, что результаты адекватно масштабировались бы при наличии более быстрого процессора.

Отсюда следующие выводы: во-первых, нет никакого смысла использовать решения класса G80 с процессорами среднего ценового диапазона, поскольку они станут «бутылочным горлышком», ограничивающим производительность всей связки. И во-вторых, по крайней мере, в приложениях поколения DirectX 9 следует задействовать максимально доступные настройки качества графики и разрешения, какие только позволяет монитор. В противном случае вся мощь GeForce 8800 будет использоваться вполсилы.

Иллюстрацией приведенных выше тезисов служат диаграммы с результатами тестирования. К сожалению, наш ЭЛТ-монитор не поддерживает разрешений вроде 2560×1600, которые наверняка позволили бы увеличить отрыв G80 от соперников. А скорость в использованных режимах, при тяжелейшей генерируемой нагрузке на графическую подсистему, все равно упиралась в возможности центрального процессора. Особенно это заметно в Far Cry.

Еще одно важное примечание к диаграммам: поскольку G80 поддерживает HDR в сочетании с антиалиасингом, что до сих пор было прерогативой только продуктов ATI последнего поколения, результаты тестирования в этом режиме (3DMark2006) отсутствуют для видеокарт GeForce 7950 GX2 и GeForce 7900 GTX.

В остальном картина ясна: на сегодняшний день GeForce 8800 GTX без всяких оговорок является самой быстрой видеокартой на рынке, и будет оставаться в этом качестве еще достаточно долго – как минимум до выхода ATI R600, ожидать которого следует не раньше будущего года. Ситуация повторяется – прошлый сезон осень/зима также прошел под знаком доминирования NVIDIA, и ATI Technologies смогла догнать и перегнать конкурента лишь к весне. Как будут развиваться события на этот раз, покажет время. Пока ясно одно – канадская компания сделает все от нее зависящее, чтобы быстро наверстать упущенное. Благо финансовые, производственные и технологические предпосылки к этому есть.

Выводы

На подходе Windows Vista, а с ней революционный графический API DirectX 10. Судя по его спецификациям, нас ожидают принципиально новый уровень визуального качества в трехмерных играх, а также более широкие возможности для его дальнейшего улучшения. Несомненно, унифицированная архитектура графического процессора – это большой шаг вперед для трехмерной графики будущего, который открывает отличные перспективы для создания значительно более реалистичных игр. Первая полностью DX 10-совместимая архитектура по версии NVIDIA, поддерживающая Shader Model 4.0, на первый взгляд представляется весьма удачной, поскольку демонстрирует рекордную производительность в приложениях сегодняшнего дня, а также может быть быстро и без особых проблем масштабирована для создания решений среднего и бюджетного классов. Отдельно следует отметить CUDA – эта технология, благодаря унифицированным шейдерным конвейерам, являющимся, по сути, набором независимых скалярных ALU, позволит переносить все большую часть расчетов с CPU на GPU, а также задействовать последний для физических, научных (GPGPU) и других ранее несвойственных графическому процессору задач. Существенно и то, что уже готов CUDA SDK, посредством которого программисты смогут быстро и удобно использовать ресурсы видеопроцессора, не вникая в нюансы программирования графических шейдеров.

Также достигнут важный не столько технологический, сколько маркетинговый паритет – теперь и GeForce 8800 позволяет применять одновременно HDR и антиалиасинг, что, впрочем, действительно имеет смысл при столь большом запасе мощности видеоподсистемы.

Нам же остается дождаться выхода продуктов среднего и бюджетного класса на базе G80, оценить конкурирующее предложение от ATI Technologies, которое уже не за горами, ну и, конечно, дождаться финального релиза ОС Windows Vista, обещающего стать беспрецедентно значимым событием, определяющим развитие не только 3D-графики, но и всего сегмента IT на много лет вперед.

Сравнительные характеристики видеоадаптеров
Видеокарта NVIDIA GeForce 8800 GTX NVIDIA GeForce 7950 GX2 NVIDIA GeForce 7900 GTX ATI Radeon X1950 XTX 512 MB PCI-E
Видеопроцессор GeForce 8800 GTX (G80) 2×GeForce 7950 GX2 (G71) GeForce 7900 GTX (G71) Radeon X1950 XTX (R580+)
Техпроцесс, мкм 0,09 0,09 0,09 0,09
Количество транзисторов, млн шт. 681 2×279 279 384
Число пиксельных/вершинных процессоров 128 унифицированных / 32 текстурных / 24 блока растеризации 2×(24/8) 24/8 48 (16 TMU)/8
Разрядность шины памяти, бит 384 2×256 256 256
Частоты ядра/памяти, MHz 575 (ядро)/1350 (блок шейдерных процессоров)/900 (1800) RAM 500/600 (1200) 650/800 (1600) 650/1000 (2000)
Видеопамять 768 MB GDDR3, 1,1 нс 2×512 MB GDDR3, 1,4 нс 512 MB GDDR3, 1,1 нс 512 MB GDDR4, 0,91нс
Интерфейсы DVI (2), S-Video DVI (2), S-Video DVI (2), S-Video DVI (2), S-Video
Цена, $ 599* 650** 550** 470**
* Рекомендованная цена; ** Средняя цена по данным hotline.ua
Конфигурация тестового стенда
Процессор Intel Core 2 Extreme X6800 (2,93 GHz)
Материнская плата Intel Desktop Board D975 XBX rev.304
Память Super Talent T1000UX2G5 (2×1GB) в режиме DDR2-800, тайминги 4-4-4-8
Жесткий диск Western Digital WD1600JB (160 GB, 7200 об/мин)
Блок питания SeaSonic SS-600HT APFC F3 (600 Вт)
ОС Windows XP Professional SP2, DirectX 9.0c
Драйверы ForceWare 96.94 (beta), 91.47 (NVIDIA), Catalyst 6.10 (ATI)
0 
 

Напечатать Отправить другу

Читайте также

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT