`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Как изменилось финансирование ИТ-направления в вашей организации?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Тимур Ягофаров

Графика от Intel: «А мы пойдем другим путем»

+66
голосов

Вот в чем не откажешь Intel, так это в умении генерировать информационные поводы. На прошедшей на днях конференции Intel Research Day (не путать с IDF) CTO корпорации Джастин Раттнер (Justin Rattner) поделился с журналистами планами в области разработок по созданию собственных видеоадаптеров.

Ваш покорный слуга однажды имел возможность посетить это мероприятие, обычно проводящееся в июне. Впрочем, наше издание освещало его на протяжении последних нескольких лет, но в этом году нас туда не пригласили, поэтому воспользуюсь материалами, кочующими по Сети.

Итак, оказывается, Intel решила пойти своим путем в создании «компьютера на кристалле» со встроенной графикой. В отличие от AMD (ATI) и NVIDIA, использующих в своих адаптерах принцип создания изображения на базе вычисления растровой картинки по полигонам, гигант процессоростроения решил использовать лучевую схему (ray tracing). По мнению г-на Раттнера, архитектура конвееров растрирования не имеет будущего, так как вскоре упрется в естественные ограничения по наращиванию производительности. Тогда как описание сцены с помощью лучевой схемы приводит к созданию гораздо более естественных картинок, да и вычислительные ресурсы создаваемого в Intel супер-процессора, построенного по архитектуре Larrabee, лучше справляются с такой задачей.

В ближайших планах Intel представить доклад на базе Larrabee уже в августе на конференции Siggraph, где будут представлено наглядное объяснение того, почему лучевая схема вычислений дает лучшие результаты, чем растрирование.

По планам Intel, готовый продукт на базе многоядерной архитектуры Larrabee появится на рынке не ранее начала 2009 года. И хотя официально это не подтверждается, но кочуют слухи, что в чипе будет использовано 16 ядер, каждое из которых будет обрабатывать по четыре потока. А ширина шины памяти составит 1024 разрядов.

Конечно же, в целом это напоминает подход «графических баронов» AMD и NVIDIA, на борту адаптеров которых работает также несколько десятков вычислительных ядер. Причем, сегодня уже можно их задействовать не только для расчетов 3D-сцен, но и в обычных приложениях типа Photoshop, не говоря уже о специально созданных пакетах на базе спецификации CUDA от NVIDIA.

В общем, скучать нам точно не дадут, а кто окажется в лидерах, покажет время. Заниматься прогнозами в данной области смысла не имеет – симпатии потребителей просто непредсказуемы и зависят от массы факторов.

Кстати, о ray tracing. На IDF China журналистам показывали реализацию этой технологии на борту UMPC, хотя прежде она работала исключительно на больших рабочих станциях. Так что процесс идет...

+66
голосов

Напечатать Отправить другу

Читайте также

Трудно сказать что именно имеет ввиду Intel и на какую индустрию они целятся создавая такое графическое решение. Я всегда смотрел на компьютерную графику вот таким образом:

Физика света -> куча хаков -> Компьютерная Графика -> куча хаков -> Компьютерная графика в consumer applications.

И впринципе, да, если говорить о реалистичной красивой графике, графике уровня CG фильмов, то да, подход используемый в адаптерах ATI и NVIDIA на сегодняшних день тупиковый. Это впервую очередь касается рендеринга теней и отражений в рельном времени.

Очень будет интересно посмотреть что за процессор выйдет у Intel и какой у него будет интерфейс. Если у него будет native raytracing API, то есть самому рейтрейсер писать будет не нужно... То это очень и очень круто. Если же Intel выпустит очередное железо без какого-либо dev-friendly интерфейса, то у меня закрадываются сомнения, что многие захотят возится с ним. Написать хороший рейтресер для такого сложного процессора дело очень непростое. Если так будут обстоять дела, то скорее это станет нишевым продуктом.

Но ведь достаточно чтобы с разработкой ПО "захотела возиться" пара компетентных компаний!

По поводу перевода игр и других графических real-time-приложений на трассировку: не имеет ли смысла оценивать в этой области перспективы, проводя исторические параллели с non-realtime-приложениями для 3D-моделирования и анимации? В них трассировка была с самого их появления на свет - но использовалась в 1% случаев. Очень-очень плавно, безо всяких революций этот показатель по мере роста мощи CPU дорос до нынешнего доминирования.

Так что не станем покупаться на PR-лозунги. Тем более что аппаратные ускорители трассировки - далеко не новость... И тем бьолее, что на оглашение оных лозунгов они нас не пригласили:)

Возможно вы правы. Это очень интересная тема и я в своё время был приятно удивлён различными экспериментами вроде этого. Буду активно следить за развитием событий. :)

UPDATE:
Хочется ввести небольшую поправку и, так сказать, расставить точки на i. Если верить этому источнику (вольный перевод, оригинал Tom Forsyth):

Я пытался ничего не рассказывать, но все-таки не удержусь кое-что уточнить - Larrabee будет выводить изображения DirectX и OpenGL приложений с помощью растеризации, а не методом трассировки лучей.

Я не совсем понимаю из-за чего наши слова были не поняты. Наверное, из-за того что мы старались не отвлекаться и делать свою работу, мы не уделили должного внимания описанию нашего проекта публике. Из-за этого информация о нашей захватывающей новой технологии рендеринга выглядела как главная и единственная цель продукта. [...] Единcтвенный способ выводить изображения для огромного кол-ва DirectX и OpenGL игр на рынке - это использовать общепринятую систему растеризации. Это цель номер один для всех разработчиков, как в отделе по созданию оборудования так и в отделе отвечающем за создание ПО. [...]

У нас нет сомнений в том, что Larrabee станет самым лучшим рейтресером в мире. Это будет самый лучший чип в мире для ряда сложных вычислительных задач благодаря серьезной вычислительной мощности и тому, что чип можно полностью запрограммировать по своему усмотрению. Но все эти вкусности создаются для специалистов, которым это интересно. Мы не считаем, что все разработчики в мире захотят использовать такой подход. Более того, мы не собираемся заставлять всех наших пользователей использовать такой подход. Мы прекрасно пониманием, что если насильно навязывать всем идеи таким образом, то ничего хорошего из этого не выйдет.

Вот теперь подход Intel понятен. Честно говоря, мой энтузиазм ничуть не угас. Как написал Павел (и Том), кому будет интересно - те попробуют. И тут возможны очень интересные сдвиги.

Спасибо за уточнение.
Вот вам наглядное объяснение, зачем же на самом деле нужно, чтобы журналисты своими глазами и ушами знакомились с презентациями. А не писали понаслышке.

Кстати, мысль, высказанная Томом, была подтверждена и специалистами из AMD (ATI), с которыми мне довелось пообщаться на прошлой неделе на презентации их новой видеокарты серии Radeon 4800. По их мнению, игровая индустрия настолько тяжеловесна и инерционна, что внедрение любого нововведения тут займет как минимум 2-3 года. Так что известный лозунг "пусть мир прогнется под нас" здесь не пройдет :)

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT