`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Как изменилось финансирование ИТ-направления в вашей организации?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Андрей Дегелер

Процессоры против видеокарт

+1111
голосов

Интересные баталии разворачиваются сейчас между Intel и Nvidia. Меня крайне заинтересовал предмет спора, который на первый взгляд выглядит абсурдным: что лучше — CPU или GPU? Сторонники теории превосходства графических процессоров (а в ним относится не только Nvidia, но и AMD) уверены, что их производительность при параллельных вычислениях выше, чем у CPU, в сотни раз. Естественно, Intel от подобных предположений не в восторге.

Суть позиции Nvidia, AMD и сочувствующих состоит в том, что CPU являются лучшим решением для однопоточных вычислений, однако ограниченное количество ядер мешает эффективному решению задач, требующих одновременной обработки большого количества потоков. С этой задачей может справиться графический процессор, обладающий по сути множеством независимых вычислительных модулей, каждый из которых, разумеется, на порядки менее производителен, нежели ядро CPU. Естественно, для получения всех преимуществ работы с GPU существующий программный код нужно переписывать чуть ли не с нуля.

Новый раунд споров развернулся после публикации специалистами Intel исследования под названием «Развенчание мифа о стократном превосходстве GPU над CPU. Оценка производительности вычислений с высокой интенсивностью данных в CPU и GPU» (Debunking the 100X GPU vs. CPU myth: an evaluation of throughput computing on CPU and GPU). В исследовании сравниваются 4-ядерный процессор Core i7 960 с частотой 3.2 ГГц и GPU прошлого поколения Nvidia GTX280.

Исследователи действительно «развенчали миф», при этом, впрочем, честно указав, что GPU в тестах оказался в среднем в 2,5 раза быстрее CPU, а в некоторых задачах — и в 14 раз. В официальном блоге Nvidia немедленно появился пост с несколько ироничными восторгами по поводу честности и объективности исследователей Intel и сожалениями о том, что последние предоставили крайне мало информации об условиях тестирования. Кстати, там же приводится тенденциозная подборка ссылок на другие исследования — для тех, кто всерьез интересуется данной темой.

Intel на заявления Nvidia отвечает, что приводимые данные вырваны из контекста и ничего не доказывают. Ну, не знаю, по-моему, всё там написано вполне однозначно.

С другой стороны, эксперты из IBM некоторое время назад написали статью «Хотите верьте, хотите нет: многоядерные CPU не уступают GPU в производительности в задачах, требующих интенсивных вычислений» (Believe it or Not! Multi-core CPUs Can Match GPU Performance for FLOP-intensive Application!). В ней встречаются в неравном бою CPU Intel Xeon (Nehalem) и IBM Power7 и GPU Nvidia GTX 285. В тестах, предложенных исследователями, они отработали, соответственно, за 1,82 с, 1,02 с и 1,75 с.

Глядя на статьи, написанные по данной проблеме, становится понятно: скорее всего, GPU действительно могут быть гораздо производительнее. Вопроса только три: во-первых, насколько серьезным будет отрыв, во-вторых, сколько усилий нужно приложить для оптимизации кода для исполнения силами графического процессора, в-третьих, стоит ли такая овчинка выделки.

Впрочем, Microsoft планирует задействовать GPU для ускорения работы с веб-сервисами в Internet Explorer 9, а Apple уже применяет подобное решение в Mac OS X Snow Leopard. Посмотрим, насколько сильным будет влияние изменений в параллельных вычислениях на привычную нам картину мира.

+1111
голосов

Напечатать Отправить другу

Читайте также

лично по своему опыту могу сказать, что гпу гораздо быстрее работает с, например, подбором пароля к архиву. Или в кодировании видео. Ярко опять же видно прирост производительности в фотошопе.
опять же, как бы там ни было, много-мало, быстро-медленно - это все эпитеты :) Есть четкие единицы измерения производительности. И например плексы от нвидиа, работающие на 4х квадрах 5800, по производительности (запамятовал сколько там флопов) вхотят в топ 500 суперкомпьютеров.
Проблема расчетов на гпу в том, что нужно отдельно програмить на cuda.
Понятно, что рынок серверов/вычислительных станций - очень лакомный кусочек рынка, и, нужно отметить, очень высокорентабельный. Вот Интел и делает подобные шаги, что бы не допустить еще одного игрока в эту область.

В пршлом году не на шутку увлекся прикладными вычислениями на CUDA (4 х Asus Matrix GTX 260), смог, хотя и с трудом, заставить их работать все 4 одновременно на одной МП. Параллельно, этот же тип задач выполнялся на "классическом" 2-Quad'овом Xeon'овом (всего 8 ядер)сервере. Разница в проиводительности составляла десятки раз, в пользу системы вычислений на GPU nVidia под CUDA.
Остановило дальнейшую гонку за скоростью лишь огромное потребление всех "камнедробилок", необходимость круглосуточной работы кондиционера, классический "серверный" вентиляторный шум и огромные счета за электроэнергию. Реакцию домашних сознательно не описываю. Проекты, которыми загружались машины:
SETI@home (BOINC), Einstein@home и GPUGRID.
Впечатления очень позитивные, у систем параллельных вычислений на GPU огромное будущее, уверен.

Игорь, мой личный респект за вклад в эти благотворительные программы

Искренне признателен за добрые слова, Тимур, спасибо.
B.T.W., описанная GPU система для GPUGRID смогла пару раз в тот период добраться до 8-11 места в мирвом рейтинге производительности, обогнав немного профессионально собранные "молотилки", на более производительных nVidia GTX 295-х. В данном случае, GTX 260 Matrix'ы, сделанные ASUS'ом, смогли показать себя во всей красе, т.е. были разогнаны ло 754 Mhz по core clock и до 1212 Mhz по памяти.
Исключительные карты, настолько хорошо спроектированные, что они четко и непрерывно работали неделями без остановки, при 100% утилизации всей системы.

Возникает идея собрать на GPU маршрутизатор/файрвол :)

Ага. А потом Cisco Nvidia купит.
___________________________________
Twitter: @valbudkin

у cisco и так проблемы с дефицитом компонентов, а если купить nvidia, чтобы использовать ее чипы, анонс следующего поколения будет значительно раньше начала поставок текущего :)

Можно по разному обыграть.

Например, "а потом Nvidia Cisco купит" :)
___________________________________
Twitter: @valbudkin

:)

Чё-то есть у меня смутное подозрение, крепчающее с каждой новой сводкой с полей многопоточных вычислений и обеспечивающих их исполнение многоядерных кристаллов: Intel в очередной раз "сделала" конкурентов, таки выпустив на волю Larrabee, о чьей скоропостижной кончине в виде дискретной графики столько плакалось прогрессивное человечество с начала сего года... ;) - так вот, а производитель взял, да и "демилитазировал" сию разработку, направив мощь её многочисленных, но вполне универсальных вычислительных ядер на дробление таких же универсальных задач !... Чувствуете разницу: с одной стороны - притянутое за уши решение использовать в мирных вычислительных целях огромадную мощь узкоспециализированных в общем-то графических процессоров - они всё ж не для универсальных вычислений оптимизировались!..., а с другой стороны - Рой универсальных вычислителей, каждый из которых довольно ограничен, но вместе, гибко взаимодействуя по обработке произвольных данных, могут любую задачу порвать, как Тузик грелку!... Скажете - так тоже ведь надо проги писать для них и т.д. ... Но... Не помнит ли кто-нибудь здесь, кто первый универсальный процессор выпустил в коммерческих масштабах, подчёркиваю - "универсальный" ? И что получилось потом? ИМХО, ситуация повторяется, только в другом виде: у Intel есть универсальная вычислительная технология vs вынужденно приспосабливаемых под нужды универсальных вычислений технологий производителей видеочипов... И с кем пойдёт, по-вашему, индустрия? Из тех, кто не озабочен числом кадров в секунду, и прорисованными полигонами? а обычные "тупые" финансисты, бухгалтеры всех уровней и т.д. любители голых цифр? То-то же... И наглядные примеры уже есть: тот же FASTer от Oracle & Intel... - все, надеюсь, помнят, что не так давно Oracle присоединила к себе такую фирмочку, как SUN Microsystems, да ? А что это за машинки, тоже надеюсь, никому объяснять не надо... а тут в их руки попадают чипы, содержащие внутри себя кучу универсальных вычислителей !... что с ними логично сделать ? Правильно! объединить их в сеть !!! Что они уже и делают... ;) Knight's Ferry (Рыцарский Паром) уже есть, а Knight's Corner (Рыцарский Закуток) - на подходе !... Думаете, кто-нибудь типа Cisco или IBM долго будут ждать, а ? Да даже и Google тоже - хоть они всё ж пока что больше пользователи ИКТ в части железа... да и Microsoft, с её извечным желанием работать с промстандартавми - если сами не успели создать, тоже, ИМХО, не заставит ждать с поддержкой какого-нибудь очередного Wolf Pack... ditto... тот же и свободный мир ПО... думаете, Canonical долго думать будет, следует ли использовать в её новых релизах Ubuntu, особенно серверных, сих универсальных технологий? Думаю, тоже не заставят ждать со своими идеями/решениями...

А теперь взглянем на "проблему" с более прагматичной стороны: если Intel уже имеет во плоти сиё универсальное решение, а другие - те же видеочиподелатели - лишь приспосабливают существующие свои, повторюсь, изначально заточенные под видеографиескообработку, чипы под нужды произвольных вычислений - и учитывая наличие Фабов по миру у одной - и полное (или почти полное) отсутствие оных у других - не будем забывать, да? что у одного видеочипмейкера из Калифорнии Фабов своих никогда и не было; а второй успешно отправил оные в свободное плавание не так давно ;) то вопрос: кто первым сможет выпустить совсем массовый продукт на основе массы простейших вычислителей, а ? с наличием десятилетиями выверенной Copy Exactly - с одной стороны, и необходимостью согласований дизайнов-планов с партнёрами-исполнителями - у других?! ;) То-то же...

I have spoken...

Вы видеди производительность Интеловского видео?

А касательно всей этой чепухи...нужyы ли эти вычисления или нет, то напоминаю, что уже есть Adobe CS5.
И напоминаю, что нетбуки на ION лучше крутят видео и дольше живут от батарей. Так как енергоэффективность рассчета на видеокарте выше.

Вот опять приходим к проблеме с которой я сталкивался некотррое время назад.

Вобщем мои друзья с разведки Великобритании, объявили теорию как оборонную, но позволю себе несколько приблизить к сути проблемы.

Так я уже говорил о том что когда мировая экономика подходиля к краху, то после того как меня еще в былые времена меня достал Александр Лиман мы ударили Lehman Brothers. Чтобы события от торговой марки credit crunch, происходи в нужное время в нужном месте. Через некторое время, однако, наши опонеты из США непоняли наш юмор. Мы запготовили им заготовили Black Friday. И все главным образом посредством логистических возможностей нашего суперкомпьютера, который мы постоянно модернизируем.

Для чего это я расказываю? Дело в том что после очередно вот такой демонстрации нашего суперкомпьютера, финансисты из США очень дого говорили о той самой nVidia. Эта фирма якобы пообещала им очень быстродействующий компьютер для финансовых вычеслений, который способен был бы состязаться с нашим. После того как мы "разогнали" ядроный (адронный) коллайдер в отопительный сезон на те бабки которые у финансистов "сняли", они якобы начали использовать свой компьютер от nVidia. Закончилось тем что мы их еще развели на деньги, перенеся экономическую активность в другие регионы мира.

Совершенно очевидно, что у специализированных сопроцессоров есть возможность решать только узкоспециализированные задачи с очень высокой производительность, для некотороых задач они становятся чрезвычайно неэффективными.

Можно вспомнить что еще во время второй мировой войны США пользовались специализированным компьютером, похожим на сопроцессор, для решения диф. уравнений. (О чем расказывал Ваш Журнал)

Тогда как в Великобритании работали до сих пор секретные машины (секретность в отношении одной серии была снята, и как видим она и послужила прототипу компьютера ENIAC)

Еще следует вспомнить, что организация потоковости не является единственным критерием, если вообще является критерием, определяющем тип микропроцессора общего он назначения или какой либо специализированый.

Наша матрица является многопотоковой множество потоков данных множество потоков комманд, и содержит десятки миллионов процессорных ядер. У наших друзей из Японии машина является тоже многопотоковой множество потоков данных один поток комманд. С ее помощью Японцы смогли поблагодарить США за то что такую военную базу на Японском острове оставили, но с переездом базы на новое место которое поменьше. (Правда приезжавший в Киев сенатор США что-то возмущался там, да и Клинтон злилась.)

Но в обоих случаях несмотря на архитектуру компьютеры являются компьютерами общего назначения, и они эффективны в различных типах вычислений.

Спасибо Вашему Журналу, за материалы которые лично мне позволили анализировать солстояние компьютерных технологий и находить полезные технические решения.

Следовало бы заметить, что разрыв становится меньше если использовать процессоры от ARM.

  • Во-превых такие процессоры ARM снабжены функциональностью видеоускорителей.
  • Во-вторых у них очень сбаллансированная архитектура, что выгодно отличает их от других.

Пока x86-архитектура перепаковывает регистры и блоки памяти, ARM уже обрабатывает следующее.

Это то что есть на сегодняшний день, чем можно пользоваться с QNX, Windows, MacOS, Ubuntu, и др..

Ubuntu для ARM снабжена еще и библиотеками от Adobe, позволяющими очень быстро работать с multimedia. Прекрасно выполняя функции характерные для ускорителей графики.

Стоит ли спорить, лучше ли использовать то что уже есть сегодня?

В добавок ко всему процессоры от ARM еще и значительно менее требовательны к электроэнергии.

Особенно, если учесть, что Intel в своё время отправила свою версию ARM, а именно XScale, в свободное плавание... ;) - продав технологию Marvel'у... не очень, значит, они и универсальны... да, они самые распространённые - в любом телефоне их можно сейчас найти, в любом более-менее пристойном гаджете, но... не как универсальные вычислители...

Недавно стал обладателем Core i3 cо встроенным графическим ядром, впечатления только положительные. Я понимаю что отзыв "домашнего пользователя" практически ничего не значит для рынка в целом, и уж точно никак не отразится на распространении технологий CPU vs GPU, но уж точно могу сказать, что при наличии граф ядра, GPU не станет стандартом для домашних пользователей, а так и останеться "технологикей игр" и геймдева, т.к. +/- 2 минуты перекодировки видео, погоды не делают, а иные интенсивные вычесления в домашних условиях нужны далеко не всем. Я лично балуюсь перекодировкой видео в формат 320х240 для просмотра на телефоне в дороге или коммандировке, согласитесь делать это средствами CPU, которое уже умеет это делать быстро и незаморачиваясь, намного приятнее чем искать софт под GPU. Ещё один большой плюс применения CPU - офисные "печатающие машинки", в которых дискретное видео - зло. Зачем ставить "печку", платить за електроенергию, если встроенного ядра хватит даже инженеру для CAD-систем, и дизайнеру для 3D.
А вот проффесиональные вычислительные системы - самое место где GPU может раскрыть себя в полной красе, туда им и дорога.
Очень интересно наблюдать за битвой Intel vs Nvidia, в которой я всё таки на стороне Intel, надо запастись попкорном.

Отож !!! ;)

Я и G43 + E8200 вполне доволен... Хотя клиенты от i3-5x0 / i5-6xx + H55 тоже вполне довольны... для домашнего HD-видео - самое то !!! тихо и экономично - с точки зрения энергопотребления!... да и по деньгам... - вполне можно забывать про процессоры и вообще платформы предыдущего поколения, 2008-2009гг.: C2D & C2Q ...

Еще раз для идиота пишу - внешнее видео (ION) более енергоэффективно при просмотре видео и при прокрутке флеша. А стоит копейки. Интел просто задорого впаривает свой фуфел. А чтобы брали и не вздумали нос воротить, искуственно припаивает его к процессору. Невзирая даже на различие в микронах.
Вашего встроенного видео от Интела хватит только домохозяйке, которая сидит вконтакте.

"встроенного ядра хватит даже инженеру для CAD-систем, и дизайнеру для 3D" - в ближайшие 5 лет точно не хватит.

А где утверждалось, что для 3D-моделирования достаточно встроенной в новые процессоры-2010 графики?

Но вот для просмотра... с головой хватит !!! и ещё останется... тем паче "для домохозяек"... коих, к превеликому Вашему сожалению, становится всё больше в рядах владельцев и пользователей ПК !... Ну не режутся они в FPS и прочие "Бей их Всех!"... - для них достаточно и Симсов да казуальных игр, ну и просмотр кино, с некоторыми элементами редактирования, которое вполне по силам встроенному видеоядру - вкупе с центральным процессором... А насчёт "искусственно припаивает его к процессору" - возьмите, да и покажите пример, как надо делать массовую систему "Всё-в-Одном" - в смысле разработайте - и главное, запустите в массовое производство подобный кристалл - а так это всего лишь пускание волн... Впрочем, для подобных диспутов дааавно действует такой ресурс, как IT Galaxy - предметный и посещаемый именно специалистами да профи в ИКТ, а не праздными критиками...

А че я должен показывать..... возьмите платформу на первом IONe -вот по сути вершина того, что надо домохозяйке.
И двухядерный атом.

Так нет же, Интел видит что начинает просырать долю рынка встроенного видео, так бегом начинает самыми грязными методами его за собой закреплять... меняя сокеты и идеологию. Ведь скорость видеокарты ни на йоту не увеличилась из-за того, что ее припаяли на одну платку.

Зачем ставить "печку", платить за електроенергию, если встроенного ядра хватит даже инженеру для CAD-систем, и дизайнеру для 3D.

Ну наверное затем, что не все производители матплат соизволят ставить DVI или HDMI на плату, а обычный d-sub безбожно мылит.
Наверное затем, что у инженеров и дизайнеров бывает больше одного монитора, а независимый вывод на два (и более) монитора интегрированное видео не поддерживает.
Наверное затем, что в 3DSMax, и даже Photoshop CS4 намного приятнее работать с аппаратным ускорением, чем без него.
Так что не стоит делать панацею из маленького тормозного решения только потому, что его интегрировали на процессор ;)

Наверное затем, что у инженеров и дизайнеров бывает больше одного монитора

сколько % от общего кол-ва рабочих станций используются с 2 и более мониторами?

Наверное затем, что в 3DSMax, и даже Photoshop CS4 намного приятнее работать с аппаратным ускорением, чем без него.

если 3DSMax или Photoshop CS4 куплены - то и на железе економить не стоит.

сколько % от общего кол-ва рабочих станций используются с 2 и более мониторами?

Такой статистики у меня нет, но с другой стороны и сразу отбрасывать подобные системы, выставляя интегрированное видео панацеей, не стоит :)

Да уж... интересно, когда Вы в последний раз брали в руки современную интегрированную мобо, или просто заглядывали за "угол компа", то бишь на заднюю панель, а ? Там скорее уже не встретишь D-Sub, чем встретишь... а вот цифровые - повсеместено !!! Мы ж не говорим про малобюджетные модели, на которые высокопроизводительные видеокарты ставить и вовсе не комильфо...

Лично я почувствовал, что час интегрированного массового видео наступил именно тогда, когда на мобо стали интегрировать цифровые видеопорты!... Так что вот так...

А недовольным у меня рецепт всё тот же: возьмите, да и сотворите нечто своё, чем хаять созданное кем-либо другим...

интересно, когда Вы в последний раз брали в руки современную интегрированную мобо

В пятницу

просто заглядывали за "угол компа", то бишь на заднюю панель

/*Заглядывает за угол стоящего рядом компа с интеграшкой*/
Только что :D

Там скорее уже не встретишь D-Sub, чем встретишь

Ровно наоборот

а вот цифровые - повсеместено

Судя по Хотлайну - в лучшем случае только в половине плат, а ведь есть ещё вопрос Single/Dual Link DVI ;)

Лично я почувствовал, что час интегрированного массового видео наступил именно тогда, когда на мобо стали интегрировать цифровые видеопорты!... Так что вот так...

Вот стоит у меня интегрированная GF7050, с DVI, да, только вот какая проблема - не хватает его DVI для Samsung 2343, не может он на него вывести картинку в родном разрешении. А по vga он её выводит с искажениями фазы в виде двоений-троений вертикальных линий. Потому интеграшка отключена, а монитор подключен к отдельной 4350, хехе

А недовольным у меня рецепт всё тот же:

Да-да, Сперва Добейся :D

Прекратите юзать мобо на G31/G41... - переключайтесь на H55 + i3/i5 !... ну и i7, естественно - но в последнем случае волей-неволей и видео придётся ставить дискретное...

На кой мне эти интеловские недоделки?

Правильно, лучше i3/i5 + H55 ;)

+ DDR3 1600 Мгц в XMP

Особенно учитывая что всё это добро совокупно будет иметь TDP меньше чем у любой из топовых видях (я уже не говорю про уровень шума).

Отож !!! :)

Туда же, single link dvi в 2010 и отсутствие нормального usb 3.0 (плата ведь не на год покупается, да?) делают такие покупки уделом разве что недальновидных людей

идём на http://en.wikipedia.org/wiki/Universal_Serial_Bus#USB_3.0
и читаем про USB 3.0 :
Designer Ajay Bhatt, Intel
Designed January 1996
Manufacturer Intel, Compaq, Microsoft, NEC, Digital Equipment Corporation, IBM, Nortel

почему-то в этом списке отсутствуют Нвидиа и иже с ними.
вывод: Нвидиа - больше паразитирут на технологиях.
Интел их разработывает, а дерьмицо льют именно на Интел.

Шизоидный бред, не относящийся к делу.

Бред, говорите? Подите да и скажите это Аджаю ;) Интересно, сколько пар женских каблучков его сотрудниц окажутся ненавязчиво торчать из разных мест Вашего тела?

Если жаба давит из-за собственной немощи и зашоренности - то кто ж доктор-то Вам ?

Так не я приплёл сюда USB3.0

Если вы не в теме о проблемах usb3 на матплатах с чипсетами Intel, то лучше молчите, за умного сойдёте
Я уж не говорю о том, что контроллера usb3 от Intel нет и не предвидится в ближайшем будущем
А вообще RTFM - http://www.ixbt.com/storage/usb3hdds-p03-u3s6.shtml

Все проблемы решаемы :)

Естественно, но зачем заранее брать систему с костылями и подпорками (зато Intel Inside!!!1111 :D), если можно взять нормальную? Синий шильдик увеличивает производительность? :))

Прочитал статью и комментарии.
Интересная развернулась дискуссия.
Авторы в основном блещут своей крутизной.
GPU мощнее по производительности чем CPU?
Ну и что?
Как говорится съест то он съест, только кто ему даст.
Я думаю, что сейчас в основном самые ресурсоемкие задачи у большинства пользователей решаются именно с помощью GPU.
Вот и пусть NVIDIA шлифует свои корявые драйвера.

А то от одной поколения карты к другой все время что то меняется в картинке.
А после перехода на Vista вообще стали кошмары происходить.
Хотя это возможно MS пакости устраивает для любителей OpenGL.

Вот именно...

Интересно, кто тому узкоспециализированому типо "Стаханову" данные поставляет, а ? Отож... Центральный процессор... и к чему ближе доставить обработанные данные: к находящемуся рядом на подложке видеоядру, или же к находящемуся за невесть сколько миллиметров/сантиметров безумно вумному графическому чипу, за который по-любому надо платить долларов (для упрощения расчётов/колеюаний курсов) так 70-100 сверху !!!

Да и сравнение ION с интеловскими интегрированными решениями под Intel(R) Atom(TM) в корне некорректно: сравните стоимость мобо на той и другой платформе, а? Отож...

А вот сравниваем. Цена одинакова.

Отыскал в третьем абзаце, исправьте =)

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT