`

СПЕЦИАЛЬНЫЕ
ПАРТНЕРЫ
ПРОЕКТА

Архив номеров

Как изменилось финансирование ИТ-направления в вашей организации?

Best CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Intel: «Все новые разработки должны иметь префикс multi»

Статья опубликована в №46 (565) от 5 декабря

0 
 

Во время киевского IDF, который состоялся 21 ноября, нам удалось побеседовать с директором лаборатории системных технологий корпорации Intel Раджибом Хазра (Rajeeb Hazra). Встреча произошла непосредственно после его пленарного доклада об эволюции вычислительных архитектур, вызванной развитием новых подходов на базе интернет-технологий. Таким образом, и тема, и вопросы были выбраны под впечатлением его выступления.

Я родился в Индии. В Соединенные Штаты приехал, чтобы получить высшее образование в области компьютерных наук. До прихода в Intel работал на технических должностях в корпорации Lockheed, а также провел пять лет в исследовательском центре NASA, где занимался проектированием и определением технических характеристик приборов для дистанционных измерений. Темой моей диссертации на степень доктора философии (PhD) было цифровое восстановление искаженного изображения без данных о его первоначальном виде.

Intel «Все новые разработки должны иметь префикс multi»
Раджиб Хазра (Rajeeb Hazra)

В 1995 г. я начал карьеру в Intel, где работаю уже более 11 лет в области обработки цифровых сигналов (digital signal processing). Фактически все эти годы я трудился в исследовательских лабораториях. Моя первая команда занималась сжатием видео. Я возглавлял ее в течение двух лет. Главным объектом наших разработок было потоковое видео в сети в реальном режиме времени. Кстати, один из первых интернет-видеофонов был создан именно под моим началом. После этого я постепенно начал переключаться на менеджмент. Тем не менее все еще оставался в курсе всех технологических разработок и продолжал интересоваться макроархитектурой различных платформ, а также системным программным обеспечением. На сегодняшний день я не могу сказать, что обладаю очень глубокими знаниями современных технологий. Моя задача заключается в составлении портфеля работ различных исследовательских лабораторий, которые охватывают все области – от программного до аппаратного обеспечения.

Какие основные тенденции вы могли бы выделить в архитектуре вычислений сегодня?

Очевидно, что самая главная тенденция – движение к тому, что можно назвать multi-everything. Таким образом, в названиях всех новых разработок отныне должен присутствовать префикс multi. На сегодняшний день специалисты, задействованные в индустрии, хорошо осознают, что основным способом увеличения производительности является не масштабирование или частоты, а написание кодов и разработки методов их исполнения, отличных от тех, что были до сих пор. Я употребляю термин multi-everything, поскольку должно быть многопотоковое ПО, исполняющееся на многоядерных процессорах или многомашинных системах. Таким образом, тенденция заключается в распараллеливании программ, в разработке аппаратной платформы, поддерживающей параллелизм, в общем, в повсеместном его использовании.

Мы активно работаем над созданием компьютеров, которые будут поддерживать параллелизм. Данная тенденция очень важна, и мы считаем, что только она сможет обеспечить требуемую сегодня производительность. Примером этому служат двухъядерные и четырехъядерные системы. Хочу отметить, что в течение следующих трех–пяти лет на рынке появятся 16- и 32-ядерные чипы. Тем не менее наряду с большими затратами ресурсов на разработку многоядерных CPU нужно уделять внимание скорости обмена данными с памятью, системам ввода/вывода, безопасности виртуализации и многому другому. Если вернуться к однопотоковым процессорам, то здесь главное – тактовая частота и количество инструкций в секунду. Однако на этом пути увеличение производительности становится все более сложным и дорогим, поэтому основная тенденция заключается в том, чтобы обеспечить нужный ее уровень посредством multi-everything.

Каковы причины перехода от архитектуры клиент/сервер на архитектуру, больше ориентированную на сервис как таковой?

Я бы назвал этот процесс последовательным и непрерывным, поскольку мы не осуществляем дискретный переход от одного направления к другому. У архитектуры клиент/сервер есть своя тoпология и определенная парадигма для необходимых приложений и моделей данных: программы «живут» у клиентов, данные – на серверах. Что касается сервис-ориентированной архитектуры, то подход заключается в следующем. Если вы собираетесь предоставить потребителю сервис, то какая архитектура должна это обеспечить?

Идея состоит не в том, чтобы предоставлять клиенту программу, биты, байты или гигагерцы. Базовым элементом является сам сервис как таковой. Давайте приведу конкретный пример. Сегодня, когда IT-менеджеру нужна система электронной почты, он начинает искать средство обмена (как, например, Microsoft Exchange) и пытается определить, как этот сервис может быть использован, как он будет загружен, какие требования к мобильности. А затем он отображает компьютерные ресурсы на природу сервиса. Такой подход отличается от старой модели клиент/сервер, поскольку в последнем случае каждому пользователю необходим на компьютере клиент электронной почты, должен быть сервер, на котором работает соответствующее ПО. Однако с точки зрения сервис-ориентированной архитектуры электронная почта – это сервис. И он должен быть надежным, масштабируемым, обеспечивать необходимое качество сервиса и гарантировать, что все требования клиента будут удовлетворены. Если говорить об архитектурном подходе, то следует принимать во внимание, что в случае сервиса, такого как электронная почта, речь идет не об одном компьютере, а об их группе. То, каким образом программа взаимодействует со всеми ПК, определяет качество сервиса. И для сервис-ориентированной архитектуры нужно построить инфраструктуру, которая поддерживает нужды сервиса. Она должна опираться не на индивидуальную платформу пользователя, а на пул компьютерных ресурсов. Это придает большую гибкость сервис-ориентированной архитектуре. Такой подход отличается от того, когда сервис подстраивают под существующее оборудование.

Вы упомянули о новой вычислительной парадигме. Какие возможности она предоставит пользователям?

Я в Киеве уже три дня, посещаю магазины, рестораны, знакомлюсь с городом. И хотелось бы, чтобы мой мобильный телефон, который всегда со мной, мог определять, где я нахожусь, давать инструкции, как пройти на нужную мне улицу, предоставлять информацию из локальной базы данных о том, что я вижу. И делать все на английском языке. Это только один небольшой пример из того, что может дать новая технология вычислений. Другая перспективная область – медицина и здравоохранение, в частности удаленный мониторинг состояния пациента, а также возможность ему самому определять его. Было бы весьма полезным иметь устройство с функциями переводчика. В общем, наступает время, когда компьютеры начинают выполнять нужные вам операции без вашего вмешательства. Это будут фантастические сервисы.

Что касается корпоративного сегмента, то изменится модель обеспечения безопасности. Это интересный подход. Отныне необязательно всегда создавать сквозную защиту. Достаточно организовать ее на участках от одного транзитного маршрутизатора до другого, что обеспечит вам безопасность, возможность изменять топологию, а также даст полный контроль над трафиком. Хочу отметить, что технологии способны предоставить тысячи полезных решений для различных сегментов. Благодаря новейшим разработкам можно сократить затраты времени и денег. Иногда я чувствую себя ребенком в стране игрушек, когда соприкасаюсь с миром новых технологий.

Какие проблемы возникли на IT-рынке в связи с появлением новой парадигмы вычислений?

Что касается технической стороны, то эта парадигма поставит перед разработчиками много интересных задач. Например, каким должен быть дизайн новых устройств? Какова должна быть архитектура памяти? Большинство проблем связано с программным обеспечением. Очень важным на сегодняшний день является написание эффективного кода, в частности для операционной системы. Сама идея параллельного программирования радикально отличается от модели фон Неймана, которая используется уже более пятидесяти лет. Очень сложная задача – сделать написание кодов максимально легким. Необходимо также думать над тем, как упростить применение этих новых устройств. Пользователям всегда нужно получить максимум от работы с ПК.

Хочу также отметить, что и в социуме новые технологии также вызовут перемены. Это в первую очередь относится к моделям социального поведения и общения. Отныне парковая скамейка заменяется URL-адресом. Хочу рассказать одну историю. У моего приятеля есть сын, к которому часто ходит в гости мой сын. И вот как-то раз его сын подошел к нему и попросил отвезти моего сына домой, чтобы поиграть с ним в онлайновую игру. Такое поведение очень сильно отличается от модели «отведи меня к моему другу, чтобы я мог с ним поиграть». Это, согласитесь, огромное изменение в жизни общества. Занимаясь разработками технологий и программ, мы должны особое внимание уделять социальным процессам. Возьмем, к примеру, влияние мобильных телефонов. Они популярны уже более десяти лет. За это время был создан абсолютно новый стиль общения. SMS-сообщения открыли совершенно новое явление в коммуникациях людей друг с другом.

Я вам говорю об этом, поскольку моя деятельность связана непосредственно с решением различных задач в области как программного обеспечения, так и аппаратного. Моя команда занимается разработкой архитектуры платформы, в частности тем, как построить подсистему памяти, ввода/вывода, какой должна быть архитектура системного ПО, как обеспечить масштабируемость новых решений. Кроме того, мы также проектируем интерфейс, который сможет обеспечить пользователю максимальную производительность исходя из его социальных нужд.

С сервис-ориентированной архитектурой обычно связывают и центры обработки данных. Какие технологические изменения необходимы для построения мегацентров будущего?

На мой взгляд, существуют три основные проблемы, над которыми нужно работать. Первой является масштабируемость центров данных. Здесь под масштабируемостью я понимаю увеличение вычислительной мощности центров данных, не делая их при этом размером с футбольное поле с потреблением энергии целого города. Другими словами, нужно повысить «плотность производительности». Таким образом, второй проблемой является повышение эффективности энергопотребления. Как сделать так, чтобы центры данных сохраняли стоимость энергопотребления на приемлемом уровне? Если обратиться к дизайну микропроцессоров, то здесь возникает вопрос разработки архитектур с низким энергопотреблением. Как создать интеллектуальные средства самоуправления энергопотреблением и охлаждением различных систем? Какое для этого необходимо ПО и новые материалы? И наконец, третий аспект, который необходимо учесть в разработке центров данных будущего, – это управляемость и безопасность, иначе могут возникнуть трудности.

Какие действия предпринимает Intel для поддержки новой парадигмы?

Первое, что хотелось бы отметить, – это инвестирование больших ресурсов в исследовательские работы, в базовые технологии. У нашей компании уже есть очень интересные результаты, относящиеся к созданию многоядерных архитектур. Мы уделяем особое внимание исследованиям в области межкомпонентных соединений, подсистем ввода/вывода, архитектуры памяти и т. п. Второй областью наших активных исследований является системное ПО. Много средств также уходит на то, чтобы ознакомить индустрию с новой парадигмой, научить, как создавать параллельный код для нового типа архитектуры. Это часть нашей партнерской программы. Кроме того, мы сотрудничаем с государственными структурами и крупными академическими институтами, которые помогают нам в исследованиях и испытаниях новых систем. Мы понимаем, что не можем предвидеть всего, поэтому взгляд со стороны бывает очень полезным.

Как будут соотноситься между собой многоядерность и закон Мура?

Мне часто задают вопрос о грядущей «кончине» закона Мура. Совсем недавно меня спросили, сколько еще этот закон просуществует. Когда Гордон Мур сформулировал свое утверждение (плотность транзисторов на кристалле микропроцессора будет удваиваться каждые 18 месяцев), транзистор был просто огромным по сравнению с современными разработками. Сегодня размер логического вентиля транзистора составляет десятки нанометров. Закон Мура остается в силе уже сорок лет, однако это не может продолжаться вечно.

У нашей компании есть как философская, так и технологическая точка зрения по этому вопросу. Мы сталкиваемся с проблемой масштабирования ежегодно в течение последних 15 лет. Впервые нас спросили о «гибели» закона Мура, когда мы достигли показателя в 1000 нм. Никто не верил, что возможно и далее уменьшать технологические нормы. Да, это сложно, но мы справились с этим. Сегодня данная цифра равна 65 нм. С каждым разом разработка дается все труднее, поэтому мы ищем новые пути развития технологий, отличные от традиционных, например создание устройств на базе кремния.

Тем не менее я думаю, что пройдет еще лет пятнадцать, прежде чем можно будет говорить о смерти данного закона. Быть может, увеличение плотности транзисторов отныне не будет столь быстрым – на то есть ряд причин как экономических, так и, возможно, политических. Я считаю, что на пути миниатюризации и интеграции на базе кремния нас ждут успехи.

0 
 

Напечатать Отправить другу

Читайте также

 
 
IDC
Реклама

  •  Home  •  Рынок  •  ИТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Сети  •  Безопасность  •  Наука  •  IoT