Посягая на основы

17 сентябрь, 2007 - 18:30Виктор Вейтман

В те далекие времена, когда Интернет еще не стал всеобщим достоянием, каждая относящаяся к нему публикация, по сути, представляла собой панегирик. Это вполне объяснимо, если учесть то обилие возможностей, которые нам сулила Сеть. Но к хорошему быстро привыкают. Прошло десять лет, и восторженная похвала уступила место пусть и довольно умеренной, но критике.

И на солнце бывают пятна...

У каждого инструмента есть своя область применения, не стал исключением и Интернет. Как известно, он создавался для содействия научным исследованиям и до тех пор, пока большинство пользователей принадлежало к академическим кругам, как нельзя лучше справлялась со своими задачами. Однако в начале 90-х Интернет ждало серьезное потрясение. Авторы популярных книг и статей по привычке еще подчеркивали, что его коммерческое использование вряд ли допустимо, но в это же время создавались сайты, рекламирующие различную продукцию, один за другим появлялись форумы, предназначенные для содействия купле-продаже, а новые сетевые приложения разрабатывались отнюдь не для поддержки научных экспериментов. Благодаря исключительной жизнеспособности Интернета удалось пережить период бурной коммерциализации и даже в основном сохранить свой изначальный вид, однако теперь в хоре хвалебных отзывов слышатся и голоса, напоминающие о ее недостатках.

За последние годы число сетевых приложений резко возросло, и оказалось, что разработчики испытывают значительные затруднения, реализуя обмен по Сети в медицинском ПО, программах для контроля параметров внешней среды, управления в чрезвычайных ситуациях и др. В целом жалобы сводятся к следующему: существующие средства Интернета недостаточно масштабируемы и не могут удовлетворить ряду специфических требований.

Такие свойства Сети, как анонимность и доступность, ранее считавшиеся ее преимуществами, вдруг превратились в недостатки, так как предоставили практически неограниченную свободу спамерам. Да и взломщики чужих систем чувствуют себя в современной сетевой среде достаточно вольготно. Уже сейчас с таким положением дел нельзя мириться, а ведь не за горами то время, когда практически любое измерительное или исполняющее устройство будет доступно через Интернет. И тогда проблемы безопасности станут куда актуальнее.

Еще одним потрясением для Интернета стало бурное развитие мобильных устройств. С самого начала Сеть разрабатывалась как структура, объединяющая стационарные компьютеры, которые постоянно подключены к сети. Казалось бы, многолетнее использование коммутируемых соединений должно было стать своеобразной подготовкой к нынешней ситуации. Тем не менее традиционно ПК, взаимодействующие с Интернетом по телефонным линиям, выполняли в основном роль клиентов. Теперь же появились серверы, перемещаемые с места на место и подключаемые через беспроводные соединения. При этом в разное время они могут быть узлами различных сетей. За их расположением приходится следить и обеспечивать постоянный и бесперебойный доступ к ним клиентов. Таким образом, сетевое сообщество столкнулось с очередной проблемой, которую приходится срочно решать.

Предъявляются и другие, менее существенные претензии. Например, есть мнение, что при любых попытках использовать в Интернете кодировку Unicode, специально разработанную для представления символов национальных алфавитов, будут возникать серьезные трудности .

Одним словом, сегодня, говоря об Интернете, все по инерции повторяют: «Это очень хорошо», но все чаще за этим стоит: «Могло бы быть и лучше». Так, профессор университета Рутгерса Дипанкар Рэйчаудари (Dipankar Raychaudhuri) считает: «...пока Интернет неплохо справляется со стоящими перед ним задачами, но концепции, на которых он основан, плохо отражают современное положение вещей». Даже знаменитый Винтон Серф (Vinton Cerf) сдержанно высказывается о том, что используемые в настоящее время технологии не полностью соответствуют всем потребностям пользователей. «Этому есть объективные причины, – говорит он. – На заре Интернета никто не предполагал, что по Глобальной Сети будет передаваться графика, аудио- и видеоданные, и поэтому невозможно было представить себе современные объемы трафика и количество людей, деятельность которых напрямую от него зависит».

Решение всех накопившихся проблем многие специалисты видят в том, чтобы заменить Интернет новой сетью, разработав ее структуру «с нуля». Такая идея может показаться как минимум авантюрной, однако к числу сторонников подобного радикального подхода принадлежат многие серьезные ученые и даже один из основателей Интернета – Леонард Клейнрок (Leonard Kleinrock), в 1969 г. впервые продемонстрировавший обмен данными между двумя компьютерами.

Дефицита идей нет

Как только недостатки той или иной системы становятся очевидны, они непременно привлекают к себе внимание исследователей. Не стала исключением и нынешняя ситуация. Многочисленные рабочие группы начали изыскания в области, условно называемой Future Internet, и активно ищут альтернативу существующей структуре Глобальной Сети.

Проект ANA (Autonomic Network Architecture, посвящен исследованию автономных масштабируемых сетей, причем масштабируемость здесь означает изменение в широких пределах не только размеров, но и функциональных возможностей. В кратком описании характеристик такой сети встречается невероятное количество слов, начинающихся с приставки «само-»: самоорганизация, самоуправление, самовосстановление, самомониторинг и даже самозащита. В настоящее время сеть, построенная по принципам ANA, может содержать до 100 тыс. маршрутизаторов, но в дальнейшем, по мнению участников проекта, реализация ряда идей позволит снять и это ограничение.

Проект BIONETS (BIOlogically inspired NETwork and Services, как видно из его названия, представляет собой попытку использовать при построении сетей «подсказки», предлагаемые живой природой. Его создатели взяли на вооружение принципы искусственного интеллекта, в частности, генетические алгоритмы и методику оценки качества функционирования программ на основании анализа действий пользователя, а также технологию мобильных агентов. Сервис (программные средства, позволяющие обслужить конкретный запрос) «рождается» (т.е. загружается из окружающей сетевой среды), «развивается» (т.е. подгружает из Сети дополнительные компоненты, необходимые для развития своих функциональных возможностей) и «умирает» (в случае, если не может удовлетворить требования пользователя). Также он снабжен «инстинктом самосохранения», стимулирующим действия, направленные на «выживание» (т.е. на наилучшую адаптацию к потребностям пользователя). Подобный подход дает возможность отказаться от традиционного для Интернета взаимодействия «точка-точка», а следовательно, перспективен для поддержки сетей, состоящих из большого количества мобильных устройств.

Полный отказ от семейства протоколов TCP/IP предлагают участники проекта Haggle. По их мнению, над канальным уровнем модели OSI вовсе не нужны уровни сетевого взаимодействия. За передачу данных, считают они, должны отвечать непосредственно прикладные программы. Разрабатываемая в рамках проекта система призвана обеспечить эффективную доставку сообщений на мобильные устройства.

Практика – критерий истины

Три перечисленные выше проекта – лишь малая часть инициатив, направленных на полный пересмотр структуры и организационных принципов современного Интернета. Нельзя заранее предсказать, насколько эффективной будет их реализация, но несомненно одно: какими бы блестящими ни казались выработанные решения, применять их на практике будет весьма рискованно. Ведь речь идет ни много ни мало о Всемирной Сети. Поэтому необходимо уделить максимум внимания проверке результатов, причем проводить ее следует на сложной сетевой инфраструктуре, включающей как можно большее количество узлов.

Миссию содействия исследованиям, выполняемым в США, взяла на себя GENI (Global Environment for Network Innovations, . Эта организация предполагает предоставить ученым полигон для проведения масштабных экспериментов. Его основу сформирует набор узлов, сетевых соединений (в том числе беспроводных), маршрутизаторов, хранилищ данных и процессорных кластеров. «Поверх» нее будет создана базовая система управления, непосредственно контролирующая ход экспериментов. Компоненты системы программируемые, т.е. они позволяют сформировать среду, необходимую для конкретного исследования. Кроме того, можно будет проводить несколько экспериментов одновременно, т.е. для того чтобы начать очередной, не обязательно ожидать окончания предыдущего. Это очень важно, так как решения, ориентированные на перестройку Интернета «с нуля», часто требуют длительной непрерывной проверки. И, наконец, в процессе эксперимента обеспечивается взаимодействие с пользователями. Таким образом, каждый желающий сможет оценить, какие средства предлагаются на замену привычной Сети, и участвовать в их тестировании.

Аналогичные цели по координации изысканий, проводимых в странах Европы, и предоставлению средств для масштабных экспериментов ставит перед собой организация ARCADIA.

Системы, разрабатываемые в рамках GENI и ARCADIA, – не единственная возможность для исследователя проверить жизнеспособность своих решений. Те, кто не согласен ожидать, когда они станут доступны, могут воспользоваться услугами PlanetLab – сетевой инфраструктуры, созданной еще в 2002 г. На сегодняшний день она насчитывает 805 узлов, расположенных в 401 точке земного шара. Большинство компьютеров, составляющих PlanetLab, принадлежат научным учреждениям, однако некоторые из них расположены в центрах маршрутизации. На всех узлах работают унифицированные программы, выполняемые в операционной среде Linux. Они контролируют работоспособность компьютеров, обеспечивают мониторинг сетевой активности, контроль различных параметров – одним словом, позволяют следить за ходом эксперимента.

Система Emulab, реализованная совместными усилиями специалистов Flux Group и университета штата Юта, предназначена для поддержки менее масштабных экспериментов. Программные средства Emulab обеспечивают доступ к различным сетям, в частности беспроводной, функционирующей в пределах одного здания, и к нескольким десяткам узлов, расположенным в различных точках земного шара.

Инфраструктура для проведения экспериментов ORBIT (Open Access Research Testbed for Next-Generation Wireless Networks), созданная специалистами университета Рутгерса, насчитывает 400 узлов, объединенных в беспроводную сеть. Пользователь может развернуть на них любую операционную среду по своему выбору и задавать различные сценарии проведения эксперимента.

Программная система VINI (Virtual Network Infrastructure) представляет различные сетевые компоненты – узлы, интерфейсы, соединения, маршрутизаторы и позволяет эмулировать разные режимы их работы. Ее создатели решили задачи совместного использования средств маршрутизации в различных экспериментах и обмена трафиком между виртуальной и реальной сетями, а также обеспечили поддержку ряда сетевых топологий. VINI подходит для работы со многими реальными сетевыми инфраструктурами, в частности, она успешно применяется совместно с PlanetLab.

Эти и другие виртуальные средства поддержки экспериментов характеризуются следующими особенностями. Во-первых, с их помощью можно запускать любые, в том числе широко распространенные в настоящее время, программы маршрутизации. Это дает возможность оценить границы применимости протоколов и перспективы их модификации. Во-вторых, они эмулируют специфические условия реальных сетей, позволяя пользователю формировать требуемую топологию и схемы маршрутизации. В-третьих, в процессе эксперимента можно имитировать события, характерные для реальных сетей (например, обрыв линии связи или ее перегрузку) и анализировать их последствия. И наконец, при необходимости можно обеспечить прохождение через виртуальную сеть трафика между реальными взаимодействующими узлами.

Таким образом, исследователи всегда могут проверить свои идеи в среде, близкой к реальной.

А вдруг мечты станут явью...

Большинство исследований по теме Future Internet направлены на решение злободневных задач: организацию работы мобильных устройств и повышение уровня защиты информации. Уделяется внимание также предстоящему росту Интернета «вширь» – резкому увеличению числа его узлов и, соответственно, объемов трафика. Однако нельзя забывать и о росте «вверх». Кто сказал, что размеры Интернета всегда будут ограничены земным шаром? Время от времени в печати появляются сообщения о планах создания колонии на Луне, причем в недалеком будущем. И хотя, как показывает опыт, сроки освоения космического пространства всегда нуждаются в корректировке в сторону увеличения, нельзя с уверенностью сказать, что подобным планам не суждено сбыться вовсе. Конечно же, первым лунным колонистам понадобится доступ к Интернету, и тут выяснится, что обмену данными препятствует один из фундаментальных физических законов – конечная скорость распространения электромагнитных колебаний. Радиосигналу потребуется приблизительно минута, чтобы достичь Луны и столько же – на преодоление обратного пути, и это время не смогут сократить никакие ухищрения. При этом современные протоколы семейства TCP/IP теоретически продолжат функционировать, но условия работы пользователей вряд ли можно будет назвать комфортными.

А если не сдерживать полет фантазии и предположить, что в обозримой перспективе и на Марсе будут работать... нет, конечно же, не люди, а автономные интеллектуальные роботы, которым время от времени будут нужны данные из Интернета? Тут уже радиосигналу понадобится несколько минут, чтобы преодолеть расстояние между планетами. Соответственно, потребуются какие-то новые протоколы и решения. Понятно, что об интерактивном взаимодействии придется забыть. Необходимо будет заранее планировать отправку большого объема информации, причем организовать его так, чтобы передача служебных пакетов, подтверждающих прием данных, осуществлялась крайне редко.

Так или иначе, о подобных проблемах стоит задумываться уже сегодня. Совсем не исключено, что потребность в «межпланетной» сети возникнет приблизительно тогда, когда ценой невероятных усилий Интернет перейдет «на новые рельсы». И будет очень обидно, если окажется, что специфика дальней связи не учтена, и Сеть снова придется перепроектировать «с нуля».