Intel и университеты создают всемирную сеть

25.06.2003 | 15:23
Корпорация Intel, а также Принстонский университет, Калифорнийский университет в Беркли и ряд других академических и коммерческих гигантов объединили усилия с целью устранения перебоев в циркуляции данных по земному шару.

PlanetLab - это экспериментальная сеть, образованная поверх интернета. Она позволит исследователям и разработчикам тестировать и создавать приложения, легко опоясывающие планету. Со временем работа, выполненная в рамках проекта PlanetLab, сделает возможным одновременное скоординированное бесперебойное широкое вещание на массы пользователей из компьютеров, разбросанных по всему миру. А специалисты по безопасности получат возможность раньше обнаруживать эпидемии новых вирусов или атаки.

"Наша цель - создать игровое поле, где люди смогут проверять свои идеи, - говорит Дейв Куллер, профессор Беркли и менеджер лаборатории Intel при этом университете. - В будущем приложения должны сами распространяться по большей части планеты".

Многие принимают всемирные коммуникации как нечто само собой разумеющееся, но интернет не является стабильной и бесперебойной сетью, как должно быть. Серверы могут выходить из строя, а излишние перескоки маршрутизатора - создавать задержки. В будущем эти проблемы только усугубятся, так как появятся новые приложения и услуги. По мере того как корпорации переносят жизненно важные приложения в интернет, сотрудники все чаще жалуются на медленный доступ и плохую защиту.

Один из способов решить эти проблемы - физическое распределение приложений по большому числу компьютеров, чем и занимается PlanetLab. По завершении проекта сеть будет состоять из 1000 серверов, географически рассредоточенных по земному шару. Это позволит исследователям использовать участки сети в качестве испытательного стенда для оптимизации приложений, работающих на многих компьютерах, или для объединения информации из множества систем хранения данных. Значительная часть работы будет посвящена борьбе с петлями трафика и задержками в интернете.

Исследователи пытаются создавать приложения с учетом этих проблем, но практическая проверка идей остается делом трудным и дорогостоящим. "Существует очень высокий входной барьер. Как проверить приложение, которое должно работать на 1000 машин? - говорит профессор Принстона и один из главных конструкторов проекта Ларри Петерсон. - Имитация и эмуляция здесь не годятся".

Создание сети, отделенной от массового интернета, позволит также проверить решения для структурных проблем самого веба. "Интернет стал более жестким и гораздо более хрупким, - говорит Куллер. - Его структура ограничивает возможности внесения изменений... Как правило, приложения строятся на нескольких больших серверах".

Сеть, заложенная в марте 2002 года, состоит из 160 компьютеров, разнесенных по 65 городам в 16 странах. На этих машинах установлена модифицированная версия Red Hat Linux. К концу года число машин должно быть доведено до 300. Вся сеть из 1000 компьютеров будет построена за пять лет.

Сеть используется в 95 активных научных проектах, включая принстонский проект CoDeeN, нацеленный на совершенствование способов доставки контента, и еще один принстонский проект Sophia, задача которого - усовершенствовать поиск среди рассредоточенных компьютеров. Проект Intel NetBait призван улучшить процесс выявления багов. Некоторые из этих проектов со временем могут объединиться в базовую инфраструктуру интернета будущего. "Мы намерены выделить универсальный набор сервисов, на которых могут работать другие сервисы", - говорит Куллер.

В числе участников проекта Hewlett-Packard Labs, Массачусетский технологический институт, Гарвардский университет, Корнеллский университет, Университет Райс, а также университеты Израиля, Китая, Англии, Швеции, Тайваня и Германии.
безопасность, информация, защита информации, статьи, библиотека, аудит, администрирование, реагирование на инциденты, криптография, уязвимость
По материалам http://zdnet.ru
Лента новостей: FacebookLiveJournalЯндекс

Комментарии (0)
Оставьте комментарий:CaptchaОбновить проверочный код