Сеть – это и есть компьютер

Эта 100-метровая шахта ведет к одному из 4 больших подземных сенсоров – Atlas.

В ноябре этого года в «боевом» режиме должна заработать одна из самых больших GRID-систем в мире, предназначенная для помощи физикам из Евро центра ядерных исследовательских работ (CERN, Женева, Швейцария). Как они начнут собственный опыт с внедрением наикрупнейшго в мире ускорителя частиц Large Hadron Collider (LHC), более 100 тыс.
компов в сотках научных центров окажутся загруженными работой по обработке приобретенных данных.

Концепция GRID-систем относительно ординарна: большая часть компаний употребляют cвои компы и серверы далековато не на полную мощность. При всем этом фактически хоть какой сервер, даже с малой конфигурацией, значительно сильнее, чем этого просит выполняемая на нем работа, в особенности в плане ресурсов микропроцессора. Таким макаром, при наличии высокоскоростных каналов связи и специального управляющего ПО научные центры, расположенные в институтах по всему миру, могут включать свои кластеры в общую сеть по тому либо иному глобальному проекту.

Особое управляющее ПО распределяет выполняемые задачки более оптимальным методом, беря во внимание мощность включенных в GRID-систему компов.

Цель таких проектов – вынудить сеть работать как единый компьютер, так, чтоб объединенные рабочие среды каждого элемента сети делали единую инфраструктуру – ординарную в управлении и эффективную в рассредотачивании ресурсов.

Ученые Евро центра ядерных исследовательских работ первыми опробуют уникальную GRID-системуВ Азии

Развитие систем соблюдения копирайта воспринимает нрав глобального психозаGRID-система в CERN имеет многоступенчатую иерархию. Сам CERN образует нулевой уровень, «первоисточник». Приобретенные из него наборы данных будут распределяться меж одиннадцатью ЦОДами в Европе, Северной Америке и Азии, которые составляют уровень номер один. Скорость обмена данными – 10 Гбит/с.

ЦОДы второго уровня находятся приемущественно в более чем 250 институтах по всему миру. Тут физики займутся анализом приобретенных данных. Скорость обмена данными – от 100 Мбит/с до 1 Гбит/с. Всего в сети участвует около 60 центров обработки данных и отдельные сегменты сетей приблизительно 200 организаций из 80 государств мира – скоростные каналы связи соединят систему на всех 5 материках.

Такая сеть была сотворена в 2005–2006 годах для того, чтоб ученые могли оперировать большими массивами данных, приобретенными в итоге опыта. Дело в том, что LHC представляет собой проложенное под землей на глубине 100 м бетонное кольцо с длиной окружности 27 км, в каком протоны разгоняются до релятивистских скоростей и сталкиваются вместе, создавая самые истинные фейерверки и фонтаны простых частиц. Четыре больших подземных сенсора будут считывать возникающие в итоге столкновений сигналы от миллионов каналов каждые 25 наносекунд – это сотки мб данных каждую секунду.

Ожидается, что раз в год необходимо будет «перелопачивать» 15 петабайт данных, приобретенных при помощи LHC. Сенсоры фиксируют картину столкновения частиц, которая анализируется с целью выявления соответствующих особенностей. Одно столкновение никак не связано со последующим, а означает, можно использовать обыденную параллельную обработку данных. Четыре циклопических сенсора этого ускорителя будут копить больше чем 10 млн. гб данных о событиях при столкновении частиц в течение каждого года. Это эквивалентно содержанию приблизительно 20 млн. компьютерных компакт-дисков.

Установленные в CERN серверы, дисковые массивы и ПК объединены в свой ЦОД. Коммутаторы, поставляемые компанией HP, позволяют всем применяемым в CERN микропроцессорам обмениваться данными со скоростью

1 Гбит/с, а с основной магистралью сети GRID они связаны 10-гигабитными каналами. На основной магистрали установлено 16 10-гигабитных маршрутизаторов производства Force10 Networks, которые связывают сеть CERN с другими участниками проекта.

Из 100 тыс. нужных для проекта микропроцессоров CERN выделит приблизительно 10%. А в общей трудности организация предоставит около 8 тыс. компов на базе одно- либо двухъядерных микропроцессоров, которые будут работать под управлением версии Linux, называемой Scientific Linux CERN.

Центр обработки данных в CERN – это тыщи компов и серверов.

ПК, применяемые в CERN, – самые обыденные рабочие станции на микропроцессорах Intel Xeon – они расположены на подземном уровне ЦОДа в 19-дюймовых рабочих стойках. Нижний этаж занимают серверы Sun. Приложения для физических исследовательских работ могут производиться в параллельном режиме, но независимо друг от друга – каждое на отдельном компьютере. Потому хоть какой вышедший из строя ПК можно поменять и выполнявшуюся им задачку запустить поновой.

Сейчас, когда заканчивается работа над ускорителем, CERN и его партнеры проводят тесты сети GRID, имитируя пересылку больших файлов и огромных объемов данных, чтоб проверить ее устойчивость.

Не считая того, CERN возглавил кампанию за создание европейской сети Гриды для обслуживания представителей разных наук. Многие ученые испытывают потребность в таковой сети. Необходимость в ней появляется и при проведении целого ряда тестов.

В ноябре, когда наступит пора тестов, в рамках проекта начнется сбор данных, обработка которых займет 15 лет. Правда, учить эти данные можно будет в протяжении многих лет и после того, как ускоритель LHC уже закончит работать.


Интересные материалы: