Центр обработки данных ближайшего будущего: история и перспективы

История вычислительных систем насчитывает всего-навсего несколько десятилетий. Проследим развитие компьютерных технологий от больших машин 60-70x, переход к персональным компьютерам 80x. В 90x началось интенсивное объединение ПК в локальные сети (LAN), а потом и глобальные сети, далее – бурный расцвет всемирной сети Интернет (web-сервисы, соцсети, распределенные вычисления и базы данных). 10-е годы нового века – распространение мобильных компьютерных устройств (смартфонов, планшетов и прочих умных гаджетов). Сегодня мы живем в эпоху облачных технологий хранения, майнинговых компьютерных ферм и виртуальных сервисов, предоставляемых агрегаторами электронной торговли. Мир, как известно, развивается по спирали. И по логике вещей в ближайшем будущем нас ожидает этап концентрации информационных ресурсов… в больших вычислительных центрах или центрах обработки данных нового поколения.

Картинки по запросу ЦОД

Проанализировать основные тенденции и некоторые аспекты этой темы и предлагается в этом очерке. Современный Центр обработки данных (ЦОД, дата-центр) предоставляет инфраструктуру с набором базовых услуг: размещение серверного оборудования, электропитание, охлаждение, безопасность, а также связность, т.е. доступность оборудования по телекоммуникационным сетям. Предусматривается техническая 24x7x365 и многоязыковая сервисная поддержка. При этом облачные услуги, хостинг различных сервисов, а также услуги системной интеграции предоставляются клиентами и партнерами дата- центра – принцип нейтральности. Примеры: Interxion, Cologix, Equinix с десятками мощных дата-центров по всему миру.

Давайте теперь разберемся с понятием нейтральности. Независимость от предоставляемых центром сервисов – это, безусловно, важный момент. «Кем-то настойчиво рекомендуемый» и «фактически доступный для выбора» совсем не одно и тоже. Но концепт нейтрального ЦОД необходимо дополнить еще одним существенным условием: невозможность получения третьими лицами (владельцами, административным персоналом Центра, органами власти отдельно взятого царства-государства и пр.) полного доступа к «информационному депозитарию» клиентов. При этом, в идеале, нужно сделать эту процедуру технологически невыполнимой – как вариант, отказавшись от стандартных решений размещения данных на серверах (colocation) или виртуальных машинах (VM) в пользу распределенной «мозаичности» данных в различных сегментах ЦОД или даже в сети из нескольких ЦОД и применением сложных алгоритмов шифрования данных.

Но начнем по порядку. Архитектурные решения и аппаратная часть. Центр обработки данных создается по принятым международным стандартам, основным из которых является TIA-942.

Вопреки обывательскому мнению, дата-центр – это не только машинный зал (computer room), в его состав включаются также и другие помещения:

  • комната(ы) ввода для провайдеров;
  • комнаты для электрического и механического оборудования;
  • комнаты для телекоммуникаций, обслуживающих ЦОД;
  • операционный центр (NOC – network operations center);
  • офисы вспомогательного персонала;
  • складские помещения и погрузочные платформы.

Кроме того, аппаратные помещения системы связи, общая офисная зона за пределами контура ЦОД.

К сожалению, стандарт TIA-942 не содержит информации о возможностях взаимодействия отдельно стоящих кампусов Центра (модульное масштабирование для увеличения общей вычислительной мощности), нет требований по внутрисетевому взаимодействию между ними. Совсем не рассмотрен вопрос об особенностях включения в ЦОД супервычислителей с производительностью десятки-сотни Петафлоп/с – суперкомпьютеров типа TitanCray, K Сomputer, Tianhe и пр.

Действующим стандартом выделяются 4 уровня, отличающиеся различной степенью готовности и обеспечения безопасности инфраструктуры дата-центра. Общий рейтинг дата-центра определяется рейтингом самого слабого компонента. Из таблицы 1 (см. ниже) видно, что высоконадежным и отказоустойчивым можно считать ЦОД 4 уровня, удовлетворяющий следующим основным требованиям: отдельное здание; двойной подвод электропитания и наличие двух отдельных систем бесперебойного питания с резервированием N+1 (Need plus One); горячая замена оборудования; круглосуточная техподдержка; увеличенный объем вспомогательных площадей; отсутствие точек отказа (за исключением человеческого фактора); допустимое время простоя в год – менее 20 минут.

 Таблица 1. Параметры уровней надежности ЦОД 

Уровень 1 Уровень 2 Уровень 3 Уровень 4
Пути охлаждения и ввода электричества  

Один

 

Один

Один активный и один резервный  

Два активных

Резервирование компонентов N N+1 N+1 2*(N+1)
Деление на несколько автономных блоков Нет Нет Нет Да
Возможность горячей замены Нет Нет Да Да
Здание Часть или этаж Часть или этаж Отдельно стоящее Отдельно стоящее
 

Персонал

 

Нет

Не менее одного инженера в смене Не менее двух инженеров в смене Более двух инженеров, 24-

часовое дежурство

Загрузка мощностей, % 100 100 90 90
Вспомогательные площади, % 20 30 80–90 100+
Высота фальш-пола, см 40 60 100–120 100–120
Нагрузка на пол, кг/м2 600 800 1200 1200
Электричество 208–480 В 208–480 В 12–15 кВ 12–15 кВ
 

Число точек отказа

Много + ошибки оператора Много + ошибки оператора Мало + ошибки оператора Нет + ошибки оператора
Допустимое время простоя в год, ч 28,8 22 1,6 0,4
Время на создание инфраструктуры, мес. 3 3–6 15–20 15–20
Год создания первого ЦОД подобного класса 1965 1975 1980 1995

 Даже судя по последней строке, уровень 4 несколько устарел (это мягко говоря) и уже пора задуматься о требованиях для ЦОД 5 уровня.

Для увеличения общей надежности предлагаются оригинальные решения, например – роботизированная платформа обслуживания активного оборудования ЦОД с применением конвейерной системы на основе автоматизированных технологий хранения и RFID идентификации оборудования. Присутствие человека в машинном зале не требуется. Как следствие – минимизация ошибок «человеческого фактора», возможное увеличение серверных стативов в вертикальной плоскости (100U и более) и пр.

Также отметим, что уже приняты новые современные стандарты: по волоконно- оптическим линиям со скоростями 100 Гбит/с и выше, которые придадут импульс для оптимизации топологии дата-центра; по кабельным слаботочным линиям с возможностью передачи питания PoE+ и PoE++ (~50Вт), которые позволят использовать СКС в том числе для LED-электроосвещения помещений; по автоматизации и мониторингу IoT устройств, что в целом скажется на управляемости и экологичности дата-центра. Интересно также применение технологий виртуальной реальности (VR) для регулярной тренировки навыков технического персонала при проведении регламентных, аварийных и ремонтно-восстановительных работ.

Но все это как бы факультативно. Наиболее «весомые» системы в ЦОД: электроснабжение и охлаждение. И именно здесь необходимо сосредоточить основные усилия для поиска эффективных технологических и конструкторских решений, таких как применение альтернативных и/или автономных источников энергии (например, газогенераторные и микротурбинные установки) и фрикулинг, т.е. использование естественного охлаждения, особенностей климата. Наверное, уже пора анализировать экосистему окружения дата-центра, и вместо того, чтобы бороться с избыточным теплом, использовать его для обогрева… располагающихся неподалеку агро-парников или технопарков.

Программная составляющая. Система управления дата-центром. В классическом ЦОД функционируют отдельные системы мониторинга и управления для ИТ-инфраструктуры, для телекоммуникаций, инженерных систем, систем безопасности. Безусловно, это создает ряд проблем и снижает общую надежность. Специалистами предлагаются различные концепты, в том числе Программно-определяемый дата-центр (SDDC), в котором все системы интегрируются в единый логический слой, с абстрагированием от физических ресурсов и возможностью их динамического варьирования, более тесную интеграцию сервисов с бизнес-процессами пользователей. При этом, операционная система дата-центра (DCOS) обеспечит:

  • управление единой средой и всеми ресурсами ЦОД;
  • управление информационной и физической безопасностью,
  • управление жизненным циклом хранения информации;
  • развертывание и оркестровку приложений и сервисов;
  • диагностику и оптимизацию потребления ресурсов;
  • анализ и предупреждение неисправностей;
  • самовосстановление при сбоях.

Тема отдельного разговора, которую мы не коснемся в данном обзоре – информационное и программное наполнение. Дата-центры нового поколения должны будут поддерживать работу с несколькими слоями данных (финансовых, технологических, аналитических, персональных и т.д.) в новой информационной среде будущего интернете активно взаимодействующих объектов.

Экономика ЦОД. Анализ стоимости создания среднестатистического дата- центра дает примерно следующую картину (по статьям затрат):

  • 70-80% инженерные системы;
  • 12-15% вычислительная и сетевая инфраструктура;
  • 8-10% общестроительные работы и фальшпол,
  • единицы %% на все остальное.

Если проанализировать стоимость владения, то окажется, что существенной долей затрат по текущей эксплуатации будут затраты на персонал (40%), амортизационные отчисления (20%) и электроэнергию (17%). Сразу же сделаем оговорку, что приведены экспертные данные и в зависимости от конкретного случая распределение долей может быть иное.

Итак, при проектировании современного дата-центра необходимо учитывать целый ряд факторов: географическое расположение, доступность и низкая себестоимость ресурсов, архитектурные требования к пространствам, окружающей среде и экосистемам, рабочим характеристикам компьютерного и телекоммуникационного оборудования, к кабельным системам и кабелепроводам, энергоснабжению и заземлению, охлаждению (вентиляции и кондиционированию), котролю доступа, видеонаблюдению, пожарной безопасности и пожаротушению, газодымоудалению и т.д. Для решения такой достаточно сложной комплексной задачи логично применять моделирование, в том числе – онтологическое моделирование, т.е. глубокое первичное осмысление сущности объекта, его структуры и взаимосвязей. На основе обобщения мирового опыта и практик важно обеспечить единство подходов при проектировании ЦОД и сетей ЦОД для построения унифицированной, эталонной архитектуры дата-центров. Моделирование позволит в несколько раз сократить общие затраты на проектирование и создание распределенной группы ЦОД. Кроме того, цифровая модель центра обработки данных даст возможность динамически анализировать состояние всех компонентов и сервисов, прогнозировать развитие событий и возникновение перспективных бизнес-запросов.

Вместо заключения

Вы можете сказать – ну, все это «жюль-верн» и какие-то далекие фантазии. Хорошо, приведем несколько интересных фактов:

  1. Интернет-гигант Facebook   разместил   свой европейский  дата-центр «Узловой полюс» (The Node Pole) в небольшом шведском городе всего в 60 милях от Полярного круга. Здание имеет габариты 300×90 метров, высота 15 метров. Среднегодовая температура составляет +1,3C и серверы охлаждаются наружным воздухом с минимальным использованием электричества. Кроме того, чтобы избежать статического электричества, необходимо поддерживать определенной уровень влажности воздуха в машинном зале. Вода же берется из расположенной неподалеку реки Луле. Течение реки также приводит в движение турбины ГЭС, благодаря которой в местной электросети имеется постоянный избыток «зеленого» и дешевого электричества, при этом уровень энергоснабжения стабильный.
  1. Еще один из самых ярких примеров экологичного ЦОД – дата-центр Citigroup во Франкфурте. На крыше объекта посажены растения, которые помогают поддерживать нужный уровень температуры и влажности в серверных. Такое решение позволяет использовать около 30% энергии, которую используют дата-центры такого масштаба, и экономить ежегодно около 50 млн. литров воды.

Автор: Александр Кононенко
Источник: http://digital-economy.ru/

Понравилась статья? Тогда поддержите нас, поделитесь с друзьями и заглядывайте по рекламным ссылкам!