none
Организация кластера (теоретический вопрос) RRS feed

  • Вопрос

  • Здравствуйте!

    В ходе планирования перехода на кластер Hyper-V возник простой теоретический вопрос.

    Есть два мощных одинаковых сервера HP Proliant , будет десяток виртуалок (AD, exchange, sharepoint , sql , etc).

    Нужно обеспечить отказоустойчивость , т.е чтобы при падении одного из гипервизоров все виртуалки продолжали работать.

    Подскажите пожалуйста, как правильно это сделать?

    Заране спасибо!

    29 августа 2011 г. 14:56

Ответы

  • 1. Как минимум будет нужен еще один физический сервер - под контроллер домена, т.к. кластер подразумевает доменную инфраструктуру. Если Вы не хотите проблем с аутентификацией узлов кластера при одновременном их старте - нужен физический DC.

    2. В текущей архитектуре ВМ при отказе одного из узлов продолжат работу на другом сервере после перезапуска виртуальных сервисов - так что простои в приложениях будут в любом случае.

    3. Рекомендую сделать несколько томов CSV, каждый под свои задачи - например Volume1 будет содержать виртуальные диски с гостевыми ОС, Volume2 - виртуальные диски AD и базы Exchange, Volume3 - SQL.

    4. В свойствах виртуальных машин указать предпочитаемого владельца, естественно, при том условии, что кластер у Вас выдерживает выход из строя одного узла, т.е. как минимум есть резервация ресурсов.

    • Помечено в качестве ответа Yuriy Lenchenkov 1 сентября 2011 г. 9:31
    29 августа 2011 г. 15:36
    Модератор

Все ответы

  • 1. Как минимум будет нужен еще один физический сервер - под контроллер домена, т.к. кластер подразумевает доменную инфраструктуру. Если Вы не хотите проблем с аутентификацией узлов кластера при одновременном их старте - нужен физический DC.

    2. В текущей архитектуре ВМ при отказе одного из узлов продолжат работу на другом сервере после перезапуска виртуальных сервисов - так что простои в приложениях будут в любом случае.

    3. Рекомендую сделать несколько томов CSV, каждый под свои задачи - например Volume1 будет содержать виртуальные диски с гостевыми ОС, Volume2 - виртуальные диски AD и базы Exchange, Volume3 - SQL.

    4. В свойствах виртуальных машин указать предпочитаемого владельца, естественно, при том условии, что кластер у Вас выдерживает выход из строя одного узла, т.е. как минимум есть резервация ресурсов.

    • Помечено в качестве ответа Yuriy Lenchenkov 1 сентября 2011 г. 9:31
    29 августа 2011 г. 15:36
    Модератор
  • 1. Ок, это будет, там же SCVMM 2012 это норм?

    2. Т.е на первом сервере крутятся все 10 виртуалок, в это время второй простаивает, а когда первый выходит из строя второй подхватывает все машины?

    3. На чем делать хранилище? Можно несколько примеров для продакшена? Насколько я понял к дисковой с-ме гипервизоров можно снизить требования с RAID50 до RAID1?

    4. Можно подробнее об этом?

    29 августа 2011 г. 16:03
  • 1. Установить SCVMM 2012 на контроллер, в принципе, можно, но в таком случае нужны будут локальная SQL-база - оно Вам нужно на контроллере? Что Вам мешает разместить его на виртуальной машине внутри кластера?

    2, 4. Имелось в виду, что при падении одного из узлов на втором ВМ поднимутся как после холодного выключения. Резервация ресурсов подразумевает под собой кол-во ресурсов, которые кластер может выделить мигрировавшим виртуальным машинах с упавшего узла. Т.е., предположим, у Вас двухузловой кластер, предполагается развернуть на нем 10 виртуальных машин в целом - следует планировать мощности каждого сервера таким образом, что бы при выходе из строя одного из них оставшийся мог целиком и полностью выдать ресурсы виртуальным машинам. При этом необязательно, что бы второй узел простаивал - главное, что бы на нем хватило ресурсов в момент отказа первого.

    3. Если Вы имеете в виду аппаратную часть - лучше использовать специализованные дисковые массивы, производительность которых стороит просчитывать отдельно.

     

    29 августа 2011 г. 16:33
    Модератор
  • 1. С этим ясно :)

    3. А можно конкретные примеры таких массивов чтобы можно было ориентироватся в ценах?

    2,4 Т.е. 5 машин на первом, 5 машин на втором это возможно? Учитывая что каждый может в случае необходимости тянуть 10.

    30 августа 2011 г. 5:48
  • Отказоустойчивость в кластере, как и писал Денис, будет только в рамках перезапуска виртуальных машин на оставшемся хосте виртуализации. Потери незавершенных транзакций, разумеется, будут и, конечно, случится простой, но он будет значительно меньше, чем если бы Вам пришлось восстанавливать физическую машину и даже если бы Вы восстанавливали виртуальную машину на другом некластерном хосте.

    Смешивать роли - типа микса AD и SC VMM я Вам тоже сильно не рекомендую - в конце концов виртуализация как раз и имеет одной из целей изоляцию сервисов, чтобы они меньше влияли друг на друга что, соответсвенно, повышает стабильность работы отдельных сервисов и всей инфраструктуры.

    Кластер однозначно подразумевает внешнее хранилище данных, соответсвенно необходима СХД (Система хранения данных). Про RAID - каждый сам выбирает, у каждого свои задачи, а вообще RAID5 приемлемый вариант для большинства типов данных, для высококритичных - RAID10. В СХД вероятность отказа сразу большого числа дисков невелика, поэтому RAID5, позволяющий потерять 1 диск, оказывается достаточным. RAID10 - это защищенность выше, но вероятностная, потому что если выбывает более одного диска, то тут важно, чтобы это были диски из разных зеркал, поэтому простой все равно вероятен и тут помимо RAID надо правильно конфигурировать оборудование - дополнительный контроллер, дополнительная полка, где будут зеркалированые диски, что и позволит повысить гарантию сохранности данных. И, конечно, ощутимо поднимет цену решения. Понятно, что BACKUP в любом случае - это наше всё.


    P.S.

    Про ресурсы - что касается серверного железа, то в первую очередь обычно напряженка возникает с оперативной памятью. Если Вы подразумеваете, что все виртуальные машины должны работать при падении X узлов кластера из N, то при M - совокупном объеме потребляемой всеми виртуальными машинами RAM, вам потребуется закупить M*N/(N-X) памяти. При N=2 (и, соответсвенно, X=1) вам нужно в два раза больше памяти, чем потребляют машины. По мере увеличения кол-ва узлов в кластере при неизменном кол-ве планируемого выбытия X, индекс резерва уменьшается, но цена кластера становится выше так как больше узлов, хотя тут можно тоже поработать - так как узлов больше, они могут быть менее производительными в плане процессорной мощности - соответсвенно по меньшей цене.

    30 августа 2011 г. 6:10
  • 3. А можно конкретные примеры таких массивов чтобы можно было ориентироватся в ценах?

    2,4 Т.е. 5 машин на первом, 5 машин на втором это возможно? Учитывая что каждый может в случае необходимости тянуть 10.


    3. Откровенно говоря, не хотелось бы наводить откровенную рекламу, но из бюджетного посоветовал бы HP P4000. В принципе, к СХД со стороны кластера требование одно - поддержка SCSI-3 Persistion Reservation. В остальном - рекомендую обратиться в данный каталог и исходить уже из финансовых возможностей.

    2, 4. Да, возможно. 5 ВМ на одном узле, 5 на другом при возможном размещении на каждом минимум 10 ВМ - это и есть в Вашем случае резервация кластера по узлам в количестве одного.

     

    30 августа 2011 г. 7:34
    Модератор
  • Имейте ввиду, что для кластера нужно АД. Если у Вас АД на отдельной физической машине, то Вам обязательно нужно еще 2 АД на каждом узле кластера в виде виртуалок. Если физический АД выйдет из строя, то Вы потеряете управление кластером.
    Все, указанное выше, является моим личным мнением. Если Вам помогли предложенные рекомендации, пожалуйста, помечайте их, как ответ. Это поможет другим пользователям быстрее найти решение.
    31 августа 2011 г. 8:12
  • я недавно тоже озадачился подобными вещами, и вот до чего дошел на сегодня

    есть 2 физических сервера (интелы 2х процесорные на хеон 5520) и одно сетевое хранилише синолоджи на 5 дисков

    на каждом сервера подняты роли гипервизор, АД, ДНС

    тем самым я отказываюсь от третьеёй машины (отдельного АД)

    естественно АД и ДНС являются зеркальными

    -----

    поднят кластер и на нем уже стоит ВМ с АД, который тоже реплицируется с хостовыми АД, но для пользователей является главным - все запросы и тд идет у нему

    ну и прочие ВМ

    ----------------

    да и сеть у меня разруливается на уровне В-ланов следующим образом

    1) хост машины, хранилище и ВМ с АД

    2) ВМ и сеть (для пользователей)

    3) ВМ (инет которая раздает) с провайдером интернета

    ну и естественно это идет через управляемый свич

    -----------------

    в общем всё работает нормально

    2 сентября 2011 г. 13:00
  • Глянул цены на HP, в проект никак не влазит, подскажите пожалуйста, а можно ли собрать самому аналогичное решение? 

    Если да, что для этого нужно?

    Спасибо!

    13 сентября 2011 г. 8:02
  • Как вариант - Вы можете использовать Windows Server 2008 R2 с установленным iSCSI Target 3.3, установив его на сервер, имеющий достаточное количество дискового пространства.
    13 сентября 2011 г. 8:36
    Модератор
  • Например i3 + 4Gb + RAID50 SAS 15000 об + Windows Server 2008R2 + iSCSI Target 3.3 нормально будет справлятся , не хуже чем HP P4000 ?

    НОДы и СХД должны быть соеденены черег 10ГБит свич , или 1ГБита будет достаточно? 

    13 сентября 2011 г. 10:04
  • Всегда поражался, когда встречались вопросы о конкретных цифрах.

    Логично, что подобный таргет будет несколько хуже по производительности специализованной дисковой полки.

    13 сентября 2011 г. 13:16
    Модератор