none
Какой вариант отказоусточивости предпочтительнее? RRS feed

  • Вопрос

  • Имеется четыре сервера, по две сетевых на каждом сервере. сеть между ними пропускной способностью 1 Гб. ОС WSEE 2008. Необходимой настроить следующий функционал, используя hyper-v:

    1. AD

    2. Файловый сервер

    3. Exchange

    4. DNS

    насколько я понимаю есть два варианта настройки ПО для достижения отказоустойчивости:

    1. Создание кластера hyper-v. В таком варианте при отказе одного из серверов все виртуальные машины мигрируют на соседний.

    2. разработка отказоустойчивости для каждого функционала в отдельности (т.е. Exchange - построение DAG и CAS массивов. лдя AD - создание нескольких каталогов, и т.д.)

    Вопрос заключается в следующем: какой вариант предпочтительнее? есть ли другие варианты реализации отказоустойчивости, используя программные средства? Спасибо.

    9 октября 2012 г. 9:22

Ответы

  • Предложил бы создать два двухузловых кластера Hyper-V, разместив роли AD DS на узлах кластера, если нет возможности выделить еще один аппаратный сервер для контроллера. Адаптеры собрать в тиминг, на основе агреггированного интерфейса создать виртуальный коммутатор с разрешением использования его родительским разделом.

    Далее уже развертывать гостевые кластеры Exchange и файлового сервера, т.е. в конечном итоге у Вас получится микс из хостового и гостевого кластеринга.

    Да,  и если у Вас Windows Server 2008 первого релиза, не R2, о живой миграции и общем томе для ВМ можно забыть.

    Также отмечу, что в случае с Windows Server 2012 у Вас снимется привязка к требованию доступности контроллеров для кластера в первую очередь во время старта кластера. И появится возможость межкластерной миграции ВМ.

    • Помечено в качестве ответа Predator16 9 октября 2012 г. 11:55
    9 октября 2012 г. 9:44
    Модератор
  • >>  Получается нужно собрать сначала один кластер, потом другой и потом из них еще один
    не, собрать кластер из двух кластеров уже не получится - они слава богу в деревья собираться не умеют )) имелось ввиду просто два независимых кластера, только учти замечание выше, что в 2008r2 кластеру для запуска обязательно нужен доступный домен контроллер, если у тебя оба контроллера будут на hyper-v кластере то первый пуск системы (или после тотального выключения электричества) просто не пройдет.

    >> сетевых интерфейсов в случае кластера лучше иметь как минимум три (один для межкластерного взаимодействия и live-migration и два в тиминг для хоста и гостевых машин) а лучше 4 (хостовый отделить). в случае с двумя придется обходиться без тиминга, либо собрать тиминг и разделить на виртуальные интерфейсы по вланам.

    >> DAG это не роль свидетеля, это как минимум два exchange mailbox сервера обслуживающие одни базы, в 2010 Exchange DAG, CAS и Hub можно поставить на одни сервера.

    • Помечено в качестве ответа Predator16 9 октября 2012 г. 11:55
    9 октября 2012 г. 11:46

Все ответы

  • Предложил бы создать два двухузловых кластера Hyper-V, разместив роли AD DS на узлах кластера, если нет возможности выделить еще один аппаратный сервер для контроллера. Адаптеры собрать в тиминг, на основе агреггированного интерфейса создать виртуальный коммутатор с разрешением использования его родительским разделом.

    Далее уже развертывать гостевые кластеры Exchange и файлового сервера, т.е. в конечном итоге у Вас получится микс из хостового и гостевого кластеринга.

    Да,  и если у Вас Windows Server 2008 первого релиза, не R2, о живой миграции и общем томе для ВМ можно забыть.

    Также отмечу, что в случае с Windows Server 2012 у Вас снимется привязка к требованию доступности контроллеров для кластера в первую очередь во время старта кластера. И появится возможость межкластерной миграции ВМ.

    • Помечено в качестве ответа Predator16 9 октября 2012 г. 11:55
    9 октября 2012 г. 9:44
    Модератор
  • Использую Windows Server 2008 выпуска R2.

    Признаюсь сложновата для меня такая схема. Нужно будет пробовать разбираться. Получается нужно собрать сначала один кластер, потом другой и потом из них еще один. Если есть ссылки по такой настройке поделитесь пожалуйста.

    В Вашем случае получается, что транковые линии необходимо завести в коммутатор, для взаимодействия между собой. То есть синхронизация будет проходить таким же маршрутом, что и траффик от пользователей?  я думал объединить сетевые адаптеры 1-ми выходами между собой (чтобы обеспечить синхронизацию), а вторыми выходами в сторону пользователей.

    И еще вопрос, если у меня Exchange 2010, то мне можно установить в hyper-v первого кластера ОС WS2008EE, и на ней установить роли концентратора, CAS и mail, то же самое сделать на hyper-v второго кластера? плюс в одном из любых кластеров установить роль свидетеля (DAG)?

    В итоге при такой схеме отказоустойчивости отказ двух (или трех?) серверов не должен вызвать отказ работы всей схемы. Правильно ли я рассуждаю?

    И вообще если собрать двухузловой кластер, есть ли смысл обеспечивать отказоустойчивость функционала внутри кластера?

    9 октября 2012 г. 10:58
  • >>  Получается нужно собрать сначала один кластер, потом другой и потом из них еще один
    не, собрать кластер из двух кластеров уже не получится - они слава богу в деревья собираться не умеют )) имелось ввиду просто два независимых кластера, только учти замечание выше, что в 2008r2 кластеру для запуска обязательно нужен доступный домен контроллер, если у тебя оба контроллера будут на hyper-v кластере то первый пуск системы (или после тотального выключения электричества) просто не пройдет.

    >> сетевых интерфейсов в случае кластера лучше иметь как минимум три (один для межкластерного взаимодействия и live-migration и два в тиминг для хоста и гостевых машин) а лучше 4 (хостовый отделить). в случае с двумя придется обходиться без тиминга, либо собрать тиминг и разделить на виртуальные интерфейсы по вланам.

    >> DAG это не роль свидетеля, это как минимум два exchange mailbox сервера обслуживающие одни базы, в 2010 Exchange DAG, CAS и Hub можно поставить на одни сервера.

    • Помечено в качестве ответа Predator16 9 октября 2012 г. 11:55
    9 октября 2012 г. 11:46
  • Ну что ж, осталось реализовать, буду пробовать. Спасибо за ответы.
    9 октября 2012 г. 11:56