none
Failover Cluster без домена RRS feed

  • Вопрос

  • Всем доброго времени суток. Есть соблазн пересобрать AD c 2003ей на свежекупленную 2012r2. Но перед тем как все начинать хочу спросить о 2 моментах:

    1) Имеется qnap, с поддержкой ISCSI. И 2 физических сервера по 2 Nic 1GB/s в каждом. Планирую сделать из них кластер, и поднять на виртуалке роли AD, DNS, DHCP, File Server. Как я понял из примеров по server 2012r2 ( http://www.msserverpro.com/implementing-windows-server-2012-hyper-v-failover-clustering/ ) - вначале на каждый физ сервер аттачим iscsi диски, поднимаем роль Hyper-V, и Failover Cluster. Но везде в кластер объединяют машины в домене, а закручивать еще один домен для 2 машин не хочу, есть ли возможность объединить в кластер в рабочей группе через какие-нибудь учётки админа? Не будет ли проблем потом при коннекте к кластеру через оснастки?

    2) Локальная сеть состоит из 2ух сетей 192.168.0.0/24 и 192.168.1.0/24. В каждой по 200 компов и в каждой есть свой щлюз по умолчанию в виде цыски, которая рулит маршрутами во вне. Планирую на виртуалке также поднять роль роутинга и сделать его шлюзом для обоих сетей. Не знаю какой вариант выбрать - или на 2 физических Nic хоста прописать свои  конфигурации для каждой, и пробросить также по 2 вирт. адаптера в виртуалки. Или сделать Teamed NIC и уже на нем прописать 2 ипишника на одном интерфейсе. Не знаю увидит ли виртуалка 2 сети на одном вирт. адаптере. Помню в различных визардах и пр. местах (особенно dns и роутинг) нужно именно 2 разных Nic указывать для разных сетей.

    12 декабря 2013 г. 16:49

Ответы

  • по 1ому - понял. Не очень хорошо конечно - кластер будет завязан на виртуалке на самом кластере) Надо будет тогда наверное резервный DC держать еще отдельно.

    Hyper-V и Failover Cluster в версии 2012 умеет стартовать без активного контроллера домена, однако при создании Failover Cluster активный контроллер все же нужен.
    13 декабря 2013 г. 5:08

Все ответы

  • 1) Ноды кластера обязательно должны быть членами AD домена. Для начала поднимите временный контроллер домена на какой-нибудь машинке, а после того как сделаете кластер, создадите виртуалку и передадите роль AD ей.

    2) не понял, для чего вам этот роутер на виртуалке.

    13 декабря 2013 г. 3:07
  • по 1ому - понял. Не очень хорошо конечно - кластер будет завязан на виртуалке на самом кластере) Надо будет тогда наверное резервный DC держать еще отдельно.

    по 2ому вопросу - нужно просто для ПО, чтобы весь трафик начала приходил на сервак (был основным шлюзом), а он уже дальше пошлет по направлениям.

    13 декабря 2013 г. 5:01
  • по 1ому - понял. Не очень хорошо конечно - кластер будет завязан на виртуалке на самом кластере) Надо будет тогда наверное резервный DC держать еще отдельно.

    Hyper-V и Failover Cluster в версии 2012 умеет стартовать без активного контроллера домена, однако при создании Failover Cluster активный контроллер все же нужен.
    13 декабря 2013 г. 5:08
  • Спасибо за ответы. Вроде все подготовил к переезду на новый кластер) Правда вот хочу уточнить еще один вопрос - на одном из 2 серваков, которые планирую объединить в кластер есть хороший райд-контроллер с 5 хдд, а на другом нет. Хочу разместить на нем виртуалки которые активно пишут на диск, чтобы не гонять все по сети на ISCSI от Qnap - там всего 2 сетевки в teaming по 100 мб\с. Смогут ли эти 2 сервака объединиться в кластер без ошибок, если на одном 1 лог диск, а на втором 2(под систему и райд для vhdx виртуалок). Будет ли возможность выбора расположения vhdx диска вирт. машины на данном логическом диске райда при ее создании на кластере?
    25 декабря 2013 г. 6:17
  • Коллеги, извиняюсь за попутно возникшие вопросы, но ситуация одна и все тесно связаны. Прошу не забивать и отписаться по оставшимся 2 вопросам по возможности :) А то хочется уже начать все устанавливать, но есть опасения, что придется все переделывать и возможно не раз. Повторюсь что интересует в стратегическом так сказать плане:

    1) По сетке. Локальная сеть состоит из 2ух сетей 192.168.0.0/24 и 192.168.1.0/24. В каждой по 200 компов и в каждой есть свой щлюз по умолчанию в виде цыски, которая рулит маршрутами во вне. Планирую на виртуалке также поднять роль роутинга и сделать его шлюзом для обоих сетей. Не знаю какой вариант выбрать - или на 2 физических Nic хоста прописать свои  конфигурации для каждой, и пробросить также по 2 вирт. адаптера в виртуалки. Или сделать Teamed NIC и уже на нем прописать 2 ипишника на одном интерфейсе. Не знаю увидит ли виртуалка 2 сети на одном вирт. адаптере. Помню в различных визардах и пр. местах (особенно dns и роутинг) нужно именно 2 разных Nic указывать для разных сетей.

    2) По хдд. На одном из 2 серваков, которые планирую объединить в кластер есть хороший райд-контроллер с 5 хдд, а на другом нет. Хочу разместить на нем виртуалки которые активно пишут на диск, чтобы не гонять все по сети на ISCSI от Qnap - там всего 2 сетевки в teaming по 100 мб\с. Смогут ли эти 2 сервака объединиться в кластер без ошибок, если на одном 1 лог диск, а на втором 2(под систему и райд для vhdx виртуалок). Будет ли возможность выбора расположения vhdx диска вирт. машины на данном логическом диске райда при ее создании на кластере?

    27 декабря 2013 г. 4:40
  • Что касается Active Directory + Failover ..в R2 есть возможность создания Detached AD кластера, НО 

    "This deployment method still requires that the failover cluster nodes are joined to an Active Directory domain." + ограничения, описанные в статье:

    http://technet.microsoft.com/en-us/library/dn265970.aspx

    По вопросу 1: 

    VLANы используете? Виртуалка увидит всё то, что Вы в неё настроите и не более. Естественно, не отклоняясь от того, что видет сам физический адаптер хоста hyper-v.Не совсем понимаю зачем в ВМ роутинг заводить, если у Вас cisco разруливает.  show processes cpu на Cisco смотрели? Разве загружена она у Вас? сомневаюсь. 

    По вопросу 2:

    Для создания cluster shared volume необходимо: fc, smb,iscsi или sas . В Вашем случае оставляйте iSCSI на Qnap. 

    http://technet.microsoft.com/ru-ru/library/jj612869.aspx


    Roman Levchenko, MCITP, MCTS http://www.rlevchenko.com


    27 декабря 2013 г. 5:32
  • 1) Поднимать роль роутинга все равно придется, на кластере или нет, там несколько своих причин. Решил все-таки для каждой сети выделить свой физ адаптер на хост-машине, и также по 2 адаптера пробросить в виртуалку.

    2) iSCSI на Qnap оставлю в любом случае. А райд-контроллер видимо придется перекидывать на др железку - на кластере он не пригодиться: The clustered storage pool MUST be comprised of Serial Attached SCSI (SAS) connected physical disks. Layering any form of storage subsystem, whether an internal RAID card or an external RAID box, regardless of being directly connected or connected via a storage fabric, is not supported. Но теперь на сколько возрастает опасность отказа сетевой у Qnap, или время пересборки его райда - когда самые ключевые ВМ не доступны. Надо будет придумывать резервные варианты...

    27 декабря 2013 г. 7:22
  • 1) Поднимать роль роутинга все равно придется, на кластере или нет, там несколько своих причин. Решил все-таки для каждой сети выделить свой физ адаптер на хост-машине, и также по 2 адаптера пробросить в виртуалку.

    2) iSCSI на Qnap оставлю в любом случае. А райд-контроллер видимо придется перекидывать на др железку - на кластере он не пригодиться: The clustered storage pool MUST be comprised of Serial Attached SCSI (SAS) connected physical disks. Layering any form of storage subsystem, whether an internal RAID card or an external RAID box, regardless of being directly connected or connected via a storage fabric, is not supported. Но теперь на сколько возрастает опасность отказа сетевой у Qnap, или время пересборки его райда - когда самые ключевые ВМ не доступны. Надо будет придумывать резервные варианты...

    2) Вы можете Qnap вывести или сделать под роль бекапа , а основные диски вставить в "другую" железку и сделать iSCSI Target на базе Windows Server 2012 в Core-режиме.  clustered storage pool (http://technet.microsoft.com/ru-RU/library/jj822937)  не совсем стандартный Storage для Csv и актуален только лишь в некоторых случаях.

    Roman Levchenko, MCITP, MCTS http://www.rlevchenko.com

    27 декабря 2013 г. 8:13
  • Пока наверное сделаю qnap только для бэкапов. А с iSCSI Target на базе win 2012 просто поэксперементирую - слишком популярная тема в любом поисковике iSCSI Hyper-V perfomance. Народ с различным успехом ищет в чем причина тормозов. И вроде есть выход в виде Shared Das, но с ним тоже не все очевидно - как пестрят все мануалы для Hyper-V over smb 3.0 нужна полка sas jbod со свичом и адаптерами тыщ так от  270, и серваки в кластере легко ее юзают через storage pool и все счастливы, масштабируемость и пр. Но нигде не видел что происходит когда парочка хдд летят в такой полке на софтверном "райде" (mirror и parity там называется же), или винда глюк ловит и надо данные поднять с виртуального жесткого на этом storage space.

    В любом случае я услышал что хотел, всем спасибо за информацию!

    27 декабря 2013 г. 21:06