none
Восстановление DAG RRS feed

  • Вопрос

  • Добрый день, коллеги! 

    Заранее прошу прощения, за возможно глупые вопросы и не менее глупые действия, но я не Exchange-администратор :(

    Столкнулся с ужасной проблемой - развалился DAG-кластер при переносе виртуалок между хостами. В Ex2010 никаких ошибок не было видно, а в кластере вторая нода была выключена из-за недоступности сети. С дуру я попытался удалил ноду из кластера и попытался перевключить ноду в кластер, но при добавлении возникает ошибка:

    Unable to successfully cleanup.
    The server 'srv-v-exdb01' could not be added to the cluster.
    An error occurred while adding node 'srv-v-exdb01' to cluster 'ХХХ-DAG'.
    This operation returned because the timeout period expired

    Читал много всякого по кластерам и в отчаянии даже пересоздал кластер через оснастку кластерной службы, но вторая нода все-равно не подключается.

    В общем, сейчас (да и с самого начала проблемы) DAG выглядит так: 

    при этом в Operational Servers сервер только один

    Я так понимаю, нужно пересоздать DAG или вогнать "поврежденную" ноду в кластер, но сейчас все репликации активны и работают.  Подскажите, как это можно сделать, пожалуйста.

    9 апреля 2013 г. 11:19

Ответы

  • День добрый.

    Рекомендую в сетевых настройках адаптеров серверов отключить: различные виды offload, virtual machine queue, recieve side scaling и другие надстройки производителя сетевых карт.

    Тогда все заработает. Успехов. :)


    MCITP. Знание - не уменьшает нашей глупости.

    • Изменено Oleg.KovalenkoModerator 29 апреля 2013 г. 12:04
    • Помечено в качестве ответа vnik8222 29 апреля 2013 г. 15:06
    29 апреля 2013 г. 12:03
    Модератор
  • Идеи есть, данный функционал требуется отключать при настройке кластера Hyper-V, так как данные функции поддерживаются Microsoft ограниченно и не на всех прошивках, драйверах и версиях чипов сетевых карт.

    Как вариант вызывать инженера по IBM или HP (не знаю какие у вас сервера и сетевые карты) и инженера от MS(Hyper-V), и ставить задачу настройки функционала оборудования и ОС. Ориентировочно это около недели траблешутинга оборудования и кластера, и не на промышленных серверах. :)

    ЗЫ. Это имеет смысл в высоко нагруженном кластере VMM для получения производительности сети кластера в 5 звезд, в обычных кластерах отключение всех фичь и 4 звезды.


    MCITP. Знание - не уменьшает нашей глупости.

    • Помечено в качестве ответа vnik8222 29 апреля 2013 г. 15:06
    29 апреля 2013 г. 14:44
    Модератор

Все ответы

  • Привет,

    Вы так удаляли ноду,как описано в инструкций?

    Evict a node from the cluster

    10 апреля 2013 г. 13:03
    Модератор
  • Привет

    да, все прям как в инструкции. Я  не увидел в ней каких-либо подводных камней: сервисов в кластере нет.

    Я тут нарыл много новой информации: Дело не в Exchange, а именно в самом кластере: 

    В общем, Exchange развернут на Win2008r2, которые являются виртуальными машинами на основе Windows 2012 Hyper-V (Hyper-V есть как в кластере, так и без). Я создал две тестовых виртуалки на Win2008R2 и попытался объединить их в кластер. Как выяснилось, кластер создается ТОЛЬКО если обе виртуалки находятся на одном физическом хосте. Нашел практически аналогичную ситуацию: http://social.technet.microsoft.com/Forums/en-US/winserverClustering/thread/1ca13213-e98b-4a80-b163-19e4e7c3a1a4/  Исключение только одно - я использую NIC Teaming только для iSCSI, но не для паблик-сети. При этом в разделе Virtual Switches описаны зачем-то все сети как External. Виртуалкам нужна только сеть Switch. Может быть дело в том, что здесь указан Teaming?



    • Изменено vnik8222 10 апреля 2013 г. 14:18
    10 апреля 2013 г. 14:16
  • Одно важное дополнение:

    тестовый кластер из двух виртуалок (test01/test02) прекрасно работает на отдельно стоящих виртуальных хостах.

    Проблема возникает только когда хотя бы одна из test01/02 переносится в кластер Hyper-V.

    10 апреля 2013 г. 15:01
  • Привет,

    Вы пробовали решение из обсуждения :

    I have resolved the issue by removing the Win2012 NIC teaming for the vm network. I had a feeling that this could be a problem, and it was. I had the following before: (not working) Nic 1 - Management Nic 2 - Spare Nic 3 - VM Network Teamed via Windows NIC Teaming Nic 4 - iSCSI Nic 5 - VM Network Teamed with Nic 2 via Windows Nic Teaming Nic 6 - iSCSI The team between 3&5 was called my "Default" virtual switch. I have the following now (working) Nic 1 - Management Nic 2 - Spare Nic 3 - VM Network (Default) Nic 4 - iSCSI Nic 5 - VM Network (Alternate) Nic 6 - iSCSI It seems like host os nic teaming interferes with guest os's for some reason. This was not an option earlier in W2k8r2 hyper-v, and i also recall that nic card teaming always used to have issues with guest machines. In VMWare i have nic teaming for the guest machines, but i have not attempted the same configuration to see if it works or not, something to try in my spare time. --------------------------------------------------------------------------------
    15 апреля 2013 г. 7:51
    Модератор
  • Пока нет для этого ресурсов. На следующей неделе сделаю апгрейд, буду пробовать.

    16 апреля 2013 г. 13:48
  • Привет,

    Отпишитесь тогда о результате,участники форума будут Вам признательны.

    17 апреля 2013 г. 7:28
    Модератор
  • vnik8222 как успехи?
    23 апреля 2013 г. 9:49
    Модератор
  • только сегодня пришли комплектующие для серверов. Теперь буду разгружать серваки и СХД для проведения тестов.
    23 апреля 2013 г. 10:05
  • В общем, отчитываюсь: 

    Долго разбирался, решил параллельно несколько проблем, которые висели уже по 2 года, но заставить работать кластер на двух виртуалках внутри кластера Hyper-V, так и не получилось. Причем дело точно НЕ в тименге (nic teaming) - сейчас у меня его вообще нет.

    Выглядит это так: поднимаешь кластер на хосте Hyper-V - ВМ теряют связь друг с другом. Удаляешь роль Cluster - все работает. 

    В общем, обходной вариант придумал такой: приложения, которые умеют кластеризоваться самостоятельно (типа того же Exchange), будут на отдельных Hyper-V хостах. Все остальные приложения буду размещать в кластере.  (благо серверов достаточно, а то, пришлось бы стреляться :) )

    29 апреля 2013 г. 11:43
  • День добрый.

    Рекомендую в сетевых настройках адаптеров серверов отключить: различные виды offload, virtual machine queue, recieve side scaling и другие надстройки производителя сетевых карт.

    Тогда все заработает. Успехов. :)


    MCITP. Знание - не уменьшает нашей глупости.

    • Изменено Oleg.KovalenkoModerator 29 апреля 2013 г. 12:04
    • Помечено в качестве ответа vnik8222 29 апреля 2013 г. 15:06
    29 апреля 2013 г. 12:03
    Модератор
  • Спасибо, вам, Олег! Но случилось страшное! :)

    По вашему совету, я отключил все эти функции и оно заработало...
    Я стал включать по одной функции, чтобы узнать в чем именно проблема, в итоге включил все, но кластер все еще работает.
    Хуже всего то, что я не понимаю, почему работает, а значит и сломаться может в любой момент. Нет идей?
    29 апреля 2013 г. 13:59
  • Идеи есть, данный функционал требуется отключать при настройке кластера Hyper-V, так как данные функции поддерживаются Microsoft ограниченно и не на всех прошивках, драйверах и версиях чипов сетевых карт.

    Как вариант вызывать инженера по IBM или HP (не знаю какие у вас сервера и сетевые карты) и инженера от MS(Hyper-V), и ставить задачу настройки функционала оборудования и ОС. Ориентировочно это около недели траблешутинга оборудования и кластера, и не на промышленных серверах. :)

    ЗЫ. Это имеет смысл в высоко нагруженном кластере VMM для получения производительности сети кластера в 5 звезд, в обычных кластерах отключение всех фичь и 4 звезды.


    MCITP. Знание - не уменьшает нашей глупости.

    • Помечено в качестве ответа vnik8222 29 апреля 2013 г. 15:06
    29 апреля 2013 г. 14:44
    Модератор