Лучший отвечающий
Восстановление DAG

Вопрос
-
Добрый день, коллеги!
Заранее прошу прощения, за возможно глупые вопросы и не менее глупые действия, но я не Exchange-администратор :(
Столкнулся с ужасной проблемой - развалился DAG-кластер при переносе виртуалок между хостами. В Ex2010 никаких ошибок не было видно, а в кластере вторая нода была выключена из-за недоступности сети. С дуру я попытался удалил ноду из кластера и попытался перевключить ноду в кластер, но при добавлении возникает ошибка:
Unable to successfully cleanup.The server 'srv-v-exdb01' could not be added to the cluster.
An error occurred while adding node 'srv-v-exdb01' to cluster 'ХХХ-DAG'.
This operation returned because the timeout period expiredЧитал много всякого по кластерам и в отчаянии даже пересоздал кластер через оснастку кластерной службы, но вторая нода все-равно не подключается.
В общем, сейчас (да и с самого начала проблемы) DAG выглядит так:
при этом в Operational Servers сервер только один
Я так понимаю, нужно пересоздать DAG или вогнать "поврежденную" ноду в кластер, но сейчас все репликации активны и работают. Подскажите, как это можно сделать, пожалуйста.
9 апреля 2013 г. 11:19
Ответы
-
День добрый.
Рекомендую в сетевых настройках адаптеров серверов отключить: различные виды offload, virtual machine queue, recieve side scaling и другие надстройки производителя сетевых карт.
Тогда все заработает. Успехов. :)
MCITP. Знание - не уменьшает нашей глупости.
- Изменено Oleg.KovalenkoModerator 29 апреля 2013 г. 12:04
- Помечено в качестве ответа vnik8222 29 апреля 2013 г. 15:06
29 апреля 2013 г. 12:03Модератор -
Идеи есть, данный функционал требуется отключать при настройке кластера Hyper-V, так как данные функции поддерживаются Microsoft ограниченно и не на всех прошивках, драйверах и версиях чипов сетевых карт.
Как вариант вызывать инженера по IBM или HP (не знаю какие у вас сервера и сетевые карты) и инженера от MS(Hyper-V), и ставить задачу настройки функционала оборудования и ОС. Ориентировочно это около недели траблешутинга оборудования и кластера, и не на промышленных серверах. :)
ЗЫ. Это имеет смысл в высоко нагруженном кластере VMM для получения производительности сети кластера в 5 звезд, в обычных кластерах отключение всех фичь и 4 звезды.
MCITP. Знание - не уменьшает нашей глупости.
- Помечено в качестве ответа vnik8222 29 апреля 2013 г. 15:06
29 апреля 2013 г. 14:44Модератор
Все ответы
-
10 апреля 2013 г. 13:03Модератор
-
Привет
да, все прям как в инструкции. Я не увидел в ней каких-либо подводных камней: сервисов в кластере нет.
Я тут нарыл много новой информации: Дело не в Exchange, а именно в самом кластере:
В общем, Exchange развернут на Win2008r2, которые являются виртуальными машинами на основе Windows 2012 Hyper-V (Hyper-V есть как в кластере, так и без). Я создал две тестовых виртуалки на Win2008R2 и попытался объединить их в кластер. Как выяснилось, кластер создается ТОЛЬКО если обе виртуалки находятся на одном физическом хосте. Нашел практически аналогичную ситуацию: http://social.technet.microsoft.com/Forums/en-US/winserverClustering/thread/1ca13213-e98b-4a80-b163-19e4e7c3a1a4/ Исключение только одно - я использую NIC Teaming только для iSCSI, но не для паблик-сети. При этом в разделе Virtual Switches описаны зачем-то все сети как External. Виртуалкам нужна только сеть Switch. Может быть дело в том, что здесь указан Teaming?
- Изменено vnik8222 10 апреля 2013 г. 14:18
10 апреля 2013 г. 14:16 -
Одно важное дополнение:
тестовый кластер из двух виртуалок (test01/test02) прекрасно работает на отдельно стоящих виртуальных хостах.
Проблема возникает только когда хотя бы одна из test01/02 переносится в кластер Hyper-V.
10 апреля 2013 г. 15:01 -
Привет,
Вы пробовали решение из обсуждения :
I have resolved the issue by removing the Win2012 NIC teaming for the vm network. I had a feeling that this could be a problem, and it was. I had the following before: (not working) Nic 1 - Management Nic 2 - Spare Nic 3 - VM Network Teamed via Windows NIC Teaming Nic 4 - iSCSI Nic 5 - VM Network Teamed with Nic 2 via Windows Nic Teaming Nic 6 - iSCSI The team between 3&5 was called my "Default" virtual switch. I have the following now (working) Nic 1 - Management Nic 2 - Spare Nic 3 - VM Network (Default) Nic 4 - iSCSI Nic 5 - VM Network (Alternate) Nic 6 - iSCSI It seems like host os nic teaming interferes with guest os's for some reason. This was not an option earlier in W2k8r2 hyper-v, and i also recall that nic card teaming always used to have issues with guest machines. In VMWare i have nic teaming for the guest machines, but i have not attempted the same configuration to see if it works or not, something to try in my spare time. --------------------------------------------------------------------------------
- Предложено в качестве ответа Petko KrushevMicrosoft contingent staff, Moderator 16 апреля 2013 г. 13:19
- Отменено предложение в качестве ответа Petko KrushevMicrosoft contingent staff, Moderator 18 апреля 2013 г. 13:14
15 апреля 2013 г. 7:51Модератор -
Пока нет для этого ресурсов. На следующей неделе сделаю апгрейд, буду пробовать.
16 апреля 2013 г. 13:48 -
Привет,
Отпишитесь тогда о результате,участники форума будут Вам признательны.
17 апреля 2013 г. 7:28Модератор -
vnik8222 как успехи?23 апреля 2013 г. 9:49Модератор
-
только сегодня пришли комплектующие для серверов. Теперь буду разгружать серваки и СХД для проведения тестов.23 апреля 2013 г. 10:05
-
В общем, отчитываюсь:
Долго разбирался, решил параллельно несколько проблем, которые висели уже по 2 года, но заставить работать кластер на двух виртуалках внутри кластера Hyper-V, так и не получилось. Причем дело точно НЕ в тименге (nic teaming) - сейчас у меня его вообще нет.
Выглядит это так: поднимаешь кластер на хосте Hyper-V - ВМ теряют связь друг с другом. Удаляешь роль Cluster - все работает.
В общем, обходной вариант придумал такой: приложения, которые умеют кластеризоваться самостоятельно (типа того же Exchange), будут на отдельных Hyper-V хостах. Все остальные приложения буду размещать в кластере. (благо серверов достаточно, а то, пришлось бы стреляться :) )
29 апреля 2013 г. 11:43 -
День добрый.
Рекомендую в сетевых настройках адаптеров серверов отключить: различные виды offload, virtual machine queue, recieve side scaling и другие надстройки производителя сетевых карт.
Тогда все заработает. Успехов. :)
MCITP. Знание - не уменьшает нашей глупости.
- Изменено Oleg.KovalenkoModerator 29 апреля 2013 г. 12:04
- Помечено в качестве ответа vnik8222 29 апреля 2013 г. 15:06
29 апреля 2013 г. 12:03Модератор -
Спасибо, вам, Олег! Но случилось страшное! :)
По вашему совету, я отключил все эти функции и оно заработало...
Я стал включать по одной функции, чтобы узнать в чем именно проблема, в итоге включил все, но кластер все еще работает.
Хуже всего то, что я не понимаю, почему работает, а значит и сломаться может в любой момент. Нет идей?29 апреля 2013 г. 13:59 -
Идеи есть, данный функционал требуется отключать при настройке кластера Hyper-V, так как данные функции поддерживаются Microsoft ограниченно и не на всех прошивках, драйверах и версиях чипов сетевых карт.
Как вариант вызывать инженера по IBM или HP (не знаю какие у вас сервера и сетевые карты) и инженера от MS(Hyper-V), и ставить задачу настройки функционала оборудования и ОС. Ориентировочно это около недели траблешутинга оборудования и кластера, и не на промышленных серверах. :)
ЗЫ. Это имеет смысл в высоко нагруженном кластере VMM для получения производительности сети кластера в 5 звезд, в обычных кластерах отключение всех фичь и 4 звезды.
MCITP. Знание - не уменьшает нашей глупости.
- Помечено в качестве ответа vnik8222 29 апреля 2013 г. 15:06
29 апреля 2013 г. 14:44Модератор