none
VMM и Кластер RRS feed

  • Вопрос

  • Всем привет, столкнулся с очередной проблемой бьюсь уже неделю всё в пустую, отчаянно нуждаюсь в волшебном пенделе :) 

    И так есть 3 кластера на 2012r2, купили VMM 2012R2 решили управлять из него.

    2 Кластера добавилось в VMM без проблем, всё работает, вирталками можно управлять.. А  вот с 3-м беда, добавляю его в VMM, кластер добавляется но по окончанию задание выдаёт варнинг........

    /////////////////////////////////////////////

    Предупреждение (13926)
    Кластер узлов pointB.*.* был обновлен не полностью, поскольку удалось связаться не со всеми узлами. Сведения о хранилище высокой надежности и виртуальном коммутаторе, собранные для этого кластера, могут быть неточными.

    Рекомендуемое действие
    Убедитесь, что все узлы включены и не имеют состояния "Не отвечает" в Virtual Machine Manager. Затем снова обновите кластер узлов.
    ///////////////////////////////////////////////

    При этом в свойствах кластера не видно ни одного Общего тома. Естественно все виртуальные машины не управляемы т.к. их состояние (Неподдерживаемая конфигурация кластера).

    При этом если смотреть в структуре то состояние ВСЕХ узлов ОК, прошелся по всем узлам посмотрел подробное состояние каждого, все ОК всё зеленое.

    К каким узлам VMM  не подключился я так и не понял. Я уже каждый узел выводил поочерёдно из кластера, накатил на VMM все обновления, ни чего не помогает. Помогите люди добрые )) Хоть может кто знает, как глянуть какой узел VVM- му не нравиться ?

    13 декабря 2017 г. 13:22

Ответы

  • Всё, разобрался. Таки VMM не мог толком работать из-за 1-го луна на который кластер ругался. Я его подправил и всё, общие тома увиделись и все ВМ подхватились нормально. Всем спасибо за участие ))
    • Помечено в качестве ответа Denis DyagilevEditor 16 декабря 2017 г. 11:40
    15 декабря 2017 г. 9:38

Все ответы

  • Когда давно сталкивался с подобной проблемой, на сколько я помню, надо серверу VMM делегировать управление определенных служб cifs  точно.

    Т.е. в АД в объекте компьютера ноды, делегируешь cifs для сервера VMM.

    13 декабря 2017 г. 15:57
  • Не помогло, кста на другие кластеры делегирования нет и при этом работает.
    14 декабря 2017 г. 8:22
  • Информацией из KB2742246 пользовались? Как минимум проверьте права учётной записи VMM на узлах проблемного кластера и настройки WinRM.
    14 декабря 2017 г. 8:48
    Модератор
  • Иногда требуется перезагрузка для применения.

    У тебя под какой учетной записью работает VMM, она добавлена в группу администраторы Hyper-V на нодах или VMM Servers (насколько помню хватит последней).

    PS: Под рукой нет кластера, что бы точно сказать куда надо добавлять.

    14 декабря 2017 г. 8:50
  • Да, тут всё в порядке. Повторюсь у меня все узлы в состоянии ОК. И я не понимаю до кого он достучатся не может.
    14 декабря 2017 г. 9:16
  • Я уже под доменным админом всё делаю, не помогает 
    14 декабря 2017 г. 9:18
  • И еще одно, я немного слукавил и не сказал, что на 1-м хосте пара виртуалок работает нормально и управляется и не каких ошибок. При этом конфигурация этих виртуалок полностью идентична тем на которых VMM ругается ( говорит что они не в кластерном хранилище) Я несколько раз перепроверил и те и другие машины, все их файлы находятся на одном и том же кластерном диске. При этом если такую(рабочую) виртуалку переместить на любую другую ноду она сразу переходит в состояние (не поддерживаемая конфигурация) обратное перемещение уже не даёт не какого эфекта и виртуалка остаётся в том же состоянии. Да и ещё в свойствах кластера в общих томах есть возможность добавить все диски кластера, там они отлично видятся, но как я понимаю если я их там добавлю то они все очистятся, а это недопустимо. 
    14 декабря 2017 г. 9:40
  • Я могу предположить, что VMM не может получить конфиг по кластерным дискам от какой-то ноды и из за этого вся беда, но как понять от кого ? В свойствах каждой ноды все диски видятся. 
    14 декабря 2017 г. 9:43
  • Давай начнем с самого начала, проводил проверку кластера, ошибки есть?

    PS: У меня подозрение, что у тебя не корректно работает сам кластер.

    Когда ВМ переходит в "неподдерживаемую конфигурацию" ОС помирает или это только алерты VMM?

    • Изменено EFIMOVDI 14 декабря 2017 г. 13:01
    14 декабря 2017 г. 12:58
  • В кластере только одна жесткая ошибка на которую он ругается при проверке, 1 лун нужно на другой диск назначить, но на работу кластера это вообще не как не сказывается. Собственно на этом луне нет ВМ, он примапен напрямую к 1-й ВМ. Это я буду на праздниках исправлять. 

    Когда ВМ  переходит в "неподдерживаемую конфигурацию" ОС не помирает. Только сам VMM ругается. 

     
    14 декабря 2017 г. 13:10
  • Т.е. по кластерной оснастке у тебя все ОК, работает динамическая миграция, а проблемы только в оснастке VMM. Я только не совсем понял, у тебя ругается VMM  на ноды или на некоторые ВМ?
    14 декабря 2017 г. 13:22
  • Да, в кластерной оснастке всё ок, с миграцией проблем нет. VMM ругается на сами ВМ. В состоянии ВМ пишет

    \\\\\\

    Ошибка (13924)
    Виртуальная машина высокой надежности Term Vip не поддерживается VMM, поскольку используется некластерное хранилище.

    Рекомендуемое действие
    Убедитесь, что все файлы и транзитные диски виртуальной машины находятся в хранилище высокой надежности.
    \\\\\\\\

    14 декабря 2017 г. 14:31
  • Как вариант, попробуй вывести из кластера и кластеризовать повторно.
    14 декабря 2017 г. 15:53
  • В консоли VMM свойствах виртуальных машин на рабочем узле проверьте наличие высокой доступности в соответствующем поле.
    14 декабря 2017 г. 16:10
    Модератор
  • Всё, разобрался. Таки VMM не мог толком работать из-за 1-го луна на который кластер ругался. Я его подправил и всё, общие тома увиделись и все ВМ подхватились нормально. Всем спасибо за участие ))
    • Помечено в качестве ответа Denis DyagilevEditor 16 декабря 2017 г. 11:40
    15 декабря 2017 г. 9:38