none
Shared VHDX диск для гостевого кластера RRS feed

  • Вопрос

  • Здравствуйте, столкнулся с проблемой при создании гостевого кластера.

    в 2-ух словах о конфигурации:

    Несколько Hyper-V нод BL460G1 в корзине с7000 + СХД IBM DS3512, соединяется все через cisco 3020 (модуль для c7000). Из нод сделан кластер, и к нему подключены по iSCSI несколько LUN с СХД. Все работает на Windows 2012 R2.

    Теперь о проблеме: сделал 2 VM(назовем их VM1 И VM2) для гостевого кластера с будущей ролью файл-сервера установил на них роль "Файловые службы" и компоненту "Отказоустойчивая кластеризация". В параметрах VM1 и VM2 указал диск фиксированного размера VHDX и поставил в доп. параметрах галку "вкл. общий доступ к вирт. жесткому диску"(при выключенных виртуалках). 

    Установил на них Windows 2012. Обновил VM1 и 2 до R2. И запустил проверку на соответствие требований для создания кластера, выскочили предупреждения при проверке доступных хранилищ для кластера. После создания кластера попытался добавить диски в кластер, ошибок оснастка не выдает, но в общие диски кластера диск добавить нельзя. При этом диски видно на обоих VM:

    Number Friendly Name                            OperationalStatus                    Total Size Partition Style        
    ------ -------------                             -----------------                    ---------- ---------------        
    1      Виртуальный диск (Майкрософт)            Offline                                    4 GB MBR                    
    0      Virtual HD ATA Device                     Online                                   127 GB MBR                    
    2      Виртуальный диск (Майкрософт)            Offline                                    8 GB MBR                    

    на ноде эти же диски:

    VMName                                                           ControllerType           SupportPersistentReservations
    ------                                                           --------------           -----------------------------
    RND219V (Cluster Rnd222V: file, RCB)                                        IDE                                   False
    RND219V (Cluster Rnd222V: file, RCB)                                       SCSI                                    True
    RND219V (Cluster Rnd222V: file, RCB)                                       SCSI                                    True

    27 декабря 2013 г. 13:11

Ответы

Все ответы

  • Делали так, как описано? 

    http://technet.microsoft.com/en-us/library/dn265980.aspx

    На ВМ тома на данных дисках созданы?


    Roman Levchenko, MCITP, MCTS http://www.rlevchenko.com


    27 декабря 2013 г. 13:39
  • Зачем строить гостевой кластер с Shared VHDX, когда можно машинам отдать том с СХД напрямую? Ограничения общего виртуального диска, в частности, отсутствие возможности его расширения, в случае с файловым сервером может привести к очевидной проблеме его масштабируемости.

    27 декабря 2013 г. 19:20
    Модератор

  •  Прочитал статью, принципиальных отличий нет. Том создавал на одной из машин, как описано в мануале, на второй VM просто проверял что диск виден в оснастке diskmgmt. Пробовал без создания тома, просто ввести диски в сеть и инициализировать. Инициализировал как с MBR так и с GPT. Вариант без создания тома с теми же LUN СХД, но подмапленными к железному кластеру HYPER-V проходит на ура. 

    28 декабря 2013 г. 9:02
  • Конечно можно и напрямую, единственное что смущает - не будет слишком много накладных расходов, при использовании iSCSI подключения на VM? На железных серверах есть технология TCP offload engine на сетевых картах, а как будет работать VM в подобной конфигурации. Плюс уровень абстракции для администрирования СХД и Hyper-V. СХД сразу поделена на LUN и уже на них делаю что хочу, не плодя лишних сущностей (ну это больше паранойя :)). Да и просто на будущее непонятно почему данная технология не работает, вроде все делаю по мануалу. И ошибок никаких не замечено. По поводу масштабируемости: больше места на СХД уже не предвидется, выделяю по Shared VHDX максимум, поэтому этот вопрос неактуален на данный момент.    
    28 декабря 2013 г. 9:22
  • Удалил кластер и все ВМ, создал повторно с нуля и все заработало.
    • Помечено в качестве ответа Laptev Stanislav 17 января 2014 г. 4:55
    17 января 2014 г. 4:55