none
Hyper-V Cluster Upgrade 2012 auf 2012 R2 RRS feed

  • Frage

  • Hallo Zusammen,

    ich bin gerade bei Upgrade eines 2 Node Clusters von 2012 auf 2012 R2. Beide Server sind per SAS HBAs an eine Storage angeschlossen. Auf der Storageeinheit habe ich zwei Vdisks laufen. VDK1 enthält das Quorum und ein CSV für den Cluster. VDK2 habe ich leer geräumt und alle VMs auf VDK1 veschoben. Node 2 und VDK 2 habe ich aus dem Cluster entfernt, sodas ich halt nur noch einen 1 Node Cluster habe auf dem zur Zeit alle VMs laufen. Nun wollte ich eigentlich auf der Storage ein Explizities Mapping einschalten, damit Node 1 nur VDK1 sieht und eben Node 2 nur VDK2. Auf VDK2 wollte ich dann zwei Volumes neu anlegen für ein CSV und das Quorum des neuen 2012R2 Clusters. Nun habe ich aber das Problem, das ich das expilizite Mapping nicht einschalten kann da alle VMs laufen müssen. Ich müsste alles abschalten was eben unmöglich ist. Ich kann auch nicht die VMs irgendwo hin verschieben.

    Meine Frage nun ist, kann es zu Problemen führen wenn ich den zweiten Server nun auf 2012R2 installiere und dieser eben theoretisch Zugriff auf die Volumes von Node 1 (2012) hat? Und halt umgekehrt, der Node 1 Zugriff auf die Volumes von Node 2 hat??

    Für einen Tipp wäre ich euch sehr dankbar..

    Gruss

    Markus  

    Mittwoch, 14. Mai 2014 10:59

Alle Antworten

  • Meine Frage nun ist, kann es zu Problemen führen wenn ich den zweiten Server nun auf 2012R2 installiere und dieser eben theoretisch Zugriff auf die Volumes von Node 1 (2012) hat? Und halt umgekehrt, der Node 1 Zugriff auf die Volumes von Node 2 hat??

    Hi,

    also wenn du das versuchst kommt eventuell nur Datenmüll dabei raus. Der Cluster 2012 oder 2012 R2 muss schon selbst entscheiden wer zugriff auf das Volume im SAN hat. Aber 2 unabhängige Cluster mit zugriff auf das selbe Volume, das wird nix!

    Du sagst: "da alle VMs laufen müssen" müssen die wirklich immer laufen? VMs kann man zwischen Clustern mit einer sehr geringen Downtime migrieren.

    Mal von deiner Ausgangssituation kurz beschrieben:
    "2 Node Clusters von 2012 auf 2012 R2. Beide Server sind per SAS HBAs an eine Storage angeschlossen."

    1. Alles auf Node 1 verschieben
    2. Node 2 Server 2012 1 Knoten Cluster installieren
    3. Node 1 alle VMS / CSV offline schalten
    4. SAN mapping auf Node 2
    5. über Cluster Migration Wizzard alles von alten auf neuen Cluster migrieren
    6. auf Node 2 alle VMS starten
    7. Node 1 Cluster entfernen
    8. Node 1 2012 R2 installieren und zu neuen Cluster hinzufügen

    Die ganze Aktion wäre machbar mit einer Downtime von ca. 30 min für alle VMs.

    Gruß

    Sebastian



    • Bearbeitet SebVe Mittwoch, 14. Mai 2014 11:36
    Mittwoch, 14. Mai 2014 11:35
  • Hallo Sebastian,

    Aber auf Node 1 (dem 2012 1 Node Cluster) ist doch VDK2 Offline. Es ist auch keine CSV oder Clusterdisk angelegt die auf VDK2 laufen. Den zweiten Node habe ich bereits aus dem Cluster entfernt, noch läuft dieser auf 2012. Eventuell bliebe ja noch die Möglichkeit Node 2 explizit auf VDK 2 zu Mappen. Auf dem VDK2 würde ich dann halt zwei neue Volumes  anlegen, Quorum und CSV für Node2 auf 2012 R2. Ausschalten kann ich die VMs zum einstellen des SAN mappings nicht. Ich kann sie nur ausschalten für den eigentlichen Migrationsprozess von Cluster 1 auf Cluster 2 später Migrationsprozess von Cluster 1 auf Cluster 2 später.

    Hier mal zur die aktuelle Situation. Volume VD02_V001 wird halt dann gelöscht und zweit neue erstellt analog zu VD01. VD02 ist zur Zeit nicht verwendet als irgendeine Disk auf dem Cluster.

    Wie gesagt nur zum erstellen des Mappings kann/darf ich die VMs nicht offline holen.

    Gruß

    Markus

    Mittwoch, 14. Mai 2014 12:03
  • OK alle VMs des 2012 1 Node Cluster laufen auf dem "vd01_v002" und das Quorum des 2012 1 Node Cluster auf "vd01_v001" der MSA?

    "vd02_v001" ist unbenutzt?

    Du hast also einen 2012 1 Node Cluster der auf "vd01_v002" und "vd01_v001" zugreift.

    Die Ausgangslage ist doch schon mal völlig ok!

    Nun würde ich den Node2 wieder als 1 Node Cluster 2012 R2 installieren, VM Switche anlegen usw , jedoch noch kein SAN Mapping vornehmen.
    Dann solltest du eine Downtime für die VM Migration einplanen.
    In der Downtime fährst du alle VMs des 2012 1 Node Cluster herunter.
    Führst den Cluser Migrations Wizzard aus und verschiebst damit alles auf den 2012 R2 1 Node Cluster.
    Danach schaltest du das CSV und das Quorum des 2012 1 Node Cluster offline.
    Dann änderst du das SAN Mapping von "vd01_v002" und "vd01_v001" so das es auf den 2012 R2 1 Node Cluster zeigt.
    Jetzt kann der 2012 1 Node Cluster entfernt und der Server heruntergefahren werden. Auf dem 2012 R2 1 Node Cluster wird das CSV und Quorum online geschalten und alle VMs gestartet.

    Wenn alles so weit funktioniert kannst du den alten 2012 Server neu installieren und mit in den 2012 R2 Cluster aufnehmen.

    Sebastian


    • Bearbeitet SebVe Mittwoch, 14. Mai 2014 12:28
    • Als Antwort vorgeschlagen SebVe Mittwoch, 28. Mai 2014 11:15
    Mittwoch, 14. Mai 2014 12:27
  • Das Mapping ist wie gesagt im Moment auf Default, heisst alle Hosts haben Zugriff (sehen) alle Volumes was ja auch richtig ist. Das kann doch eigentlich auch so bleiben. Da die einzelnen Disks ja Offline sind im entsprechenden Diskmanager, was auch heißt kein Zugriff stattfindet. Halt nur von dem jeweiligen Server(Cluster Node) wo halt eine CSV oder Clusterdisk konfiguriert ist.

    Was ich nicht ganz verstehe ist, warum muss man die VMs runterfahren zum migrieren? Habe irgendwo gelesen, das diese im Betrieb migriert werden können und dann halt im ausgeschaltetem Zustand auf dem Zielhost erscheinen. Der Wizard migriert ja "CSV-weise".

    Die Downtime habe ich dann wenn ich die VMs auf dem alten Cluster stoppe und auf dem neuen starte. Selbst das müsste doch auch zu minimieren sein, wenn man mit ein und ausschalten der VNic die Netzwerkverbindung kappt oder verbindet.

    Vielen Dank für deine Hilfe auch wenn meine Fragen oder denkvorgänge hier ein wenig dämlich erscheinen mögen ;-)

    Gruß

    Markus

    Mittwoch, 14. Mai 2014 12:41
  • Das Mapping ist wie gesagt im Moment auf Default, heisst alle Hosts haben Zugriff (sehen) alle Volumes was ja auch richtig ist. Das kann doch eigentlich auch so bleiben. Da die einzelnen Disks ja Offline sind im entsprechenden Diskmanager, was auch heißt kein Zugriff stattfindet. Halt nur von dem jeweiligen Server(Cluster Node) wo halt eine CSV oder Clusterdisk konfiguriert ist.

    Ich würde das Mapping bei der Gelegenheit schon anpassen. Man weis ja nie ob irgendwann noch andere Server an die MSA angeschlossen werden. So lange die Disks wirklich Offline bleiben ok. Dann vielleicht noch über diskpart Automount auf den Servern deaktivieren. Wie gesagt, blöd wird's wenn zwei das Volume online haben.

    Was ich nicht ganz verstehe ist, warum muss man die VMs runterfahren zum migrieren? Habe irgendwo gelesen, das diese im Betrieb migriert werden können und dann halt im ausgeschaltetem Zustand auf dem Zielhost erscheinen. Der Wizard migriert ja "CSV-weise".

    Die Downtime habe ich dann wenn ich die VMs auf dem alten Cluster stoppe und auf dem neuen starte. Selbst das müsste doch auch zu minimieren sein, wenn man mit ein und ausschalten der VNic die Netzwerkverbindung kappt oder verbindet.

    Ja das stimmt so. Ich habe es nur aus der Sicht beschrieben wenn man alles auf einen Rutsch macht ;)
    Wie gesagt die Downtime bei der Migration ist minimal.

    Gruß

    Sebastian

     

     

    • Als Antwort vorgeschlagen SebVe Mittwoch, 28. Mai 2014 11:16
    Mittwoch, 14. Mai 2014 12:58
  • super vielen Dank für deine Hilfe.

    Ich hab das mal gecheckt mit dem Automount. Ist zur zeit auf beiden Nodes Enabled. Ich wird das dann mal disablen wenn ich morgen weiter mache. Für den aktiven Produktiv Node spielt das ja keine Rolle oder? Ich meine ob ein oder ausgeschaltet ist..

    Gruß

    markus 

    Mittwoch, 14. Mai 2014 13:09