none
HyperV und FailoverCluster auf einer Hardware RRS feed

  • Frage

  • Hallo zusammen,
    ich bin in unserem Unternehmen gerade dabei einen hochverfügbaren HyperV Ansatz zu realisieren.
    Hierbei habe ich eine Frage zum Design:

    Zuerst die Ausstattung der Umgebung:
    zwei physikalische Server (Baugleiche HP DL 380 G7)
    Storage: HP XP1000 SAN per FC (redundant über je zwei FC onePort Controller pro Phys. Server (Stichwort MPIO) (8 Gbit))
    Netzwerk: je Server 12 X 1.000 Ethernet Adapter
    Arbeitsspeicher je Server 192 GB

    Nun zu meiner Frage.
    Microsoft empfiehlt es ja einen Hardware FileserverCluster mit SMB Freigaben für die VHDX Festplatten zu benutzen und ein HyperV Cluster welches dann ebendiesen Server für seine VHDX Platten nutzt
    So erreicht man logischerweise die höchste Ausfallsicherheit und Performance.

    Da ich jedoch aktuell leider nur über zwei Hardwaremaschinen verfüge stellt sich mir die Frage ob ich einen Filecluster Knoten und einen HyperV-Knoten zusammen auf einer Maschine betreiben kann ?

    Das ich bei der Konstellation Einbußen in der Performance hinnehmen muss (besonders im Netzwerkumfeld ist mir klar).

    Ich hoffe Ihr könnt mir weiterhelfen.


    • Bearbeitet kwestphal Donnerstag, 14. November 2013 11:30
    Donnerstag, 14. November 2013 10:22

Antworten

  • Hallo,

    nein, der Hyper-V Cluster kann nicht selbst seinen Storage zur Verfügung stellen.

    Technisch ist die Einrichtung möglich, ein Betrieb jedoch nicht. Du bist auf 3rd-Party-Software dafür angewiesen:

    http://social.technet.microsoft.com/Forums/windowsserver/en-US/f2990865-776e-4453-8b09-b44af12079c5/hyperv-with-scaleout-file-server-deployment-using-2-physical-servers?forum=winserverhyperv

    Beste Grüße,

    Benedict Berger

    Donnerstag, 14. November 2013 21:23
  • Moin,

    Die Empfehlung via SMB ist als neues Feature bestimmt schön, aber willst/brauchst du das wirklich? Letzte Projekte inkl. die vom Wettbewerb in meinem Umfeld waren alle klassiches Hyper-V Cluster mit SAN Anbindung. Warum kompliziert wenn es auch einfach geht?

    Wir haben gerade in etwa die selbe Aufgabe und bauen ein klassisches Cluster mit FC SAN Anbindung. Zusätzlich richten wir vSAN via FC ein, wo die LUNS direkt an den Client durchgereicht werden. Laut MS wird der Schwenk via Live Migration unterstützt.

    Also die VHDX mit den Betriebssystemen liegen auf einer LUN die via FC als CSV angebunden sind. Die Datenpartitionen werden als vSAN direkt an den Gast durchgereicht.
    Das sollte Maximum Performance bieten.

    Alternativ steht im Buch über Hyper-V das VHDX gegenüber Passthrough kaum noch Leistungseinbussen haben. Falls das mit dem vSAN zu komplex wird oder nicht geht.

    Live migration

    To support live migration of virtual machines across Hyper-V hosts while maintaining Fibre Channel connectivity, two WWNs are configured for each virtual Fibre Channel adapter, as shown in Figure 1: Set A and Set B. Hyper-V automatically alternates between the Set A and Set B WWN addresses during a live migration. This ensures that all LUNs are available on the destination host before the migration and that no downtime occurs during the migration.

    Virtual SAN support

    Hyper-V allows you to define virtual SANs on the host to accommodate scenarios where a single Hyper-V host is connected to different SANs through multiple Fibre Channel ports. A virtual SAN defines a named group of physical Fibre Channel ports that are connected to the same physical SAN. For example, assume that a Hyper-V host is connected to two SANs—a production SAN and a test SAN. The host is connected to each SAN through two physical Fibre Channel ports. In this example, you might configure two virtual SANs—one named “Production SAN” that has the two physical Fibre Channel ports connected to the production SAN and one named “Test SAN” that has two physical Fibre Channel ports connected to the test SAN. You can use the same technique to name two separate paths to a single storage target.

    You can configure as many as four virtual Fibre Channel adapters on a virtual machine and associate each one with a virtual SAN. Each virtual Fibre Channel adapter connects with one WWN address or two WWN addresses to support live migration. You can set each WWN address automatically or manually.

    Zusätzlich folgende Links:

    Why you want to be using VHDX in Hyper-V whenever possible and why it’s important to know your baselines

    http://blogs.technet.com/b/askpfeplat/archive/2013/09/09/why-you-want-to-be-using-vhdx-in-hyper-v-whenever-possible-and-why-it-s-important-to-know-your-baselines.aspx

    http://technet.microsoft.com/en-us/library/hh831446.aspx


    Typische Hyper-V over SMB Konfiguration

    End-to-End-Leistung beginnt mit der Zeichnung einer End-to-End-Konfiguration. Das Diagramm unten zeigt einen typischen Hyper-V über SMB Konfiguration einschließlich:

      Clients, die auf virtuelle Maschinen zugreifen

      Nodes in einem Hyper-V Cluster

    • Nodes in einem File Server Cluster
    <dir>

    •     SAS JBODs als freigegebenen Speicher für die Datei-Server-Cluster

    </dir>

    Überlegungen zur Leistung

    Mit der obigen Konfiguration im Hinterkopf beginnen Sie dann die vielen verschiedenen Optionen auf jeder Ebene zu berücksichtigen, die die End-to-End-Leistung der Lösung auswirken kann. Das Diagramm unten zeigt ein paar Elemente, in den verschiedenen Schichten, die eine erhebliche Auswirkung haben würde





    Donnerstag, 14. November 2013 21:28
  • Hi,

    wenn ihr schon ein Storage mit FC Anbindung zur Verfügung habt, dann nutzt diesen doch auch über FC und baut nicht noch etwas mit SMB 3.0.

    Ansonsten wurde von Benedict alles dazu gesagt.

    SNR_1 kann ich nur zustimmen. Die Umgebungen mit Hyper-V Failover Cluster nutzen hauptsächlich FC oder iSCSI. SMB 3.0 ist noch recht selten.


    Viele Grüße Daniel Neumann - This posting is provided "AS IS" with no warranties, and confers no rights.

    Freitag, 15. November 2013 11:14

Alle Antworten

  • Hallo,

    nein, der Hyper-V Cluster kann nicht selbst seinen Storage zur Verfügung stellen.

    Technisch ist die Einrichtung möglich, ein Betrieb jedoch nicht. Du bist auf 3rd-Party-Software dafür angewiesen:

    http://social.technet.microsoft.com/Forums/windowsserver/en-US/f2990865-776e-4453-8b09-b44af12079c5/hyperv-with-scaleout-file-server-deployment-using-2-physical-servers?forum=winserverhyperv

    Beste Grüße,

    Benedict Berger

    Donnerstag, 14. November 2013 21:23
  • Moin,

    Die Empfehlung via SMB ist als neues Feature bestimmt schön, aber willst/brauchst du das wirklich? Letzte Projekte inkl. die vom Wettbewerb in meinem Umfeld waren alle klassiches Hyper-V Cluster mit SAN Anbindung. Warum kompliziert wenn es auch einfach geht?

    Wir haben gerade in etwa die selbe Aufgabe und bauen ein klassisches Cluster mit FC SAN Anbindung. Zusätzlich richten wir vSAN via FC ein, wo die LUNS direkt an den Client durchgereicht werden. Laut MS wird der Schwenk via Live Migration unterstützt.

    Also die VHDX mit den Betriebssystemen liegen auf einer LUN die via FC als CSV angebunden sind. Die Datenpartitionen werden als vSAN direkt an den Gast durchgereicht.
    Das sollte Maximum Performance bieten.

    Alternativ steht im Buch über Hyper-V das VHDX gegenüber Passthrough kaum noch Leistungseinbussen haben. Falls das mit dem vSAN zu komplex wird oder nicht geht.

    Live migration

    To support live migration of virtual machines across Hyper-V hosts while maintaining Fibre Channel connectivity, two WWNs are configured for each virtual Fibre Channel adapter, as shown in Figure 1: Set A and Set B. Hyper-V automatically alternates between the Set A and Set B WWN addresses during a live migration. This ensures that all LUNs are available on the destination host before the migration and that no downtime occurs during the migration.

    Virtual SAN support

    Hyper-V allows you to define virtual SANs on the host to accommodate scenarios where a single Hyper-V host is connected to different SANs through multiple Fibre Channel ports. A virtual SAN defines a named group of physical Fibre Channel ports that are connected to the same physical SAN. For example, assume that a Hyper-V host is connected to two SANs—a production SAN and a test SAN. The host is connected to each SAN through two physical Fibre Channel ports. In this example, you might configure two virtual SANs—one named “Production SAN” that has the two physical Fibre Channel ports connected to the production SAN and one named “Test SAN” that has two physical Fibre Channel ports connected to the test SAN. You can use the same technique to name two separate paths to a single storage target.

    You can configure as many as four virtual Fibre Channel adapters on a virtual machine and associate each one with a virtual SAN. Each virtual Fibre Channel adapter connects with one WWN address or two WWN addresses to support live migration. You can set each WWN address automatically or manually.

    Zusätzlich folgende Links:

    Why you want to be using VHDX in Hyper-V whenever possible and why it’s important to know your baselines

    http://blogs.technet.com/b/askpfeplat/archive/2013/09/09/why-you-want-to-be-using-vhdx-in-hyper-v-whenever-possible-and-why-it-s-important-to-know-your-baselines.aspx

    http://technet.microsoft.com/en-us/library/hh831446.aspx


    Typische Hyper-V over SMB Konfiguration

    End-to-End-Leistung beginnt mit der Zeichnung einer End-to-End-Konfiguration. Das Diagramm unten zeigt einen typischen Hyper-V über SMB Konfiguration einschließlich:

      Clients, die auf virtuelle Maschinen zugreifen

      Nodes in einem Hyper-V Cluster

    • Nodes in einem File Server Cluster
    <dir>

    •     SAS JBODs als freigegebenen Speicher für die Datei-Server-Cluster

    </dir>

    Überlegungen zur Leistung

    Mit der obigen Konfiguration im Hinterkopf beginnen Sie dann die vielen verschiedenen Optionen auf jeder Ebene zu berücksichtigen, die die End-to-End-Leistung der Lösung auswirken kann. Das Diagramm unten zeigt ein paar Elemente, in den verschiedenen Schichten, die eine erhebliche Auswirkung haben würde





    Donnerstag, 14. November 2013 21:28
  • Hi,

    wenn ihr schon ein Storage mit FC Anbindung zur Verfügung habt, dann nutzt diesen doch auch über FC und baut nicht noch etwas mit SMB 3.0.

    Ansonsten wurde von Benedict alles dazu gesagt.

    SNR_1 kann ich nur zustimmen. Die Umgebungen mit Hyper-V Failover Cluster nutzen hauptsächlich FC oder iSCSI. SMB 3.0 ist noch recht selten.


    Viele Grüße Daniel Neumann - This posting is provided "AS IS" with no warranties, and confers no rights.

    Freitag, 15. November 2013 11:14
  • Hallo,

    vielen Dank für die ausführliche Antwort !

    Die Option des Durchreichens von LUNs direkt an die Clients habe ich in einem kleinen Testkonstrukt auch schon realisiert, aber wegen Problemen beim Backup nicht weiter verfolgt.
    (Unsere Backupsoftware (VEEAM 7) konnte VMs mit durchgeschliffenen vLUNS keine Datensicherung der betreffenden VMs erstellen).

    Wenn ich deine Antwort richtig verstanden habe teilt Ihr somit euer den VMs zugewiesen Storage in zwei Teile:

    1. Die VHDX die Ihr auf ein CSV legt und welche das Betriebssystem enthält
    2. eine vLUN welches bei euch direkt an die VM angebunden ist

    ?

    Wie genau greift Ihr denn dann auf die VHDX zu ? Per SMB oder ISCSI ?

    Gruss

    Kai Westphal

    Mittwoch, 20. November 2013 09:10
  • Nein. Alle VHDX liegen auf dem CSV. Es gibt kaum noch einen Grund Passthrough Disks einzusetzen oder was meinst du mit vLUN?

    Was meinst du genau mit auf die VHDX zugreifen?


    Viele Grüße Daniel Neumann - This posting is provided "AS IS" with no warranties, and confers no rights.

    Mittwoch, 20. November 2013 17:35
  • hallo,
    danke für deine Antwort.
    Mit vLUNS meinte ich in der Tat Passthrough Disks.

    Was die zweite Frage anging. Hier wollte  ich wissen wie ihr die VHDX Dateien den jeweiligen VMs zuweist. (ob Ihr hier einen SMB Share nutzt oder dies über ISCSI oder andere Wege realisiert).

    Donnerstag, 21. November 2013 13:17