Benutzer mit den meisten Antworten
HyperV und FailoverCluster auf einer Hardware

Frage
-
Hallo zusammen,
ich bin in unserem Unternehmen gerade dabei einen hochverfügbaren HyperV Ansatz zu realisieren.
Hierbei habe ich eine Frage zum Design:
Zuerst die Ausstattung der Umgebung:
zwei physikalische Server (Baugleiche HP DL 380 G7)
Storage: HP XP1000 SAN per FC (redundant über je zwei FC onePort Controller pro Phys. Server (Stichwort MPIO) (8 Gbit))
Netzwerk: je Server 12 X 1.000 Ethernet Adapter
Arbeitsspeicher je Server 192 GB
Nun zu meiner Frage.
Microsoft empfiehlt es ja einen Hardware FileserverCluster mit SMB Freigaben für die VHDX Festplatten zu benutzen und ein HyperV Cluster welches dann ebendiesen Server für seine VHDX Platten nutzt
So erreicht man logischerweise die höchste Ausfallsicherheit und Performance.Da ich jedoch aktuell leider nur über zwei Hardwaremaschinen verfüge stellt sich mir die Frage ob ich einen Filecluster Knoten und einen HyperV-Knoten zusammen auf einer Maschine betreiben kann ?
Das ich bei der Konstellation Einbußen in der Performance hinnehmen muss (besonders im Netzwerkumfeld ist mir klar).Ich hoffe Ihr könnt mir weiterhelfen.
- Bearbeitet kwestphal Donnerstag, 14. November 2013 11:30
Antworten
-
Hallo,
nein, der Hyper-V Cluster kann nicht selbst seinen Storage zur Verfügung stellen.
Technisch ist die Einrichtung möglich, ein Betrieb jedoch nicht. Du bist auf 3rd-Party-Software dafür angewiesen:
Beste Grüße,
- Als Antwort vorgeschlagen Benedict BergerMicrosoft employee Freitag, 15. November 2013 11:44
- Als Antwort markiert Raul TalmaciuMicrosoft contingent staff Dienstag, 19. November 2013 13:18
-
Moin,
Die Empfehlung via SMB ist als neues Feature bestimmt schön, aber willst/brauchst du das wirklich? Letzte Projekte inkl. die vom Wettbewerb in meinem Umfeld waren alle klassiches Hyper-V Cluster mit SAN Anbindung. Warum kompliziert wenn es auch einfach geht?
Wir haben gerade in etwa die selbe Aufgabe und bauen ein klassisches Cluster mit FC SAN Anbindung. Zusätzlich richten wir vSAN via FC ein, wo die LUNS direkt an den Client durchgereicht werden. Laut MS wird der Schwenk via Live Migration unterstützt.
Also die VHDX mit den Betriebssystemen liegen auf einer LUN die via FC als CSV angebunden sind. Die Datenpartitionen werden als vSAN direkt an den Gast durchgereicht.
Das sollte Maximum Performance bieten.Alternativ steht im Buch über Hyper-V das VHDX gegenüber Passthrough kaum noch Leistungseinbussen haben. Falls das mit dem vSAN zu komplex wird oder nicht geht.
To support live migration of virtual machines across Hyper-V hosts while maintaining Fibre Channel connectivity, two WWNs are configured for each virtual Fibre Channel adapter, as shown in Figure 1: Set A and Set B. Hyper-V automatically alternates between the Set A and Set B WWN addresses during a live migration. This ensures that all LUNs are available on the destination host before the migration and that no downtime occurs during the migration.
Hyper-V allows you to define virtual SANs on the host to accommodate scenarios where a single Hyper-V host is connected to different SANs through multiple Fibre Channel ports. A virtual SAN defines a named group of physical Fibre Channel ports that are connected to the same physical SAN. For example, assume that a Hyper-V host is connected to two SANs—a production SAN and a test SAN. The host is connected to each SAN through two physical Fibre Channel ports. In this example, you might configure two virtual SANs—one named “Production SAN” that has the two physical Fibre Channel ports connected to the production SAN and one named “Test SAN” that has two physical Fibre Channel ports connected to the test SAN. You can use the same technique to name two separate paths to a single storage target.
You can configure as many as four virtual Fibre Channel adapters on a virtual machine and associate each one with a virtual SAN. Each virtual Fibre Channel adapter connects with one WWN address or two WWN addresses to support live migration. You can set each WWN address automatically or manually.
Zusätzlich folgende Links:
Why you want to be using VHDX in Hyper-V whenever possible and why it’s important to know your baselines
http://technet.microsoft.com/en-us/library/hh831446.aspx
Typische Hyper-V over SMB Konfiguration
End-to-End-Leistung beginnt mit der Zeichnung einer End-to-End-Konfiguration. Das Diagramm unten zeigt einen typischen Hyper-V über SMB Konfiguration einschließlich:
- Nodes in einem File Server Cluster
Clients, die auf virtuelle Maschinen zugreifen
Nodes in einem Hyper-V Cluster
• SAS JBODs als freigegebenen Speicher für die Datei-Server-Cluster
</dir>
Überlegungen zur Leistung
Mit der obigen Konfiguration im Hinterkopf beginnen Sie dann die vielen verschiedenen Optionen auf jeder Ebene zu berücksichtigen, die die End-to-End-Leistung der Lösung auswirken kann. Das Diagramm unten zeigt ein paar Elemente, in den verschiedenen Schichten, die eine erhebliche Auswirkung haben würde
- Bearbeitet SNR_1 Freitag, 15. November 2013 10:35
- Als Antwort markiert Raul TalmaciuMicrosoft contingent staff Dienstag, 19. November 2013 13:18
-
Hi,
wenn ihr schon ein Storage mit FC Anbindung zur Verfügung habt, dann nutzt diesen doch auch über FC und baut nicht noch etwas mit SMB 3.0.
Ansonsten wurde von Benedict alles dazu gesagt.
SNR_1 kann ich nur zustimmen. Die Umgebungen mit Hyper-V Failover Cluster nutzen hauptsächlich FC oder iSCSI. SMB 3.0 ist noch recht selten.
Viele Grüße Daniel Neumann - This posting is provided "AS IS" with no warranties, and confers no rights.
- Als Antwort markiert Raul TalmaciuMicrosoft contingent staff Dienstag, 19. November 2013 13:18
- Tag als Antwort aufgehoben kwestphal Mittwoch, 20. November 2013 09:01
- Als Antwort markiert kwestphal Mittwoch, 20. November 2013 09:01
Alle Antworten
-
Hallo,
nein, der Hyper-V Cluster kann nicht selbst seinen Storage zur Verfügung stellen.
Technisch ist die Einrichtung möglich, ein Betrieb jedoch nicht. Du bist auf 3rd-Party-Software dafür angewiesen:
Beste Grüße,
- Als Antwort vorgeschlagen Benedict BergerMicrosoft employee Freitag, 15. November 2013 11:44
- Als Antwort markiert Raul TalmaciuMicrosoft contingent staff Dienstag, 19. November 2013 13:18
-
Moin,
Die Empfehlung via SMB ist als neues Feature bestimmt schön, aber willst/brauchst du das wirklich? Letzte Projekte inkl. die vom Wettbewerb in meinem Umfeld waren alle klassiches Hyper-V Cluster mit SAN Anbindung. Warum kompliziert wenn es auch einfach geht?
Wir haben gerade in etwa die selbe Aufgabe und bauen ein klassisches Cluster mit FC SAN Anbindung. Zusätzlich richten wir vSAN via FC ein, wo die LUNS direkt an den Client durchgereicht werden. Laut MS wird der Schwenk via Live Migration unterstützt.
Also die VHDX mit den Betriebssystemen liegen auf einer LUN die via FC als CSV angebunden sind. Die Datenpartitionen werden als vSAN direkt an den Gast durchgereicht.
Das sollte Maximum Performance bieten.Alternativ steht im Buch über Hyper-V das VHDX gegenüber Passthrough kaum noch Leistungseinbussen haben. Falls das mit dem vSAN zu komplex wird oder nicht geht.
To support live migration of virtual machines across Hyper-V hosts while maintaining Fibre Channel connectivity, two WWNs are configured for each virtual Fibre Channel adapter, as shown in Figure 1: Set A and Set B. Hyper-V automatically alternates between the Set A and Set B WWN addresses during a live migration. This ensures that all LUNs are available on the destination host before the migration and that no downtime occurs during the migration.
Hyper-V allows you to define virtual SANs on the host to accommodate scenarios where a single Hyper-V host is connected to different SANs through multiple Fibre Channel ports. A virtual SAN defines a named group of physical Fibre Channel ports that are connected to the same physical SAN. For example, assume that a Hyper-V host is connected to two SANs—a production SAN and a test SAN. The host is connected to each SAN through two physical Fibre Channel ports. In this example, you might configure two virtual SANs—one named “Production SAN” that has the two physical Fibre Channel ports connected to the production SAN and one named “Test SAN” that has two physical Fibre Channel ports connected to the test SAN. You can use the same technique to name two separate paths to a single storage target.
You can configure as many as four virtual Fibre Channel adapters on a virtual machine and associate each one with a virtual SAN. Each virtual Fibre Channel adapter connects with one WWN address or two WWN addresses to support live migration. You can set each WWN address automatically or manually.
Zusätzlich folgende Links:
Why you want to be using VHDX in Hyper-V whenever possible and why it’s important to know your baselines
http://technet.microsoft.com/en-us/library/hh831446.aspx
Typische Hyper-V over SMB Konfiguration
End-to-End-Leistung beginnt mit der Zeichnung einer End-to-End-Konfiguration. Das Diagramm unten zeigt einen typischen Hyper-V über SMB Konfiguration einschließlich:
- Nodes in einem File Server Cluster
Clients, die auf virtuelle Maschinen zugreifen
Nodes in einem Hyper-V Cluster
• SAS JBODs als freigegebenen Speicher für die Datei-Server-Cluster
</dir>
Überlegungen zur Leistung
Mit der obigen Konfiguration im Hinterkopf beginnen Sie dann die vielen verschiedenen Optionen auf jeder Ebene zu berücksichtigen, die die End-to-End-Leistung der Lösung auswirken kann. Das Diagramm unten zeigt ein paar Elemente, in den verschiedenen Schichten, die eine erhebliche Auswirkung haben würde
- Bearbeitet SNR_1 Freitag, 15. November 2013 10:35
- Als Antwort markiert Raul TalmaciuMicrosoft contingent staff Dienstag, 19. November 2013 13:18
-
Hi,
wenn ihr schon ein Storage mit FC Anbindung zur Verfügung habt, dann nutzt diesen doch auch über FC und baut nicht noch etwas mit SMB 3.0.
Ansonsten wurde von Benedict alles dazu gesagt.
SNR_1 kann ich nur zustimmen. Die Umgebungen mit Hyper-V Failover Cluster nutzen hauptsächlich FC oder iSCSI. SMB 3.0 ist noch recht selten.
Viele Grüße Daniel Neumann - This posting is provided "AS IS" with no warranties, and confers no rights.
- Als Antwort markiert Raul TalmaciuMicrosoft contingent staff Dienstag, 19. November 2013 13:18
- Tag als Antwort aufgehoben kwestphal Mittwoch, 20. November 2013 09:01
- Als Antwort markiert kwestphal Mittwoch, 20. November 2013 09:01
-
Hallo,
ist die Thematik abgeklärt?
Gruss,
RaulRaul Talmaciu, MICROSOFT
Bitte haben Sie Verständnis dafür, dass im Rahmen dieses Forums, welches auf dem Community-Prinzip „IT-Pros helfen IT-Pros“ beruht, kein technischer Support geleistet werden kann oder sonst welche garantierten Maßnahmen seitens Microsoft zugesichert werden können. -
Hallo,
vielen Dank für die ausführliche Antwort !
Die Option des Durchreichens von LUNs direkt an die Clients habe ich in einem kleinen Testkonstrukt auch schon realisiert, aber wegen Problemen beim Backup nicht weiter verfolgt.
(Unsere Backupsoftware (VEEAM 7) konnte VMs mit durchgeschliffenen vLUNS keine Datensicherung der betreffenden VMs erstellen).
Wenn ich deine Antwort richtig verstanden habe teilt Ihr somit euer den VMs zugewiesen Storage in zwei Teile:
1. Die VHDX die Ihr auf ein CSV legt und welche das Betriebssystem enthält
2. eine vLUN welches bei euch direkt an die VM angebunden ist
?
Wie genau greift Ihr denn dann auf die VHDX zu ? Per SMB oder ISCSI ?Gruss
Kai Westphal
-
Nein. Alle VHDX liegen auf dem CSV. Es gibt kaum noch einen Grund Passthrough Disks einzusetzen oder was meinst du mit vLUN?
Was meinst du genau mit auf die VHDX zugreifen?
Viele Grüße Daniel Neumann - This posting is provided "AS IS" with no warranties, and confers no rights.
-
hallo,
danke für deine Antwort.
Mit vLUNS meinte ich in der Tat Passthrough Disks.
Was die zweite Frage anging. Hier wollte ich wissen wie ihr die VHDX Dateien den jeweiligen VMs zuweist. (ob Ihr hier einen SMB Share nutzt oder dies über ISCSI oder andere Wege realisiert).