none
Hyper V iSCSI ohne physikalischen Switch RRS feed

  • Frage

  • Hallo Zusammen,

    ich möchte gerne folgende Infrastruktur umsetzen:

    - 2 physikalische Hyper V Hosts im Cluster

    - 1 physikalischer Windows Server 2012 R2 als shared Storage für die beiden HVs

    - Anbindung der beiden HVs direkt an das Storage über iSCSI 10Gbit über Ethernet (z.B. HP 530T NIC) ohne einen physikalischen Switch dazwischen

    Ist das technisch möglich? Welche Nachteile ergeben sich dadurch?

    Danke schon mal für die Auskunft!

    Viele Grüße

    Manuel

    Freitag, 23. Januar 2015 22:29

Antworten

  • Moin,

    im Kleinen ist es nicht ungewöhnlich, Storage und Server direkt zu verbinden.

    Du musst nur sicherstellen, dass es je Host zwei unabhängige Pfade zum Storage gibt. Das bedeutet die Hosts bräuchten je zwei iSCSI Ports und das Storage müsste entsprechend 4 Ports bereitstellen.

    Als Nachteil empfinde ich bei so einem Setup die mangelnde Erweiterbarkeit und dass bei Hardware- oder OS-Migrationen eventuell eine Downtime notwendig werden könnte.

    Den größten Nachteil sehe ich aber bei einem Windows Server als iSCSI Backend für den Cluster. Es ist ein Single Point of Failure.

    Der Server wird - wie alle anderen Windows Systeme auch - regelmäßig Updates und den obligatorischen Neustart benötigen. Das bedeutet, Dein Hyper-V Cluster muss vor jedem Update des Storage heruntergefahren werden.

    Für eine Testumgebung kann man so ein Setup nutzen, Produktiv würde ich eher ein klassisches Dual Controller Storage verwenden. Ein shared SAS Enclosure, HBAs in die Server und fertig - kein iSCSI Overhead etc.


    This posting is provided AS IS with no warranties.


    Samstag, 24. Januar 2015 06:52
  • Hallo Alias85,

    Es gibt auf dieser Webseite einen ähnlichen Eintrag darüber. Vier unterschiedenen LANs
    werden verwendet und MPIO wird benutzt.

    https://social.technet.microsoft.com/Forums/windowsserver/en-US/005c63dc-26e8-4aa4-8aa9-8707541a4a45/iscsi-target-setup-on-server-2012

    Gruß

    Nathan

    Montag, 26. Januar 2015 09:10

Alle Antworten

  • Moin,

    im Kleinen ist es nicht ungewöhnlich, Storage und Server direkt zu verbinden.

    Du musst nur sicherstellen, dass es je Host zwei unabhängige Pfade zum Storage gibt. Das bedeutet die Hosts bräuchten je zwei iSCSI Ports und das Storage müsste entsprechend 4 Ports bereitstellen.

    Als Nachteil empfinde ich bei so einem Setup die mangelnde Erweiterbarkeit und dass bei Hardware- oder OS-Migrationen eventuell eine Downtime notwendig werden könnte.

    Den größten Nachteil sehe ich aber bei einem Windows Server als iSCSI Backend für den Cluster. Es ist ein Single Point of Failure.

    Der Server wird - wie alle anderen Windows Systeme auch - regelmäßig Updates und den obligatorischen Neustart benötigen. Das bedeutet, Dein Hyper-V Cluster muss vor jedem Update des Storage heruntergefahren werden.

    Für eine Testumgebung kann man so ein Setup nutzen, Produktiv würde ich eher ein klassisches Dual Controller Storage verwenden. Ein shared SAS Enclosure, HBAs in die Server und fertig - kein iSCSI Overhead etc.


    This posting is provided AS IS with no warranties.


    Samstag, 24. Januar 2015 06:52
  • Hallo Alias85,

    Es gibt auf dieser Webseite einen ähnlichen Eintrag darüber. Vier unterschiedenen LANs
    werden verwendet und MPIO wird benutzt.

    https://social.technet.microsoft.com/Forums/windowsserver/en-US/005c63dc-26e8-4aa4-8aa9-8707541a4a45/iscsi-target-setup-on-server-2012

    Gruß

    Nathan

    Montag, 26. Januar 2015 09:10
  • Hallo Alias85,

    haben die Tipps weitergeholfen? Wenn ja, bitte markieren Sie die Beiträge, die zur Lösung geführt haben als Antworten, so dass auch andere Benutzer davon profitieren können.

    Vielen Dank!

    Michaela


    Bitte haben Sie Verständnis dafür, dass im Rahmen dieses Forums, welches auf dem Community-Prinzip „IT-Pros helfen IT-Pros“ beruht, kein technischer Support geleistet werden kann oder sonst welche garantierten Maßnahmen seitens Microsoft zugesichert werden können.

    Freitag, 30. Januar 2015 10:34
    Moderator
  • Hallo!

    Ich hänge mich mal an diesen Thread, da ich gerade auch eine solche Umgebung aufgesetzt habe und mit der Performance echt unzufrieden bin.

    Kurz meine Umgebung:

    als Fileserver: FTS RX350S8 (2x Xeon Quadcore, 48GB RAM) mit Raid 5 aus 16xSAS Platten an einem Hardware Raid Controller. (Getestete Plattenleistung ca. 1700MB/s bei 3600 IOs sequentiell.

    Als Hyper-V Cluster Knoten: 2x RX200S8 (2x Xeon Hexacore, 96GB RAM)

    direkte Verbindung über Intel X540-T2 Adapter in allen Maschinen.

    Zurzeit sind die VMs im SMB3-Share auf dem Fileserver. Leider ist die gemessene Leistung bei einem Plattenthread nie höher als 70MB/s. Was bei Zugriffen auf die VM zu spüren ist. Das Einzige, das schneller ist, sind reine SMB Zugriffe mit dem Windows Explorer, da werden es auch mal 500MB/s.)

    Warum kommt die Leistung nicht bei den VMs an? Dienste wie SQL Server oder virtueller Fileserver sind an den Clients nicht mehr so schnell wie frühere Hardware Server mit einfachen SATA RAID1 Platten.

    Wo ist das Problem eher zu suchen, bei Hardware oder Software?

    Als zusätzliche Info: Ich habe dieses Verhalten inzwischen bei vielen Maschinen nachgestellt. Selbst wenn ich eine vhd auf einem einzelnen Server in Share packe, lokal mounte und teste, stoße ich wieder an die 70MB/s.

    Auch Tests mit iSCSI über 10GB/s NICs erreichen maximal 80MB/s.

    Wenn ich die die Last am Fileserver sehe, müsste Daten er deutlich schneller schaufeln können - sowohl Platten- wie CPU-Last.

    Ich bin für Vorschläge offen.

    Gruß, Thomas


    ------------------------------ Microsoft: MCP, MLP, MCSA2012 Lancom: LSE2012, LCS-NC, LCS-WLAN

    Montag, 2. Februar 2015 17:33