Nejčastěji odpovídající uživatel
Hyper-V failover cluster a viceportove NICs

Dotaz
-
Pro Hyper-V failover cluster s CSV idealne potrebuji minimalne 6 sitovych adapteru:
1. VM external network.
2. Host server management.
3. ISCSI.
4. Heartbeat.
5. Live migration.
6. CSV I/O redirect.
V kazdem nodu mam 4 fyzicke sitove karty, kazda je dvouportova. Mohu pro tyto ucely kazdy jeden port povazovat za sitovy adapter anebo je vhodne/nutne mit minimalne 6 fyzickych sitovych karet a na kazde z nich pouzit jenom jeden port?
BBpátek 21. října 2011 13:09
Odpovědi
-
Dobry den,
Nejprve bych rad osvetlil porty vs. sitove karty: Pokud povazujete za nutne resit redundanci sitovych karet pri jejich vypadku, pak samozrejme nemuzete rozlozit sitovou konektivitu "na porty", ale na karty. V opacnem pripade bych vyuzil pritomnost 2 portu pro zajisteni redundance cest, kterymi je konkretni konektivita privadena. V tomto pripade tak muzete vyuzit teaming NIC a nakonfigurovat ho v rezimech dle vasich pozadavku (LB+FT, FT).
Co se tyce poctu pripojeni nutnych pro Hyper-V cluster, pak potrebujete minimalne (naproste minimum) 2 adaptery.
1. management Hyper-V serveru (nodu) + konektivita virtualnich serveru
2. heartbeat sit pro cluster
Optimalne pak ve vasem pripade, kdy mate 4 NIC na kazdem serveru (pri konfiguraci teamingu):
1. heartbeat sit pro cluster
2. cluster sit dedikovanou pro Live Migration
3. iSCSI storage konektivita
4. management Hyper-V Serveru + konektivita virtualnich serveru
Pokud neplanujte prilis velky provoz pri Live Migration, nebo casty presun pomoci Live Migration, pak:
1. heartbeat sit pro cluster + provoz Live Migration
2. iSCSI konektivita
3. Management Hyper-V Serveru
4. konektivita virtualnich serveru (external virtual network s nepovolenou konektivitou samotneho Hyper-V serveru)
Jan Marek, Senior Systems Engineer & Trainer, WBI Systems a.s.
Jan Marek MCT | MCITP | MCTS- Navržen jako odpověď Jiří JanataMember neděle 23. října 2011 7:46
- Označen jako odpověď KFL-MSMicrosoft employee pondělí 24. října 2011 8:32
pátek 21. října 2011 13:31 -
Dobry den,
ano, presne tak, konfigurace, kterou jste uvedl v prikladu, je spravna.
Hezky den
Jan Marek, Senior Systems Engineer & Trainer, WBI Systems a.s.
Jan Marek MCT | MCITP | MCTS- Označen jako odpověď Bohdan Bijecek středa 26. října 2011 9:21
středa 26. října 2011 9:19
Všechny reakce
-
Dobry den,
Nejprve bych rad osvetlil porty vs. sitove karty: Pokud povazujete za nutne resit redundanci sitovych karet pri jejich vypadku, pak samozrejme nemuzete rozlozit sitovou konektivitu "na porty", ale na karty. V opacnem pripade bych vyuzil pritomnost 2 portu pro zajisteni redundance cest, kterymi je konkretni konektivita privadena. V tomto pripade tak muzete vyuzit teaming NIC a nakonfigurovat ho v rezimech dle vasich pozadavku (LB+FT, FT).
Co se tyce poctu pripojeni nutnych pro Hyper-V cluster, pak potrebujete minimalne (naproste minimum) 2 adaptery.
1. management Hyper-V serveru (nodu) + konektivita virtualnich serveru
2. heartbeat sit pro cluster
Optimalne pak ve vasem pripade, kdy mate 4 NIC na kazdem serveru (pri konfiguraci teamingu):
1. heartbeat sit pro cluster
2. cluster sit dedikovanou pro Live Migration
3. iSCSI storage konektivita
4. management Hyper-V Serveru + konektivita virtualnich serveru
Pokud neplanujte prilis velky provoz pri Live Migration, nebo casty presun pomoci Live Migration, pak:
1. heartbeat sit pro cluster + provoz Live Migration
2. iSCSI konektivita
3. Management Hyper-V Serveru
4. konektivita virtualnich serveru (external virtual network s nepovolenou konektivitou samotneho Hyper-V serveru)
Jan Marek, Senior Systems Engineer & Trainer, WBI Systems a.s.
Jan Marek MCT | MCITP | MCTS- Navržen jako odpověď Jiří JanataMember neděle 23. října 2011 7:46
- Označen jako odpověď KFL-MSMicrosoft employee pondělí 24. října 2011 8:32
pátek 21. října 2011 13:31 -
Dobry den,
dekuji za odpoved. Jeste si dovolim otevrit toto tema s doplnujicim dotazem.
Je mi jasne, ze redundance sitovych karet pri vypadku nedosahnu rozlozenim pripojeni pres porty jedne karty. V teto chvili mi jde spise o obecny princip pouziti viceportovych NIC v Hyper-V clusteru. Kdyz ted nebudu resit redundanci pri vypadku NIC, tak mohu z hlediska pouziti a vykonu chapat 4 fyzicke dvouportove sitove karty jako 8 samostatnych NIC a dle toho pristupovat k vytvareni pripojeni nebo ne?
Dam priklad: mam 4 fyzicke sitove karty A, B, C, D, kazda ma dva porty.
Mohu tedy napriklad udelat nasledujici?
1. Konektivita virtualnich serveru: teaming A1 + B1
2. iSCSI storage konektivita (multipath): A2 + B2
3. Heartbeat pro cluster: C1
4. Management Hyper-V serveru: C2
5. Live Migration pro cluster: D1
6. CSV I/O redirect: D2
BBstředa 26. října 2011 8:58 -
Dobry den,
ano, presne tak, konfigurace, kterou jste uvedl v prikladu, je spravna.
Hezky den
Jan Marek, Senior Systems Engineer & Trainer, WBI Systems a.s.
Jan Marek MCT | MCITP | MCTS- Označen jako odpověď Bohdan Bijecek středa 26. října 2011 9:21
středa 26. října 2011 9:19