locked
Hyper-V failover cluster a viceportove NICs RRS feed

  • Dotaz

  • Pro Hyper-V failover cluster s CSV idealne potrebuji minimalne 6 sitovych adapteru:

    1. VM external network.

    2. Host server management.

    3. ISCSI.

    4. Heartbeat.

    5. Live migration.

    6. CSV I/O redirect.

    V kazdem nodu mam 4 fyzicke sitove karty, kazda je dvouportova. Mohu pro tyto ucely kazdy jeden port povazovat za sitovy adapter anebo je vhodne/nutne mit minimalne 6 fyzickych sitovych karet a na kazde z nich pouzit jenom jeden port?


    BB
    pátek 21. října 2011 13:09

Odpovědi

  • Dobry den,

    Nejprve bych rad osvetlil porty vs. sitove karty: Pokud povazujete za nutne resit redundanci sitovych karet pri jejich vypadku, pak samozrejme nemuzete rozlozit sitovou konektivitu "na porty", ale na karty. V opacnem pripade bych vyuzil pritomnost 2 portu pro zajisteni redundance cest, kterymi je konkretni konektivita privadena. V tomto pripade tak muzete vyuzit teaming NIC a nakonfigurovat ho v rezimech dle vasich pozadavku (LB+FT, FT).

    Co se tyce poctu pripojeni nutnych pro Hyper-V cluster, pak potrebujete minimalne (naproste minimum) 2 adaptery.

    1. management Hyper-V serveru (nodu) + konektivita virtualnich serveru

    2. heartbeat sit pro cluster

    Optimalne pak ve vasem pripade, kdy mate 4 NIC na kazdem serveru (pri konfiguraci teamingu):

    1. heartbeat sit pro cluster

    2. cluster sit dedikovanou pro Live Migration

    3. iSCSI storage konektivita

    4. management Hyper-V Serveru + konektivita virtualnich serveru

    Pokud neplanujte prilis velky provoz pri Live Migration, nebo casty presun pomoci Live Migration, pak:

    1. heartbeat sit pro cluster + provoz Live Migration

    2. iSCSI konektivita

    3. Management Hyper-V Serveru

    4. konektivita virtualnich serveru (external virtual network s nepovolenou konektivitou samotneho Hyper-V serveru)

     

    Jan Marek, Senior Systems Engineer & Trainer, WBI Systems a.s.


    Jan Marek MCT | MCITP | MCTS
    pátek 21. října 2011 13:31
  • Dobry den,

    ano, presne tak, konfigurace, kterou jste uvedl v prikladu, je spravna.

    Hezky den

    Jan Marek, Senior Systems Engineer & Trainer, WBI Systems a.s.


    Jan Marek MCT | MCITP | MCTS
    • Označen jako odpověď Bohdan Bijecek středa 26. října 2011 9:21
    středa 26. října 2011 9:19

Všechny reakce

  • Dobry den,

    Nejprve bych rad osvetlil porty vs. sitove karty: Pokud povazujete za nutne resit redundanci sitovych karet pri jejich vypadku, pak samozrejme nemuzete rozlozit sitovou konektivitu "na porty", ale na karty. V opacnem pripade bych vyuzil pritomnost 2 portu pro zajisteni redundance cest, kterymi je konkretni konektivita privadena. V tomto pripade tak muzete vyuzit teaming NIC a nakonfigurovat ho v rezimech dle vasich pozadavku (LB+FT, FT).

    Co se tyce poctu pripojeni nutnych pro Hyper-V cluster, pak potrebujete minimalne (naproste minimum) 2 adaptery.

    1. management Hyper-V serveru (nodu) + konektivita virtualnich serveru

    2. heartbeat sit pro cluster

    Optimalne pak ve vasem pripade, kdy mate 4 NIC na kazdem serveru (pri konfiguraci teamingu):

    1. heartbeat sit pro cluster

    2. cluster sit dedikovanou pro Live Migration

    3. iSCSI storage konektivita

    4. management Hyper-V Serveru + konektivita virtualnich serveru

    Pokud neplanujte prilis velky provoz pri Live Migration, nebo casty presun pomoci Live Migration, pak:

    1. heartbeat sit pro cluster + provoz Live Migration

    2. iSCSI konektivita

    3. Management Hyper-V Serveru

    4. konektivita virtualnich serveru (external virtual network s nepovolenou konektivitou samotneho Hyper-V serveru)

     

    Jan Marek, Senior Systems Engineer & Trainer, WBI Systems a.s.


    Jan Marek MCT | MCITP | MCTS
    pátek 21. října 2011 13:31
  • Dobry den,

    dekuji za odpoved. Jeste si dovolim otevrit toto tema s doplnujicim dotazem.

    Je mi jasne, ze redundance sitovych karet pri vypadku nedosahnu rozlozenim pripojeni pres porty jedne karty. V teto chvili mi jde spise o obecny princip pouziti viceportovych NIC v Hyper-V clusteru. Kdyz ted nebudu resit redundanci pri vypadku NIC, tak mohu z hlediska pouziti a vykonu chapat 4 fyzicke dvouportove sitove karty jako 8 samostatnych NIC a dle toho pristupovat k vytvareni pripojeni nebo ne?

    Dam priklad: mam 4 fyzicke sitove karty A, B, C, D, kazda ma dva porty.

    Mohu tedy napriklad udelat nasledujici?

    1. Konektivita virtualnich serveru: teaming A1 + B1

    2. iSCSI storage konektivita (multipath): A2 + B2

    3. Heartbeat pro cluster: C1

    4. Management Hyper-V serveru: C2

    5. Live Migration pro cluster: D1

    6. CSV I/O redirect: D2


    BB
    středa 26. října 2011 8:58
  • Dobry den,

    ano, presne tak, konfigurace, kterou jste uvedl v prikladu, je spravna.

    Hezky den

    Jan Marek, Senior Systems Engineer & Trainer, WBI Systems a.s.


    Jan Marek MCT | MCITP | MCTS
    • Označen jako odpověď Bohdan Bijecek středa 26. října 2011 9:21
    středa 26. října 2011 9:19