none
Падение скорости сетевого подключения при создании virtual switch

    Вопрос

  • Добрый день,

    Столкнулись со следующей проблемой, организовали 10Gb сеть и cкоммутировали через нее существующие ноды кластера Hyper-V(Windows Server 2016 - 15 лезвий HP BL460/465 G7/9 и несколько отдельно стоящих HP DL-ов). На каждой ноде кластера Hyper-V собран Team где основная сетевая карта 10Gb, а 1Gb стоит в режиме ожидания. 

    До момента создания virtual switch скорость стабильно держится в районе 9Gb-10Gb, после создания скорость падает до 4Gb-5Gb. 

    Выводили 10Gb интерфейс из Team и привязывали его напрямую к virtual switch, не помогло, тоже самое 4Gb-5Gb.

    Меняли настройки сетевых адаптеров дрова, прошивки, vmq и tcp offload. Изменяли режимы Team.

    Было замечено, что если на одной ноде собрать virtual switch, а на другой оставить физический интерфес, то нода получает со скоростью 10Gb, а скорость отправки падает до 4Gb-5Gb.

    Сетевые карты разные Broadcom, Intel. Пробовали в разных связках.

    Почему сразу после создания virtual switch падает отправка на интерфейсе и что можно с этим сделать?

    13 марта 2018 г. 15:48

Ответы

Все ответы

  • Привет,

    Посмотрите следующее обсуждение:

    Slow download speed after creating Hyper-V External Virtual Switch


    Мнения, высказанные здесь, являются отражением моих личных взглядов, а не позиции корпорации Microsoft. Вся информация предоставляется "как есть" без каких-либо гарантий. Не забывайте помечать сообщения как ответы и полезные, если они Вам помогли.

    14 марта 2018 г. 12:17
    Модератор
  • Привет,

    Я видел эту статью, обсуждаемые в ней решения мне не помогли, выделил сегодня на тест 2 сервера из кластерной группы, перевел их в режим обслуживания и приступил к тестам.

    1. BL 460 G8 - HP 534m 10Gb

    2. BL 460 G8 - HP 560m 10Gb

    Оба сервера в одной c3000

    "Физика" -> 3.24Gb -> "VS"

    "Физика" <- 8.1Gb <- "VS"

    "Физика" -> 9.3Gb -> "Физика"

    "Физика" <- 9.4Gb <- "Физика"

    Менял сервера местами, эффекта нет.

    Но в момент изменений параметров заметил что небольшой прирост производительности дает отключение свойства виртуального сетевого адаптера IPv4 Checksum Offload. 

    Пробовал отключать данный параметрах и на физическом адаптере, но эффекта нет.


    14 марта 2018 г. 14:40

  • Меняли настройки сетевых адаптеров дрова, прошивки, vmq и tcp offload. 

    Что конкретно делали с VMQ?
    14 марта 2018 г. 14:59
    Модератор
  • Включали выключали

    Изменяли кол-во назначенных и начальный CPU

    UPD: Отключение VMQ дает негативный эффект

    14 марта 2018 г. 15:31
  • Попробуйте вместо NIC Teaming использовать SET. Это позволит использовать такие технологии как RDMA, VMQ, SR-IOV на VS.

    22 марта 2018 г. 12:51
  • Алексей,

    Как успехи? Вы успели решить проблему?


    Мнения, высказанные здесь, являются отражением моих личных взглядов, а не позиции корпорации Microsoft. Вся информация предоставляется "как есть" без каких-либо гарантий. Не забывайте помечать сообщения как ответы и полезные, если они Вам помогли.

    30 марта 2018 г. 6:59
    Модератор
  • `

    Столкнулись со следующей проблемой, организовали 10Gb сеть и cкоммутировали через нее существующие ноды кластера Hyper-V(Windows Server 2016 - 15 лезвий HP BL460/465 G7/9 и несколько отдельно стоящих HP DL-ов).    . . .

    До момента создания virtual switch скорость стабильно держится в районе 9Gb-10Gb, после создания скорость падает до 4Gb-5Gb. 

     . . .

    Сетевые карты разные Broadcom, Intel. Пробовали в разных связках.

     . . .

    (  что-то похоже на

    Очень низкая скорость при записи в удаленную БД 

    или не очень? )

    `

     У HP есть .ISO с набором драйверов ( пишу по памяти, скорее всего смогу и оф.название найти)

    Какая версия установлена? Вернее точно нет более новой?

    `

     Не пробовали "Windows Server, version 1709" ?

    Или

    Windows Server 2019 LTSC Preview ?

    https://insider.windows.com/en-us/for-business/

    (   Инф-ция:

    https://blogs.windows.com/windowsexperience/2018/03/20/announcing-windows-server-vnext-ltsc-build-17623/

    )

    `

    `

    `

    2018-04-10  

    This is because the network stack for Hyper-V 2012 R2 will map to a single CPU Core.

     +

    You get 300 MB to 500 MB maximum with the virtual Switch configured.

    https://community.spiceworks.com/topic/1998038-configuring-server-2012r2-rss-processor-mappings

    ==

    davekawula  May 31, 2017 at 6:33 AM       
              

    Your issue on throughput has nothing to do with RSS or vRSS.

    It is unfortunately as I learned the hardware a hard coded limit inside of Hyper-V 2012 R2.   The maximum connection on a Virtual Switch when enabled and their associated Virtual Adapters is  between 3-5 Gbps.   This is because the network stack for Hyper-V 2012 R2 will map to a single CPU Core.   So the variance of 3-5 Gbps depends on how fast your Host's processors are.

    I delivered a great presentation at TechMentor in Las Vegas a year ago and went into this in such great detail.   It raises that ahh ha moment for any of us that have pulled our hair out troubleshooting this.

    To prove it out I basically took 2 x 10 GBe adapters and direct connected them --> Got full line speed

    Connected to a 10 Gbe switch got full line speed

    Configured a LACP Team and got full line Speed

    Added a Hyper-V Virtual Switch on top of the Team got 3-5 Gbps --> In lay mans terms you should get between 550 - 700 MB / Sec on a file transfer on 10 GBe networks.

    You get 300 MB to 500 MB maximum with the virtual Switch configured.

    Remove the Virtual Switch problem goes away.

    This issues was confirmed by the Microsoft Product team.

    The good news is that the moment you go to Hyper-V 2016 the limit is now 56Gbs.   Which is very nice for our Shiny new Storage Spaces Direct HyperConverged setups using RDMA.

    I really hope this helps you out.

    Thanks,


    Dave Kawula - Hyper-V MVP

    ==

    `

    `

    Slow 10gb 2012 R2 Hyper-V Live Migration

    ==

       . . .

    Basically the Hyper-V Virtual Adapter is limited to 30-50% of the available bandwidth of a 10 GBe interface.

    This net's out to what you see at a 3.5 GBs transfer rate I see the same thing.

    This has been addressed and fixed in Server 2016.

    Basically I have done live demonstrations of this at conferences like this:

    Plug Crossover Cable in between two Hyper-V Nodes --> No Networking changes just IP Addresses

    full 10 GBe line speed

    Just Add the Hyper-V Virtual Switch and one Virtual MGMT Adapter

    Get 3.5 - 4 GBs between the hosts

    Now the Virtual Machines can take advantage of advanced networking features and can get up to 20 GBs this has been demonstrated by Microsoft (This will be 50 + GBs in 2016) inside the Virtual Switch and VM to VM cross switch.

    It will be the same for Virtual Adapter to Virtual Adapter 50 + GBs

    Right now the situation is as soon as you add that Hyper-V Virtual Switch and a Virtual Adapter the traffic to that virtual adapter will be choked out.

    Remember this is only Hyper-V Host to Host --> Like Live Migration Traffic over that network and stuff.

    The Virtual Switches are fine.

    So in my new designs for 2012 R2 I typically recommend to people that they use 4 10Gbe ports per Hyper-V Host --> 2 dedicated for the Storage so they can perform at 10 GBe and 2 x for Hyper-V Host Traffic + Virtual Switch.  Remember the traffic coming out of the VM's is fast and the traffic from the Virtual adapter is slow.

    Make sense

    Dave Kawula MVP

      . . .

    as I know it is going to be increased to 56 GB /sec in 2016. 

    ==

    )

    `

    `

    Неужели не починили как обещали ?..

    5 апреля 2018 г. 8:01