none
Network for Cluster RRS feed

  • Вопрос

  • Не знал в какую тему написать, поэтому напишу сюда:

    Осваиваю отказоустойчивый кластер, читаю Self Passed Training Kit 70-643

    Тут черным по белому написано

    "Сеть которую вы применяете для технологии ISCSI, не может быть использована для сетевых взаимодействий."

    Насколько это верно? Я собрал тестовый стенд и на практике все работает через один интерфейс у каждой Node.

    Или имеется в виду, что хорошо бы для обмена блоками данных выделить отдельный интерфейс и это просто сложности перевода?

    Также вопрос можно ли использовать NIC Teaming для создания адаптера который в свою очередь будет смотреть в сеть с SAN?

    19 июля 2013 г. 6:48

Все ответы

  • Здравствуйте,

    Отдельный интерфейс - официальное требование.

    Там же сказано, что NIС teaming для iSCSI адаптеров не поддерживается.

    19 июля 2013 г. 7:36
  • Для iSCSI следует использовать отдельную сеть.

    Тиминг лучше не использовать, а сконфигурировать MPIO для обеспечения отказоустойчивости подключения к хранилищу.

    • Предложено в качестве ответа EugeneLeitanMVP 5 февраля 2014 г. 5:45
    19 июля 2013 г. 7:36
    Модератор
  • Странно почему ж у меня работает :)

    Ща перепроверю...

    19 июля 2013 г. 7:41
  • Могу предположить, что это будет работать до тех пор пока дисковый трафик не большой.
    19 июля 2013 г. 7:53
  • Сделайте нужное количество vNIC'ов и не мучьтесь с одним :)

    # Создаём коммутатор
    New-VMSwitch "ConvergedNetSwitch" -MinimumBandwidthMode weight -NetAdapterName "ConvergedNetTeam" -AllowManagementOS 0
    Set-VMSwitch "ConvergedNetSwitch" -DefaultFlowMinimumBandwidthWeight 10
    
    # Создаём vNIC для host OS
    Add-VMNetworkAdapter -ManagementOS -Name "ManagementNIC" -SwitchName "ConvergedNetSwitch"
    Set-VMNetworkAdapter -ManagementOS -Name "ManagementNIC" -MinimumBandwidthWeight 10
    
    # Создаём vNIC для кластерных коммуникаций
    Add-VMNetworkAdapter -ManagementOS -Name "ClusterNIC" -SwitchName "ConvergedNetSwitch"
    Set-VMNetworkAdapter -ManagementOS -Name "ClusterNIC" -MinimumBandwidthWeight 10
    
    New-NetIPAddress -InterfaceAlias "vEthernet (ManagementNIC)" -IPAddress 192.168.1.10 -PrefixLength 24 -DefaultGateway 192.168.1.1
    New-NetIPAddress -InterfaceAlias "vEthernet (ClusterNIC)" -IPAddress 192.168.255.10 -PrefixLength 24
    Set-DnsClientServerAddress -InterfaceAlias "vEthernet (ManagementNIC)" -ServerAddresses ("192.168.1.9")
    
    # Прописываем VLAN'ы при необходимости
    Get-VMNetworkAdapter -ManagementOS ManagementNIC | Set-VMNetworkAdapterVlan -access -vlanid 1
    Get-VMNetworkAdapter -ManagementOS ClusterNIC | Set-VMNetworkAdapterVlan -access -vlanid 2


    Active Directory? Ask me how.


    • Изменено AndricoRusEditor 19 июля 2013 г. 8:17 причина есть
    • Предложено в качестве ответа EugeneLeitanMVP 5 февраля 2014 г. 5:46
    19 июля 2013 г. 8:14
    Отвечающий
  • Ох, эт надо переварить =)

    Я еще вернусь)

    19 июля 2013 г. 8:39
  • Могу предположить, что это будет работать до тех пор пока дисковый трафик не большой.
    Я поэтому и спрашивал, рекомендация это или требование. Сделал только что, на одном задействованном интерфейсе на каждом сервере, и Live Migration работает и ISCSI тянет. Согласен, что лучше трафик не мешать, но факт, что оно работает...
    19 июля 2013 г. 11:28
  • В продакш я бы так запускать не стал. Но это исключительно мое мнение.
    19 июля 2013 г. 11:32
  • Здесь я абсолютно согласен, я просто зацепился именно за надпись в книжке. Просто мне непонятно в чем может быть проблема тащить ip-пакеты с ISCSI и другой информацией для интерфейса...
    19 июля 2013 г. 11:35
  • Потому как трафик при миграции машин тоже внушительный, возникнет задержка при дисковых операция (Чтение/запись),  а это критично. Хотя, могу и ошибаться.

    • Изменено SemenovA 19 июля 2013 г. 11:51 орфографя
    19 июля 2013 г. 11:48
  • При большой загрузке сети кадры могут отбрасываться, при блочном чтении через ISCSI этого допускать нельзя, думаю дело в этом. 
    19 июля 2013 г. 11:51