none
Вопрос про кластер или балансировку RRS feed

  • Общие обсуждения

  • в силу корп. стандартов необходимо сделать шару с переходом по отказу

    шару создали, реплику настроили через дфс реплики

    подскажите пожалуйста как сделать переход по отказу

    попробовали через кластер файловых служб но он хочет диски (которых в нашей реализации не предусмотрено), как следствие кластер не собирается, тоже самое и с дфс кластеризацией.

    пришло в голову что это можно сделать через балансировщик, но тут вопрос через какой

    крайне желательно что бы он был бесплатным, мог делать переключения по отказу (раундробинг не подходит)

    это все работает на базе сервера 2012р2


    The opinion expressed by me is not an official position of Microsoft

    • Изменен тип Vector BCOModerator 27 октября 2015 г. 16:05 Вопрос остался открытым
    7 октября 2015 г. 7:55
    Модератор

Все ответы

  • А диски какие нельзя?

    Может использовать iSCSI и все-таки Scale-out File Server?


    Innovation distinguishes between a leader and a follower - Steve Jobs

    7 октября 2015 г. 8:15
  • Так ведь в самой DFS заложена отказоустойчивость, даже без кластеризации. Клиент DFS будет обращаться к другому Folder Target, если первый (ближайший) линк оказывается недоступным. Иными словами, отказоустойчивость реализуется на стороне клиента. Корень DFS должен быть в AD. Репликацию между копиями сетевых папок можно организовать любыми способами, как средствами DFS, так и, например, постоянным запуском robocopy с ключом /MIR. Разумеется, это очень упрощенная отказоустойчивость, например, копии не всегда будут консистентными, открытые файлы реплицироваться не будут.
    7 октября 2015 г. 8:16
    Модератор
  • самба будет использоваться для перенаправленных папок и как следствие получаем ограничение, если оба таргета доступны пользователь может переподключиться к другому серверу и как следствие не увидит свои файлы если реплика не закончится...

    мне нужно сделать переход именно по отказу, что бы пользователи имели доступ к одной копии данных и только в случае отказа переключались на другую


    The opinion expressed by me is not an official position of Microsoft


    7 октября 2015 г. 10:05
    Модератор
  • А диски какие нельзя?

    Может использовать iSCSI и все-таки Scale-out File Server?


    Innovation distinguishes between a leader and a follower - Steve Jobs


    iSCSI  не подходит так как дисковое хранилице работает по fiberchanel only + scale-out fileserver требует сас диски да еще и в нездоровом количестве на хост

    The opinion expressed by me is not an official position of Microsoft

    7 октября 2015 г. 10:07
    Модератор
  • В DFS можно поиграться с порядком ссылок, см., например, эту статью в блоге Technet .

    Но у DFS есть серьёзное неустранимое ограничение: невозможно реализовать возврат (failback) клиента, выбравшего резервную реплику, к основной реплике после того, как её отказ будет устранён (ну, разве что, отключить эту реплику - тогда возврат произойдёт).

    Если вам действительно нужна полная согласованность файлов, то кластер необходим.

    И тут я не понимаю ваших ограничений: если хранилище поддерживает FC, то его почти наверняка можно подключить и к другому серверу и нарезать LUN для кластера.

    Если же это невозможно (например, совсем нет денег на HBA и коммутатор), то тут сложнее. Microsoft собирается реализовать нужную вам функциональность в следующей версии Windows Server, которая вскоре выйдет. Если же ждать нельзя, то есть Virtual SAN от Starwind - там, насколько я помню, можно сделать кластер без общего хранилища (с репликацией данных) и отдавать эти данные в бесплатной версии именно по SMB.


    Слава России!


    • Изменено M.V.V. _ 7 октября 2015 г. 12:58
    7 октября 2015 г. 12:57
  • касательно FC на 2 сервера это проблема так как сервера и хранилища стоят на разных площадках (попарно: сервер - хранилище) 

    что касаемо кластера то у меня получилось собрать кластер без хранилища и он вроде работает в том числе с фейлбеком но увидеть на нем шару у меня не выходит хотя по RDP я подключаюсь нормально и фейлбек отрабатывает

    за ссылку спасибо почитаю и про старвинд спасибо что напомнили я про них подзабыл 

    Если подскажете куда копать насчет моей проблемы с отсутсвием шары на кластерном имени буду благодарен


    The opinion expressed by me is not an official position of Microsoft

    7 октября 2015 г. 14:53
    Модератор
  • А по какому имени Вы ищите данную шару?!

    По VCO или по имени ресурса кластера?!

    7 октября 2015 г. 15:14
  • по обеим

    The opinion expressed by me is not an official position of Microsoft

    7 октября 2015 г. 17:33
    Модератор
  • Дабы поднять вопрос перефразирую его еще разок

    Есть кластер 2012р2 с пустой ролью из 2х нод, с фейлбеком который работает состоит из server1 (192.168.0.11), server2 (192.168.0.12), кластерное имя cluster (192.168.0.13), кластерная роль clusterrole (192.168.0.14)

    Если подключиться через MSTSC к clusterrole попадаем на активную ноду

    Если зайти на самбу через ноду (по имени или адресу не важно) \\server1(2)\share видна share в которой можно что то создать (удалить, прочитать...)

    Если зайти на самбу через cluster или clusterrole \\cluster(role)\ то share не видно

    С чем это может быть связано?


    The opinion expressed by me is not an official position of Microsoft

    8 октября 2015 г. 7:29
    Модератор
  • Можно было бы предложить отредактировать на узлах кластера параметр реестра DisableStrictNameChecking, но это работает при обращении к файловой шаре, и не знаю, пройдет ли с dfs-линком. 
    8 октября 2015 г. 8:11
    Модератор
  • Дабы поднять вопрос перефразирую его еще разок

    Есть кластер 2012р2 с пустой ролью из 2х нод, с фейлбеком который работает состоит из server1 (192.168.0.11), server2 (192.168.0.12), кластерное имя cluster (192.168.0.13), кластерная роль clusterrole (192.168.0.14)

    Если подключиться через MSTSC к clusterrole попадаем на активную ноду

    Если зайти на самбу через ноду (по имени или адресу не важно) \\server1(2)\share видна share в которой можно что то создать (удалить, прочитать...)

    Если зайти на самбу через cluster или clusterrole \\cluster(role)\ то share не видно

    С чем это может быть связано?


    The opinion expressed by me is not an official position of Microsoft

    Насколько я помню, служба сервера умеет различать общие папки на самом компьютере и на кластере - и, в зависимости от того, по какому имени произошло обращение к ней, использует разные наборы общих папок.

    Я видел следы этого механизма это где-то то ли в командлетах Powershell, то ли в классах WMI. Если нужны подробности - поищу.


    Слава России!

    8 октября 2015 г. 11:23
  • Можно было бы предложить отредактировать на узлах кластера параметр реестра DisableStrictNameChecking, но это работает при обращении к файловой шаре, и не знаю, пройдет ли с dfs-линком. 

    Ссылка DFS - это уже обычное имя общей папки (для протокола SMB), которое обрабатывает уже не DFS (которая на файл-сервере может отсутствовать в принципе - например, на SAMBA), а служба сервера SMB.

    Слава России!

    8 октября 2015 г. 11:26
  • Можно было бы предложить отредактировать на узлах кластера параметр реестра DisableStrictNameChecking, но это работает при обращении к файловой шаре, и не знаю, пройдет ли с dfs-линком. 

    не помогло, + в 5м пунте 2 рекомендации (одна написана другая зафоткана) и обе результата не дали

    The opinion expressed by me is not an official position of Microsoft


    8 октября 2015 г. 12:55
    Модератор
  • Насколько я помню, служба сервера умеет различать общие папки на самом компьютере и на кластере - и, в зависимости от того, по какому имени произошло обращение к ней, использует разные наборы общих папок.

    Я видел следы этого механизма это где-то то ли в командлетах Powershell, то ли в классах WMI. Если нужны подробности - поищу.


    Слава России!

    Буду благодарен

    The opinion expressed by me is not an official position of Microsoft

    8 октября 2015 г. 12:57
    Модератор
  • В DFS можно поиграться с порядком ссылок, см., например, эту статью в блоге Technet .

    Но у DFS есть серьёзное неустранимое ограничение: невозможно реализовать возврат (failback) клиента, выбравшего резервную реплику, к основной реплике после того, как её отказ будет устранён (ну, разве что, отключить эту реплику - тогда возврат произойдёт).

    Если вам действительно нужна полная согласованность файлов, то кластер необходим.

    И тут я не понимаю ваших ограничений: если хранилище поддерживает FC, то его почти наверняка можно подключить и к другому серверу и нарезать LUN для кластера.

    Если же это невозможно (например, совсем нет денег на HBA и коммутатор), то тут сложнее. Microsoft собирается реализовать нужную вам функциональность в следующей версии Windows Server, которая вскоре выйдет. Если же ждать нельзя, то есть Virtual SAN от Starwind - там, насколько я помню, можно сделать кластер без общего хранилища (с репликацией данных) и отдавать эти данные в бесплатной версии именно по SMB.


    Слава России!


    попробовали настроить DFS с приоритетом одного из серверов но статью вкурить или не вышло, или проблема связана с тем что сайт один (как следствие сервер выбирается произвольно)

    еще заметили интересную особенность: иногда сервер выбирается один (при копировании 3 ГБ файл появляется на одном сервере и спустя пару минут на другом), иногда наоборот (сначала на втором потом на первом), а иногда одновременно (пачка файлов суммарно 10 гб появляется на серверах как только заканчивается копирование)

    это поведение настораживает


    The opinion expressed by me is not an official position of Microsoft



    8 октября 2015 г. 13:02
    Модератор
  • DFS с многими копиями работает нормально только для Read Only шар , т.к. штатно она не имеет распределенной блокировки (два пользователя могут править одновременно разные копии одного файла). Есть продукты третьих фирм, которые добавляют распределенную блокировку и тогда шары можно делать Write с многими копиями.

    Для ссылок на копии можно задать приоритет, но это не гарантирует, что все пойдут на одну копию: выбор всегда за клиентом (если он не смог по какой-то причине подключиться к первой копии, то пойдет на вторую).

    Failback для DFS работает, если его включить https://technet.microsoft.com/en-us/library/ff633410(v=ws.10).aspx

    Как я понял, задача в том, чтобы сделать отказоустойчивую шару. Это кластер с общим хранилищем и резервированием всех компонент - и другого пути нет. Либо надо переформулировать задачу. Да, кластер всегда дорого.


    Сазонов Илья

    https://isazonov.wordpress.com/

    8 октября 2015 г. 13:24
    Модератор
  • DFS с многими копиями работает нормально только для Read Only шар , т.к. штатно она не имеет распределенной блокировки (два пользователя могут править одновременно разные копии одного файла). Есть продукты третьих фирм, которые добавляют распределенную блокировку и тогда шары можно делать Write с многими копиями.

    Для ссылок на копии можно задать приоритет, но это не гарантирует, что все пойдут на одну копию: выбор всегда за клиентом (если он не смог по какой-то причине подключиться к первой копии, то пойдет на вторую).

    Failback для DFS работает, если его включить https://technet.microsoft.com/en-us/library/ff633410(v=ws.10).aspx

    Как я понял, задача в том, чтобы сделать отказоустойчивую шару. Это кластер с общим хранилищем и резервированием всех компонент - и другого пути нет. Либо надо переформулировать задачу. Да, кластер всегда дорого.


    Сазонов Илья

    https://isazonov.wordpress.com/

    Да вы правильно поняли задача в высокодоступной шаре

    но она должна быть высокодоступна на уровне дисковых хранилищ (их у нас 2 стоят в разных датацентрах и имеют возможность подключения по ФЧ и только по нему) на уровне железных хостов к которым хранилища подключены (их 2 и они в разных датацентрах) ну и так как хосты являются гипервизорами то ФЧ диски заброшены в виртуалки

    Проблема в том что ФЧ к 2м серверам подключить слегка проблематично так как стоят сервера в 10км (цифра от балды но где-то так) друг от друга

    получаем ситуацию в которой при потере датацентра (свет, сеть, метеорит) теряем все...

    один файл будет редактировать один пользователь, но хочется что бы один пользователь выйдя и зайдя увидел свои файлы


    The opinion expressed by me is not an official position of Microsoft


    8 октября 2015 г. 14:10
    Модератор
  • Буду благодарен


    The opinion expressed by me is not an official position of Microsoft

    Есть параметр ScopeName в командлетах,например - New-SMBShare

    А в целом этот вопрос разобран в статье "File Share 'Scoping' in Windows Server 2008 Failover Clusters" в блогах Technet.


    Слава России!


    • Изменено M.V.V. _ 8 октября 2015 г. 14:22
    8 октября 2015 г. 14:21
  • Есть параметр ScopeName в командлетах,например - New-SMBShare

    А в целом этот вопрос разобран в статье "File Share 'Scoping' in Windows Server 2008 Failover Clusters" в блогах Technet.


    Слава России!


    Спасибо попробую

    The opinion expressed by me is not an official position of Microsoft

    8 октября 2015 г. 14:33
    Модератор
  • Да вы правильно поняли задача в высокодоступной шаре

    но она должна быть высокодоступна на уровне дисковых хранилищ (их у нас 2 стоят в разных датацентрах и имеют возможность подключения по ФЧ и только по нему)

    Сколько времени бизнес отводит на переключение на вторую копию?

    Из этого должно строится решение.

    Если это несколько секунд в автоматике, то это геораспределенный кластер - стоит дорого и не собирается на коленке. Более того хранилища должны синхронизироваться без обрыва при любой ситуации, иначе кластер развалится.

    Если время переключения значительно больше, то возможно реализация репликации во второй датацентр и "ручное" переключение на резервную шару.


    Сазонов Илья

    https://isazonov.wordpress.com/

    9 октября 2015 г. 4:14
    Модератор

  • Сколько времени бизнес отводит на переключение на вторую копию?

    Из этого должно строится решение.

    Если это несколько секунд в автоматике, то это геораспределенный кластер - стоит дорого и не собирается на коленке. Более того хранилища должны синхронизироваться без обрыва при любой ситуации, иначе кластер развалится.

    Если время переключения значительно больше, то возможно реализация репликации во второй датацентр и "ручное" переключение на резервную шару.


    Сазонов Илья

    https://isazonov.wordpress.com/

    моя задача сделать так что бы бизнес не заметил переключения (в идеальном варианте)

    руками переключать площадки как идея мне не нравится, так как про это нужно помнить, настраивать костыли с переписыванием алиаса в днс роботами так же (роботы должны мониторить доступность площадок, что усложняет схему)

    по дефолту площадки доступны обе, но как минимум 1 раз в месяц МС выпускает обновы которые влекут за собой перезагрузки серверов и мне нужно что бы при перезагрузке серверов (в бизнес некритичное время) те немногие что сидят на работе файлы свои увидели и дров не наломали + непредвиденные форсмажоры связанные с чем либо на площадке

    есть возможность репликации хранилищ между собой, но в таком случае переключение между ВМ будет происходить при помощи стороннего костыля (эксперименты с этим производителем ПО не сулят гладкой работы)

    большинство хранилищ работают на iSCSI и с ними проблем нет, но на них нет места, а новые я не могу презентовать на оба сервера (сделать единое хранилище)

    вот и придумываю костыли и подпорки что бы это завелось

    переключение может длиться и 2-3 минуты, но чем быстрее тем лучше и в автоматическом режиме


    The opinion expressed by me is not an official position of Microsoft


    9 октября 2015 г. 5:05
    Модератор
  • Промудохавшись больше недели с кластеризацией получил следующие результаты

    1) кластеризовать файлсервер без общего диска получается только в скейлаут режиме, но создать кластерную шару без пресловутого диска не получается

    2) командлет new-smbshare ситуацию так же не спасла

    3) DFS распределяет подключения в произвольном порядке в приделах одного сайта (у меня один сайт но 2 площадки) как следствие ведущим узлом является то один ФС то другой

    4) в результате тестов пришли к интересным результатам в которых файлы появляются одновременно на обеих узлах (тестировали файлами ~3GB) логики под это явления колегиально придумать не получается. Временами синхронизация занимает время (2-10 минут). а иногда идет в реальном времени

    Еще не тестировал Starwind планирую поковырять их решение в ближайшее время, но уже почти смирился с решением без переключения по отказу


    The opinion expressed by me is not an official position of Microsoft



    27 октября 2015 г. 10:35
    Модератор
  • Vector BCO, придется Вам написать статью...
    27 октября 2015 г. 11:35
    Модератор