locked
File Offline - Carico su HDD del servizio RRS feed

  • Domanda

  • Buongiorno a tutti.

     

    Ho un PC Windows 7 64 bit  sul quale utilizzo su larga scala i file offline, e dopo una prima sincronizzazione pressochè drammatica tutto va per il verso giusto.

     

    C'è però un problema di performance: il servizio File Offiline legge ininterrottamente decine di GB, anche quando i contenuti sono già sincronizzati e tutte le sincronizzazioni sono completate.

    Questo massacra le prestazioni, l'HDD è sempre sotto stress.

    Pulire la cache dei file offline, disabilitarli, riabilitarli e risincronizzare non risolve il problema.

     

    Qualcuno ha analoga esperienza?

    Idee?

     

    Grazie a tutti!


    • Modificato ultradj83 giovedì 29 settembre 2011 14:41
    • Spostato Roberto Nocera sabato 1 ottobre 2011 01:24 (Da:CRM Italian)
    giovedì 29 settembre 2011 14:23

Risposte

  • Ciao,

    I files offline vengono spesso confusi con una "replica del server in locale". Molti utenti pretendono di tenere 50-100gb sincronizzati ed il tutto dovrebbe oltretutto essere veloce. Ti ricordo che l'intenzione dei file offline non è una "copia locale" è un'utility mirata a chi si sposta spesso fuori dalla rete e necessita di avere sempre aggiornati i suoi files che viceversa vengono anche modificati dagli altri utenti a volte localmente. Il tutto funziona con un numero "umano" di files. Se tu sincronizzi "in larga scala" come leggo dal tuo post, nulla potrà mai essere veloce perchè comunque il controllo, sia che lo faccia alla fine che all'inizio che durante sarà comunque su tutti i files esistenti. Per mia esperienza, 5-10gb sono accettabili. Di più sono improponibili.

    Per grandi dimensioni esiste il copia, perchè comunque su 50gb di files la percentuale dei modificati è statisticamente inferiore al 7%. Spero di averti chiarito un po la questione...

    A.

    domenica 2 ottobre 2011 16:24
    Moderatore

Tutte le risposte

  • Ciao,

    I files offline vengono spesso confusi con una "replica del server in locale". Molti utenti pretendono di tenere 50-100gb sincronizzati ed il tutto dovrebbe oltretutto essere veloce. Ti ricordo che l'intenzione dei file offline non è una "copia locale" è un'utility mirata a chi si sposta spesso fuori dalla rete e necessita di avere sempre aggiornati i suoi files che viceversa vengono anche modificati dagli altri utenti a volte localmente. Il tutto funziona con un numero "umano" di files. Se tu sincronizzi "in larga scala" come leggo dal tuo post, nulla potrà mai essere veloce perchè comunque il controllo, sia che lo faccia alla fine che all'inizio che durante sarà comunque su tutti i files esistenti. Per mia esperienza, 5-10gb sono accettabili. Di più sono improponibili.

    Per grandi dimensioni esiste il copia, perchè comunque su 50gb di files la percentuale dei modificati è statisticamente inferiore al 7%. Spero di averti chiarito un po la questione...

    A.

    domenica 2 ottobre 2011 16:24
    Moderatore
  • Ciao Alessandro, e grazie innanzitutto per la risposta.

    Hai sicuramente ragione, sto struttando eccessivamente i file offline.

    Li ho presi un po' come una replica asincrona senza star a guardare come lavorano, pensavo che il check fosse un po' più leggero, tipo basato su data di modifica e dimensione.

    Hai ragione anche nelle percentuali, anche nel mio caso le modifiche sono davvero poche.

    Non capisco però come suggerisci di usare il copia: manualmente?

    In questo caso sarebbe improponibile.

    Quello che mi serve è qualcosa che sincronizzi le due copie (quella sul PC e quella sul NAS) dei file modificati in modo trasparente, proprio come fanno i file offline. Senza poi contare che un componente integrato nel sistema operativo normalmente è molto più affidabile di qualcosa di terze parti, soprattutto in ambito Windows.

    Grazie ancora!

    lunedì 3 ottobre 2011 14:14
  • Il "copia" nel senso uno mette in files offline solo le cartelle che gli servono e copia tutto il "malloppo" che in altra maniera sincronizzerebbe e che sa che rimane uguale (tanto molto rimane spesso uguale è che il cliente non analizza mai la sua rete e "gli serve sempre tutto" ma non è vero!)

    Se vuoi restare in ambiente MS puoi provare Synctoy. Io mi sono trovato bene, è gratis e pure in versione x64...lo puoi pure schedulare...che vuoi di più? Ma ricorda...l'unica cosa che replica sempre tutto e non ha failover è un Cluster!! Quindi sempre usare in modalità "umana"  

    ;-)

    P.S Se vuoi dargli un giro si syncro pesante con la rete in cat 7 a 10GBit allora li ce la fai, provata la settimana scorsa. Pauroso. Alla prox.

    A.

    lunedì 3 ottobre 2011 14:20
    Moderatore
  • Mi auguro tu l'abbia fatto in ambito professionale... o ti sei montato uno switch 10Gb in casa?

    Cmq rivedrò Synctoy, se non erro lo provai anni fa, probabilmente una versione molto obsoleta...

    lunedì 3 ottobre 2011 15:28
  • Se devi schedularlo puoi usare anche Robocopy.

    Ciao

     


    Andrea Sistarelli
    MCT-MCSE-MCTS-CCNA
    lunedì 3 ottobre 2011 15:40
  • "Mi auguro tu l'abbia fatto in ambito professionale... o ti sei montato uno switch 10Gb in casa?"

    Professionale naturalmente :-) 

    A casa sono fermo a 24gb di ram, 3 monitor da 24 in serie, disco ssd e 2 lan Gigabit in team., con un Cisco Catalyst 24 Gigabit a comandare il tutto. ;-) Ma specifico, casa mia è anche  il mio lab.

    Ciao Ciao.


    lunedì 3 ottobre 2011 15:51
    Moderatore
  • Posso chiederti cosa metti in 24GB di RAM?
    lunedì 3 ottobre 2011 18:11
  • ma certo che puoi!

    Sono specializzato in sistemi virtualizzati, ma prima di metterli in produzione al cliente li testo in locale, quindi quando virtualizzi 2 server 2008 enterprise ed un Dag di exchange ti vanno via giga di ram a gogo...poi ci pagiugo, simulo i failover...i disaster recovery...mi rimangono giusto 4gb per la macchina fisica. Quando ti abitui ad avere un server su un monitor ed un'altro sull'altro monitor e sul centrale la tua roba, browser e posta ecc...di li non ti schiodi più. L'Ssd sul sistema fa il resto ;-) hey con poco più di 1000€ ti fai un sistema da Nasa...se poi usi un termaltake a liquido per il raffreddamento...ed un case zalmann con 6 baie hot swap con dentro 6hd da 1Tb :-)) acceso h24 con tutte le virtualizzazioni attive non fa una piega!!! se muore semplicemente ti spari. :-))

    alla prossima!

    A.

    lunedì 3 ottobre 2011 20:51
    Moderatore
  • Ti capisco... ho lavorato 2 anni su virtualizzazione e virtualizzazione storage... ma a casa l'unica cosa che ho fatto è stata installare ESX su un notebook...
    martedì 4 ottobre 2011 09:45