none
Datendeduplizierung + Sicherung über das Feature für Windows Server-Sicherung RRS feed

  • Frage

  • Guten Tag,

    wir sind aktuell bei der Überlegung eine Datensicherung über das Feature für Windows Server-Sicherung durchzuführen.

    Es soll bei allen Servern ab Microsoft Windows Server 2008 eingesetzt werden.

    Grundsätzlich ist das kein Problem, jetzt würde ich jedoch gerne alle Sicherungen auf einem Microsoft Windows 2012 Server mit einer Menge Plattenspeicher ablegen. Ziel sollte es sein dort dann eine Datendeduplizierung durchzuführen um die Windows Systemdateien nicht 100 Mal liegen zu haben.

    Jetzt macht das Sicherungsfeature unteranderem eine VHD Datei daraus die meine ganzen Daten enthällt.

    Funktioniert die Datendeduplizierung auch auf die Inhalte der VHD Datei?

    Falls nicht, ist das irgendwann mal bei Microsoft angedacht?

    Es würde ja Sinn machen das tolle Tool zur Windowssicherung zu nutzen und durch eine Datendeduplizierung die Datenmenge etwas zu komprimieren.

    Letztendlich möchte ich dann nämlich die gesamten Daten auf Band sichern.

    Vielen Dank schonmal im Voraus für die Antworten.

    Mittwoch, 30. Januar 2013 14:34

Antworten

Alle Antworten

  • Hallo Paul,

    Von dem was ich kenne, wird die Datendeduplizierung auch die Große einer VHD Datei reduzieren, wenn die VHD Datei nicht andere Dateien enthält, die von verschiedenen Prozessen gesperrt sind(wie zb. Virtuelle Machinen die gestartet sind, SQL Database Dateien usw. ) . Für mehrere Informationen siehe bitte die folgenden Links:

    [1]Introduction to Data Deduplication in Windows Server 2012

    Typical Savings:

    [2]TechNet Thread (Antworten von Anand_N und BrianEh)

    [3]Datendeduplizierung: Planung und Bereitstellung

    Gruß,

    Alex


    Alex Pitulice, MICROSOFT 
    Bitte haben Sie Verständnis dafür, dass im Rahmen dieses Forums, welches auf dem Community-Prinzip „IT-Pros helfen IT-Pros“ beruht, kein technischer Support geleistet werden kann oder sonst welche garantierten Maßnahmen seitens Microsoft zugesichert werden können.

    • Als Antwort markiert Paul Damian Freitag, 1. Februar 2013 19:20
    Freitag, 1. Februar 2013 16:17
  • Nabend Alex, 

    das schaut doch viel versprechend aus. Dafür schonmal herzlichen Dank.

    80 - 95 % Einsparungspotenzial bei VHD Dateien klingt sehr vielversprechend finde ich. 

    Gibt es schon erfahrungswerte wie stark die Belastung einer Maschine ist wenn sie über etliche solcher Files jeden Tag fegt? 

    Bzw. gibt es eine Art Richtwert in CPU pro Terabyte? Also bei welcher Datenmenge muss ich wie viele CPUs bereitstellen. 

    Spricht sonst grundsätzlich etwas gegen meine Vorgehensweise? 

    Ich möchte die Daten später auf Band schreiben und daher war meine Idee überhaupt die VHD mittels Datendeduplizierung etwas "zu komprimieren". 

    Danke im Voraus und ein schönes Wochenende. # Paul

    Freitag, 1. Februar 2013 19:19
  • jein...schau mal hier rein.

    Windows Server 2012 Deduplication Results In A Small Environment

    http://workinghardinit.wordpress.com/2012/11/13/windows-server-2012-deduplication-results-in-a-small-environment/

    Ich hatte keine Zeit das mal durchzuprobieren da ich in der Hauptsache mit DPM SP1 hantiere und da DeDup oob funzt.

    probiers aus und schreib was drüber wenn du damit zufrieden bist.
    Das ist für viele Leute interessant. :)

    Wie Alex schrieb...solange die Dateien nicht gesperrt oder dauerhaft in Aktion sind ist dedup ne gute Geschichte. :)



    Sonntag, 3. Februar 2013 20:04
  • Nabend,

    schaut genau nach dem aus was ich vor habe.

    Bin ja auch nur ein kleines Licht am IT Himmel :)

    Heute die erste Umgebung in die Testphase genommen. 2012er läuft Datendeduplizierung ist an und ich werde jetzt die Tage mal die Server die Sicherungen schreiben lassen.

    Ich bin auf jeder Fall schonmal voller Vorfreude. Das scheint ja eine echt nette Sache geworden zu sein die sich Microsoft da ausgedacht hat.

    Ich melde mich mal mit Ergebnissen, sobald ich welche habe.

    Ich schätze mal nächste Woche weiß ich mehr.

    Daumen drücken, bis die Tage. #Paul

    Montag, 4. Februar 2013 22:35
  • So, da bin ich wieder.

    Ich habe ein neues Laufwerk eingerichtet.

    Dort ettliche Sicherungen ablegen lassen und dann mit dem ddpeval Tool simulieren lassen was möglich ist.

    Dort wurde mir eine Dedupliezierungsrate von 50% angezeigt.

    Jetzt habe ich anschließend die Datendeduplizierung auf Laufwerk E: angeschalten, das Alter in Tagen auf 1 gestellt und gewartet.

    Leider steht dort immernoch 0,00B Ersparniss.

    Das Tool ddpeval sagt mir jetzt natürlich das es nicht simulieren kann da die Datendeduplizierung schon angeschalten ist auf E:.

    An welchem Prozess sehe ich das die DatenDeDup arbeitet ?

    Gibt es sonst noch etwas was ich vergessen habe?

    Es scheint bald so als wenn sie zwar aktiv ist, aber nichts macht.

    Vielen Dank im Voraus, Paul.

    PS: Wie kann ich denn mein Konto überprüfen lassen? Ich wollte ein Bild mit anhängen, was ich leider nicht darf.

    http://s14.directupload.net/images/130207/vlj3bjsk.jpg

    Donnerstag, 7. Februar 2013 13:17
  • Hallo Paul,

    Also normalerweise läuft FSDMHOST.EXE und rubbelt auf der Platte rum.
    fsdmhost schiebt "chunks" der Dateien, also Teilstücke, aktiv nach x:\System Volume Information\DeDup\ChunkStore *\logs und so weiter.

    Ich sehe also bei großen Dateien, (sysprep Images,isos) dann fsdmhost die entsprechende Datei in der Hand halten als auch gleichnamige Prozesse die die chunks rumschubsen.

    Anyway... Wichtig ist meines erachtens das kein Prozess auf die Daten zugreift bzw. diese ständig verändert werden. Das weißt du ja schon.
    Was du also nicht machen kannst, ist das Laufwerk als ständiges Backupsystem zu deduplizieren. Das wird nicht funktionieren.
    Du musst die Backups also quasi archivieren.

    Das geht so konkret aus deiner Schilderung nicht hervor.
    So richtig zum tragen kommt DeDup also nur bei stehenden Daten und nicht bei veränderlichen.

    Siehe working hard:

    "The LUN/Volume for the backups is about 5.5 TB of storage is available. The folder layout is shown in the screenshot below. The backups are run “in guest” using native Windows Backup which has the WindowsImageBackup subfolder as target. Those backups are  archived to an “Archives” folder. That archive folder is the one that gets deduplicated, as the WindowsImageBackup folder is excluded."

    Schieb doch mal eine Platte nach und dorthin eines deiner Backups.
    Lass es ein paar Tage unangetastet und dann sollte was passieren.

    Wenn du es schneller haben willst dann setz auf der neuen Platte die dedup durchsatzoptimierung auf eine zeit bei der du aktiv zusehen kannst.

    In meinen Beobachtungen kannst du dann Punkt x Uhr zusehen wie fsdmhost loslegt und die Platte beansprucht.

    Sonntag, 10. Februar 2013 21:40
  • Hallo Enrico,

    vielen Dank für die Antwort.

    Ich bin jetzt auch schon ein ganzes Stück weiter. Die Datendeduplizierung funktioniert jetzt auch :)

    Das Ergebniss lässt sich auch durchaus sehen :

    http://www.pic-upload.de/view-18219412/Datendedup1.jpg.html

    Ich lasse da jetzt meine Disaster- Recovery (BareMetal Recovery) der Server ablegen und ettliche Daten über Symantec Backup Exec.

    Insgesamt liegen da jetzt die Disaster- Recoverys von 13 Servern, welche 1 x Wöchentlich aktualisiert werden und zusätzlich noch die täglichen Sicherungen (5 Tage rückwirkend) der File-Server Exchange, SQL und Oracle Daten.

    Jetzt habe ich da auf jeden Fall die Zeit alles in Ruhe auf Band zu sichern.

    Ich denke durch dieses tolle Sicherungsfeature werde ich so nach und nach alle Server auf minimum 2008 Server umrüsten.

    Am Wochenende, wenn auch die Symantec Daten mal zwei Tage liegen bleiben komme ich sogar auf über 76% Deduplizierungsrate.

    Ich habe keine genauen Messungen angestellt, wie Ressourcenlastig die Datendeduplizierung ist, ich kam bei Beobachtungen nie über eine Prozessorauslastung von 15%. Gefühlt lief die Dedup. schnell und Ressourcenschonend.

    Vielen Dank für die vielen Antworten, Paul.

    Falls ich noch etwas nachschauen soll in meinem System - Immer her mit den Fragen.

    Mittwoch, 20. Februar 2013 13:49
  • Hey Paul,

    Ja das klingt doch nach was. :)

    Einen fetzigen Artikel der weitere Fragen zum Thema DeDup klärt hatte das Storage Team seinerzeit geblogt.

    guggst du hier:

    http://blogs.technet.com/b/filecab/archive/2012/05/21/introduction-to-data-deduplication-in-windows-server-2012.aspx

    Dort steht auch etwas zum erwartendem Impact auf den Maschinen.

    Ob man das Ganze auf einem Fileserver laufen lässt auf dem viele Leute kleine Daten anfassen läßt sich m.E. im Vorfeld wohl eher schlecht sagen.

    PowerShell commands

    Commands:

    http://technet.microsoft.com/en-us/library/hh848450.aspx

    Get-DedupMetadata ist ganz nützlich um mal zu illern was so intern los ist.

    Auf klassischen Fileservern mit sehr gemischten Inhalt habe ich bisher auch Traumraten von um die 50 - 60% erhalten.
    Sobald ISO Images am Start sind geht das noch weiter nach oben.

    Leider habe ich bisher noch keine Möglichkeit gefunden die darüber hinaus gehen was tiefere, genauere Anzeige des DeDup angeht.

    Mein Problem bisher ist, das ich einen Fileserver habe auf dem auch sehr viele TIBs (Acronis Backup) und Videos von einer Security Cam liegen und nur magere 7 - 15% herauskommen. Alle Kriterien sprechen dafür das mehr rumkommen sollte.

    Nun kann ich mangels Anzeigemöglichkeit nicht einschätzen ob zum Beispiel die Videos wirklich nur schlecht gededupt werden können.
    Man sollte annehmen das durch das häufig selbe Bild auch viele gleiche Daten anliegen.

    Genauso die TIBs... viele sehr alte dabei und augenscheinlich perfekte DeDup Files aber in der Praxis...

    Vielleicht kommt ja noch wer um die Ecke und kann das grafisch oder tabellarisch aufbereiten welche Dateien zu welchem Prozentsatz dedupt wurden.
    Das wäre hilfreich um seinen Datenhaushalt weiter zu optimieren. ;)

    Ich bin noch nicht dazu gekommen Dateien zu isolieren und mal auf einem anderen System einzeln zu deduplizieren.

    Nachtrag:

    Maßgeblich beim Dedup ist definitiv der Datendurchsatz der Harddisks. CPU geht auch etwas hoch wie du siehst aber das passt schon. :)
    Ich habe in verschiedenen Umgebungen DeDup beobachtet und mit geeigneten Unterbau wuppt FSDM gern auch mehrere hundert MB/s durch die Gegend.


    Mittwoch, 20. Februar 2013 17:49