none
Status BackupLog RRS feed

  • Frage

  • Hallo,

    ich bin Admin und verwalte mehrere SQL-Server-DB (alle SQL 2005 auf Server 2003 x64).

    Ich habe akt. ein Problem mit einer DB (Größe ~650GB) und deren LogBackup (TransactionLog = 35 GB): Wie kann ich feststellen, ob bereits ein BackupLog läuft? In der DB werden aktuell jede Menge Daten durch die Applikation (SAP BW) gelöscht und die DB kommt mit den BackupLogs nicht mehr nach.

    Mein ursprünglicher Plan war es halbstündlich ein BackupLog durchzuführen und weiters durch Alerts ausgelöste Backups (LogFile Used Size > xx GB) - leider dauern die Backups zu lange (werden akt. auf Platte durchgeführt).

    Hat jemand eine Idee?

     

    LG, Bernd

    Mittwoch, 31. März 2010 06:38

Alle Antworten

  • Servus Bernd!

    Um das System zu entlasten ist es besser das Log in kürzeren Abständen zu sichern z.B. alle 5min. Logbackups in kleinen "Portionen" belasten den SQL Server weitaus weniger als in großen.

    Die aktuelle Aktivität kannst Du mit diesem Skript abfragen:

    select t.text,start_time,status
          ,command,wait_type,wait_time,last_wait_type,wait_resource
          ,percent_complete,estimated_completion_time,cpu_time
          ,total_elapsed_time,scheduler_id
          ,task_address,reads,writes,logical_reads
      from sys.dm_exec_requests as r
           cross apply sys.dm_exec_sql_text(r.sql_handle) as t
      where t.text like 'backup log%'

    Sind die Datenbankdateien, Log-Dateien und Logbackbups jeweils auf einer eigenen Festplatte?

    LG, Georg

    Samstag, 3. April 2010 23:50
  • Hallo Bernd

    konnten dir Georgs Tipps weiterhelfen?

    Gruß
    Andrei

    Mittwoch, 7. April 2010 15:35
  • Hallo,

    vielen Dank für euren Lösungsvorschlag.

    Das Script war genau das was ich gesucht habe. Mit der LogBackup alle 5 Minuten bin ich jedoch leider nicht so glücklich: Grundsätztlich funktioniert dies, will man sich jedoch den Content eines BackupDevices ansehen, so wartet man ewig. Ja, DB-Dateien, Log-Dateien und Backups sind auf unterschiedlichen Festblatten (und auf unterschiedlichen Raid-Gruppen im SAN).

    LG, Bernd

    Donnerstag, 8. April 2010 06:05
  • SAP - mich würde es nicht wundern, wenn sehr große Datenmengen in einer einzigen Transaktion gelöscht werden sollen. In diesem fall kann das Log gar nicht truncated werden. Weil ja jede nicht abgeschlossene TA Platz finden muss, schwillt das Log dann weiter an.

    Allerdings finde ich 35GB Log bei 650GB Daten insbesondere für ein ERP recht moderat. Will sagen, ich habe schon deutlich größere gesehen.
    35 GB wegschaffen kann allerdings schon mal 5 min dauern, je nach Durchsatz der Laufwerke (Log und Backup), und wenn das nicht flott genug ist, dann muss man da für mehr Durchsatz sorgen. Oder man lässt es anschwellen, bis die Löschorgie zuende ist... es werden ja sicher nicht alle 650 GB gelöscht.

     


    Bodo Michael Danitz - MCT, MCITP - free consultant - performance guru - www.sql-server.de
    Montag, 19. April 2010 21:57