none
Crawl Logs automatisch als Datei speichern RRS feed

  • Frage

  • Hallo zusammen,

    kennt jemand eine Möglichkeit, die Crawl Logs als txt-Datei abspeichern zu lassen?

    Danke und Gruß

    Mittwoch, 5. Januar 2011 08:56

Antworten

  • Hallo

    die LogViewer Klasse wurde anscheinend als Obsolete markiert. Daher ein No-Go. Die Crawl Logs befinden sich in der SQL Datenbank, welche aber nicht direkt über SQL Queries abgefragt werden können, da dies die DBs in einem Unsupporteten Zustand rendern könnte:

    http://support.microsoft.com/kb/841057

    Über das Objekt Model konnte ich auch keine andere Methode finden die Crawl Log Daten anzusprechen. Einzig was über den Objekt Model aufrufbar wäre, sind die Eigenschaften eines Crawls (über die Microsoft.Office.Server.Search.Administration.ContentSource Klasse). Das könnte man evtl. in einem PowerShell Skript unterbringen.

    Gruß
    Andrei

    Freitag, 7. Januar 2011 14:08

Alle Antworten

  • Hallo

    interessante Frage. Für 2007 gab es http://exportcrawllog.codeplex.com/ für 2010 konnte ich nichts finden.

    Theoretisch sollte es über PowerShell und die Microsoft.Office.Server.Search.Administration.LogViewer Klasse funktionieren. Leider habe ich keinen Zugriff auf meine Testumgebung heute, hoffe das ich in den kommenden Tage dazu komme das auszuprobieren. Ich melde mich dann wieder hier im Thread.

    Gruß
    Andrei

    Donnerstag, 6. Januar 2011 14:49
  • Hallo

    die LogViewer Klasse wurde anscheinend als Obsolete markiert. Daher ein No-Go. Die Crawl Logs befinden sich in der SQL Datenbank, welche aber nicht direkt über SQL Queries abgefragt werden können, da dies die DBs in einem Unsupporteten Zustand rendern könnte:

    http://support.microsoft.com/kb/841057

    Über das Objekt Model konnte ich auch keine andere Methode finden die Crawl Log Daten anzusprechen. Einzig was über den Objekt Model aufrufbar wäre, sind die Eigenschaften eines Crawls (über die Microsoft.Office.Server.Search.Administration.ContentSource Klasse). Das könnte man evtl. in einem PowerShell Skript unterbringen.

    Gruß
    Andrei

    Freitag, 7. Januar 2011 14:08
  • wow.. vielen Dank für die Mithilfe.

     

    Dienstag, 11. Januar 2011 08:01
  • Hallo

    Gern geschehen!

    Da ich mich schon in das Thema eingearbeitet habe, hier auch kurz ein Beispielsskript der den Status aller Content Sourcen pro Top Level Site aller Web Anwendungen abruft:

    [void][System.Reflection.Assembly]::LoadWithPartialName("Microsoft.Office.Server.Search.Administration") 
    
    $webapps=Get-SPWebApplication;
    foreach ($w in $webapps)
      {
        $s=Get-SPSite $w.Url;
        $c=[Microsoft.Office.Server.Search.Administration.SearchContext]::GetContext($s);
        $cs=$(New-Object Microsoft.Office.Server.Search.Administration.Content($c)).ContentSources;
        foreach ($c in $cs) 
          {
            Write-Host ("Web Application: "+$s.Url);
            $c|Format-Table -Property Id, Name, Type, CrawlStarted, CrawlStatus, DeleteCount, SuccessCount, ErrorCount, WarningCount
          }
      }
    

    Hinweis: Das Microsoft.SharePoint.PowerShell PSSnapin muss in der PSSession geladen werden (standardmäßig ist es im SharePoint Management Shell geladen, ansonsten Add-PSSnapin Microsoft.SharePoint.PowerShell ausführen)

    Gruß
    Andrei

    Dienstag, 11. Januar 2011 12:39