none
Migration über SSMA v. Oracle mit großen Datenmengen RRS feed

  • Frage

  • Hallo,

    was muß man beachten in Sachen Performance bei Datenmigration v. sehr großen Datenmengen (mehrere hundert GB in 2 DB) v. Oracle nach MSSQL 2008 R2 mit SSMA ?

    Der Kunde beklagt mangelnde Performance bzw. Datendurchsatz - sprich es dauert viel zu lange (über einen Tag) !

    Der Kunde führt Migration selbst durch - allerdings von einem Applikationsserver (also 3. Server) aus und nicht direkt auf SQL-Seite. Die Datenbanken haben einen großen Index-Anteil !

    Danke.

    Gruß,

    Alexander Schaut

    Dienstag, 24. Februar 2015 16:21

Alle Antworten

  • Hallo Alexander,

    ist das eine einmalige Sache? Falls ja, warum wird sich dann an einer Laufzeit von einem Tag bei 2 DBs mit x00 GB Daten gestört?

    Ob das nun normal ist oder nicht, hängt von vielen Faktoren ab. Wie sind die Daten und Tabellen strukturiert, wie wird migriert, wann werden die Indizes aufgebaut, usw.

    Es gibt natürlich vieles dabei zu beachten, bei einem solchen Datenvolumen würde ich aber zuerst mal schauen, ob man die Fremdschlüssel, Indizes, Constraints, Trigger, usw. nicht erst im Nachgang hinzufügen kann.

    Falls der Datendurchsatz an sich schlecht ist (bspw. weil die Netzwerkkonfiguration suboptimal ist) muss man erstmal dieses Problem eliminieren.

    Ob die Variante über einen dritten PC sinnvoll ist oder nicht, kann man so nicht beantworten. Es mag Gründe dafür geben oder auch nicht. Jede Stelle dazwischen trägt aber sicher nicht zu einer Verbesserung der Performance bei.


    Gruß, Stefan
    Microsoft MVP - Visual Developer ASP/ASP.NET
    http://www.asp-solutions.de/ - Consulting, Development
    http://www.aspnetzone.de/ - ASP.NET Zone, die ASP.NET Community

    Dienstag, 24. Februar 2015 16:41
    Moderator
  • Hallo Alexander,

    so eine Datenübernahme dauert halt seine Zeit und hängt von einigen Faktoren ab. Grundsätzlich würde ich empfehlen:

    - Die Datenbankdatei(en) gleich mit der Größe anlegen, wie final dann die Daten belegen werden. Dadurch vermeidet man die automatische regelmäßige Dateivergößerung, die auch immer Zeit benötigt

    - Alle Indizes, die nicht zur Business Logik gehören (PK, Unique + Indizes für FK) deaktivieren, das spart den Wartungsaufwand beim Import. Durch das füllen werden die Indizes fragmentieren und müssen später eh einmal neu erstellt werden.

    Wenn der Datenfluß über eine zusätzlichen App-Server läuft und dort dann noch über nur eine Netzwerkkarte, dann kann da auch schon ein Flaschenhals entstehen.


    Olaf Helper

    [ Blog] [ Xing] [ MVP]

    Mittwoch, 25. Februar 2015 07:59