none
Adventureworks2012-Datenbank - Insert Script RRS feed

  • Frage

  • Hallo,

    kann ich auf einfache Weiße die Adventureworks2012-Datenbank schnell vergrößern. Z.B. das automatisch 1000 Zeilen in einer Tabelle mit wahllosen Daten eingefügt werden?

    Eine andere Möglichkeit wäre es auch einfach sehr viele Änderungen in der AdventureWorks-Datenbank mittels Script durchzuführen.

    Ich möchte das Verhalten von Logfiles und Virtual Log Files testen...

    Grüße

    Julian


    • Bearbeitet Julian79 Mittwoch, 23. November 2016 11:00
    Mittwoch, 23. November 2016 10:28

Antworten

  • Hallo Julian,

    Du könntest experimentieren mit etwas wie:

    INSERT INTO [Sales].[SalesOrderDetail](
        [SalesOrderID]
        ,[CarrierTrackingNumber]
        ,[OrderQty]
        ,[ProductID]
        ,[SpecialOfferID]
        ,[UnitPrice]
        ,[UnitPriceDiscount])
    SELECT [SalesOrderID]
          ,[CarrierTrackingNumber]
          ,[OrderQty]
          ,[ProductID]
          ,[SpecialOfferID]
          ,[UnitPrice]
          ,[UnitPriceDiscount]
    FROM [Sales].[SalesOrderDetail]
    

    wodurch die Detail Zeilen dupliziert werden.

    Brauchst Du (viel) mehr Daten so gibt es bei Brent Ozar ein Duplikat der Stack Overflow Daten:

    How to Download the Stack Overflow Database via BitTorrent

    damit kommen immerhin 95 GB zusammen. Daraus sollte mit etwas Pseudo-Modifikationen ein größeres Log produzieren lassen.

    Gruß Elmar


    • Als Antwort markiert Julian79 Donnerstag, 24. November 2016 10:12
    Mittwoch, 23. November 2016 16:03
  • ja das geht

    insert into TABELLE values (1,2,3,4,5)
    go 1000

    go X führt die anweisung dafür X mal aus.

    Gruß Benjamin


    Benjamin Hoch
    MCSE: Data Platform
    MCSE: Data Management and Analytics
    MCSA: SQL Server 2012/2014
    MCSA: Windows Server 2012
    Blog

    • Als Antwort markiert Julian79 Mittwoch, 23. November 2016 15:50
    Mittwoch, 23. November 2016 11:16
  • Den größten Effekt erzielst Du natürlich, wenn Du die Log-Sicherungen vorübergehend deaktivierst bzw. auf größere Zeiträume setzt oder alles in eine große Transaktion packst.

    Einen schönen Tag noch, Christoph -- Data Platform MVP - http://www.insidesql.org/blogs/cmu

    • Als Antwort markiert Julian79 Donnerstag, 24. November 2016 10:13
    Donnerstag, 24. November 2016 06:35
    Beantworter

Alle Antworten

  • ja das geht

    insert into TABELLE values (1,2,3,4,5)
    go 1000

    go X führt die anweisung dafür X mal aus.

    Gruß Benjamin


    Benjamin Hoch
    MCSE: Data Platform
    MCSE: Data Management and Analytics
    MCSA: SQL Server 2012/2014
    MCSA: Windows Server 2012
    Blog

    • Als Antwort markiert Julian79 Mittwoch, 23. November 2016 15:50
    Mittwoch, 23. November 2016 11:16
  • Das Query hat zwar geklappt, jedoch wurde dadurch das Transactionslog nur wenig vergrößert.

    Gibt es ein Query, welches ich ausführen kann, was viele Einträge im Transactionlog verursacht?

    Grüße

    Julian

    Mittwoch, 23. November 2016 15:53
  • Alternativ kannst du dir eine große Tabelle suchen und dann einen Index Rebuild für Clustered Indexe oder einen Table Rebuild für einen Heap machen. Dann hast du die tabellengröße im Log.

    Benjamin Hoch
    MCSE: Data Platform
    MCSE: Data Management and Analytics
    MCSA: SQL Server 2012/2014
    MCSA: Windows Server 2012
    Blog

    Mittwoch, 23. November 2016 15:58
  • Hallo Julian,

    Du könntest experimentieren mit etwas wie:

    INSERT INTO [Sales].[SalesOrderDetail](
        [SalesOrderID]
        ,[CarrierTrackingNumber]
        ,[OrderQty]
        ,[ProductID]
        ,[SpecialOfferID]
        ,[UnitPrice]
        ,[UnitPriceDiscount])
    SELECT [SalesOrderID]
          ,[CarrierTrackingNumber]
          ,[OrderQty]
          ,[ProductID]
          ,[SpecialOfferID]
          ,[UnitPrice]
          ,[UnitPriceDiscount]
    FROM [Sales].[SalesOrderDetail]
    

    wodurch die Detail Zeilen dupliziert werden.

    Brauchst Du (viel) mehr Daten so gibt es bei Brent Ozar ein Duplikat der Stack Overflow Daten:

    How to Download the Stack Overflow Database via BitTorrent

    damit kommen immerhin 95 GB zusammen. Daraus sollte mit etwas Pseudo-Modifikationen ein größeres Log produzieren lassen.

    Gruß Elmar


    • Als Antwort markiert Julian79 Donnerstag, 24. November 2016 10:12
    Mittwoch, 23. November 2016 16:03
  • Den größten Effekt erzielst Du natürlich, wenn Du die Log-Sicherungen vorübergehend deaktivierst bzw. auf größere Zeiträume setzt oder alles in eine große Transaktion packst.

    Einen schönen Tag noch, Christoph -- Data Platform MVP - http://www.insidesql.org/blogs/cmu

    • Als Antwort markiert Julian79 Donnerstag, 24. November 2016 10:13
    Donnerstag, 24. November 2016 06:35
    Beantworter
  • Hat geklappt Elmar, vielen Dank! :-)
    Donnerstag, 24. November 2016 10:12
  • Hallo Christoph,

    auch eine sehr gute Möglichkeit! Danke!

    Grüße

    Julian

    Donnerstag, 24. November 2016 10:13