none
durch VM wird die CPU nicht hochgetaktet - ordentlicher Leistungsverlust !! RRS feed

  • Frage

  • Hallo Forum,

    ich habe zwei Server 2016 Standard. Beides ordentliche Server-Maschinen mit Xeons und ECC-RAM usw. Also keine "normalen" Büro-PCs.

    Es läuft jeweils Server 2016 als VM-Host mit nix weiter installiert außer einer Backup-Software. Und darin laufen jeweils 2 VMs mit eben dem Server 2016. Im Grunde alles ganz normale Standard-Verwendung.

    Leider wirkt der Server ziemlich lahm (Full-SSD) und nach einiger Untersuchung habe ich gefunden warum: Die CPU läuft auf dem VM-Host stets und ständig heruntergetaktet mit nur 1,2 GHz. Soweit ist das ja auch gut und prima. Starte ich auf dem VM-Host eine Anwendung (prime95) taktet sich die CPU hoch auf bis zu 3,8 GHz - also sogar in den Turbo-Takt.

    Leider laufen aber die VMs laut Taskmanager stets und ständig auf 3,7GHz (der Nominaltakt des Xeons) was allerdings gar nicht stimmt! Auch wenn die VMs 3,7GHz anzeigen läuft der Prozi auf dem Host nur mit 1,2.

    Selbst wenn ich in einer VM prime95 starte steht dort im Taskmanager natürlich 100% Last. Der Host interessiert sich dafür aber wenig. Der schwankt zwar mal nach oben auf 1,8GHz aber bleibt idR bei 1,2GHz stehen.

    Der Performance-Verlust ist arg groß! Habe eine Software in der VM updaten müssen (mit 1,2GHz) und es anschließend nochmals unter 3,7GHz probiert. Es hat vorher doppelt so lange gedauert!

    Meine VMs laufen also im Schnitt mit halber Performance! Wir reden hier nicht von 5% oder 10%. :(

    Ich kann die VMs auch dazu bringen, stets die volle CPU-Power zu bekommen - indem ich am Host in den Energieoptionen auf "Höchstleistung" umstelle. Dann läuft die CPU aber Tag und Nacht im Maximal-Takt (mit Turbo), die Lüfter drehen unerhört laut, die Stromrechnung steigt auf das doppelte und dazu gibt's ordentlich Wärmeentwicklung.

    Was kann ich tun?

    Habe schon gesucht (auch hier im Forum) und das einzige was ich finden konnte war eine Aussage a la "das ist eben so".

    Hilfe!

    Grüße, Thomas

    Mittwoch, 7. Februar 2018 08:56

Antworten

  • Ich kann die VMs auch dazu bringen, stets die volle CPU-Power zu bekommen - indem ich am Host in den Energieoptionen auf "Höchstleistung" umstelle. Dann läuft die CPU aber Tag und Nacht im Maximal-Takt (mit Turbo), die Lüfter drehen unerhört laut, die Stromrechnung steigt auf das doppelte und dazu gibt's ordentlich Wärmeentwicklung.

    Moin,

    und das ist auch der einzige wirklich sinnvolle Energie-Modus für einen Virtualisierungshost, sei es unter Xen, Hyper-V- oder ESXi. Alles andere gibt wenig Leistung und unschöne Artefakte noch dazu. Da muss man die Stromrechnung und Kühlung eben in Kauf nehmen.


    Evgenij Smirnov

    I work @ msg services ag, Berlin -> http://www.msg-services.de
    I blog (in German) @ http://it-pro-berlin.de
    my stuff in PSGallery --> https://www.powershellgallery.com/profiles/it-pro-berlin.de/
    Exchange User Group, Berlin -> https://exusg.de
    Windows Server User Group, Berlin -> http://www.winsvr-berlin.de
    Mark Minasi Technical Forum, reloaded -> http://newforum.minasi.com


    In theory, there is no difference between theory and practice. In practice, there is.

    • Als Antwort markiert Thomas Raasch Mittwoch, 7. Februar 2018 10:20
    Mittwoch, 7. Februar 2018 10:08
  • Nun, wenn du den Beschreibungen folgst, macht das die CPU selbstständig und das Betriebssystem macht da gar nichts.
    Über die Energieoptionen wird halt nur irgendein CPU-Flag gesetzt, dass die CPU dann auf Maximum läuft.
    Und wie soll man entscheiden, ob eine VM erhöhte Rechenleistung benötigt?

    Der Host macht ja nichts anderes, als die CPU's der VM an Hand der Zeitscheibenanteile zuzuweisen bzw. wieder wegzunehmen, zumal die tatsächliche Virtualisierung ja auch noch durch die Hardware gemacht wird und somit der VM-Host da noch weniger machen kann.

    Ich denke nicht, dass da in Zukunft irgendwas geändert wird denn für VM's wird eben Höchstleistung vorausgesetzt.

    Da du ja mit deinem Beispiel eine spezielle Aufgabe erledigt hast, kannst du ja für diesen Moment die CPU hochfahren und hinterher wieder absenken, da der Regelbetrieb ggf. keine Höchstleistung benötigt.

    • Als Antwort markiert Thomas Raasch Mittwoch, 7. Februar 2018 14:57
    Mittwoch, 7. Februar 2018 14:11

Alle Antworten

  • Nun, die Antwort bzgl. des Turbos ist so (leider) korrekt.

    Nicht das OS (in diesem Fall Windows) sondern die CPU selber entscheidet über den Turbomodus.
    Solange also nicht mehrere CPU's entsprechende Ressourcen benötigen, denkt sich die CPU halt, das Hochtakten ist nicht nötig.
    Um also den Turboboost zu erzwingen muss man eben auch eine Ressourcenanforderung erzwingen.
    Hat man also z.B. 8 CPU's und weist einer VM nur 2 CPU's zu, ist ein Turbo eher unwarscheinlich, wenn die anderen 6 CPU's nun nichts bis wenig zu tun haben.
    Das selbe gilt eben auch, wenn man mehrere VM's verwendet und die Summe der virtuellen CPU's die realen nicht übersteigt.
    Auch wird der Turbo eher selten anschlagen, wenn eine Anwendung nicht durch Multithreading ebenso auch alle CPU's fordert.
    Und hier ist vielleicht der Ansatz, der aber auch kontraproduktiv sein kann.
    Eine VM mit mehreren CPU's setzt ihre Arbeit erst fort, wenn alle CPU's verfügbar sind.
    Eine Auslastung durch VM's mit mehr virtuellen als realen CPU's wird das System i.d.R. insgesamt wieder verlangsamen.
    Das ist mir auch schon passiert, dass eine VM mit 4 CPU's langsamer als mit 2 war obwohl ich ja genug davon habe.

    Mittwoch, 7. Februar 2018 10:04
  • Ich kann die VMs auch dazu bringen, stets die volle CPU-Power zu bekommen - indem ich am Host in den Energieoptionen auf "Höchstleistung" umstelle. Dann läuft die CPU aber Tag und Nacht im Maximal-Takt (mit Turbo), die Lüfter drehen unerhört laut, die Stromrechnung steigt auf das doppelte und dazu gibt's ordentlich Wärmeentwicklung.

    Moin,

    und das ist auch der einzige wirklich sinnvolle Energie-Modus für einen Virtualisierungshost, sei es unter Xen, Hyper-V- oder ESXi. Alles andere gibt wenig Leistung und unschöne Artefakte noch dazu. Da muss man die Stromrechnung und Kühlung eben in Kauf nehmen.


    Evgenij Smirnov

    I work @ msg services ag, Berlin -> http://www.msg-services.de
    I blog (in German) @ http://it-pro-berlin.de
    my stuff in PSGallery --> https://www.powershellgallery.com/profiles/it-pro-berlin.de/
    Exchange User Group, Berlin -> https://exusg.de
    Windows Server User Group, Berlin -> http://www.winsvr-berlin.de
    Mark Minasi Technical Forum, reloaded -> http://newforum.minasi.com


    In theory, there is no difference between theory and practice. In practice, there is.

    • Als Antwort markiert Thomas Raasch Mittwoch, 7. Februar 2018 10:20
    Mittwoch, 7. Februar 2018 10:08
  • Hallo,

    danke für die Antworten. Das war praktisch die schlimmste Antwort, die es geben konnte :(

    Das heißt also, dass in KMUs (wo der Server teils in Hörreichweite des Büros steht) es praktisch nicht möglich ist das Ganze virtuell aufzubauen. Eben wegen diesem Verhalten.

    Ich muss also auf VMs verzichten und doch 1:1 auf Hardware aufsetzen. Wie will man das einem kleinen Büro mit 4 PCs erklären... das man jetzt 2 Maschinen und 2 Windows-Server-Lizenzen braucht oder man im VM-Fall ständig Lärm, Hitze und Stromkosten hat.

    Auch der Haltbarkeit kann es nichts Gutes tun, wenn man die CPU ständig auf Maximaltakt+Turbo hält.

    Tjo... das ist niederschmetternd

    Grüße


    Mittwoch, 7. Februar 2018 10:20
  • Moin,

    es gibt leise Server wie der FUJITSU TX120 (oder evtl. Nachfolger). Die sind extra dafür entwickelt, diesen Widerspruch zu überbrücken.

    Oder Du fährst das ganze halt auf verminderter Leistung. Würdest Du ja auch, wenn Du es auf Blech aufsetzt, nur halt ohne automatisches Hochtakten bei Last. Wieviele Zyklen kann ein Viersitzer schon brauchen?


    Evgenij Smirnov

    I work @ msg services ag, Berlin -> http://www.msg-services.de
    I blog (in German) @ http://it-pro-berlin.de
    my stuff in PSGallery --> https://www.powershellgallery.com/profiles/it-pro-berlin.de/
    Exchange User Group, Berlin -> https://exusg.de
    Windows Server User Group, Berlin -> http://www.winsvr-berlin.de
    Mark Minasi Technical Forum, reloaded -> http://newforum.minasi.com


    In theory, there is no difference between theory and practice. In practice, there is.

    Mittwoch, 7. Februar 2018 10:26
  • Servus,

    wenn Du wirklich nicht konsequent volle Leistung benötigst, probier mal, der Aufgabenplanung zu sagen, abhängig der Uhrzeit die powercfg zu starten, welche einen beliebigen Energiesparplan lädt. 

    powercfg /list --> zeigt Dir die Pläne an

    powercfg /S [GUID] --> lädt den Plan

    MfG, Jannik

    Mittwoch, 7. Februar 2018 10:38
  • Wenn du 2 Windowsserver benötigst, brauchst du auch 2 Lizenzen. Das hat mit VM's eigentlich nichts zu tun.
    Wobei ich mich frage, wozu du überhaupt 2 Server brauchst.

    Ansonsten hat man i.d.R. für VM-Server eben Rechner, die immer auf Höchstleistung getrimmt sind und einen Turbo-Modus überhaupt nicht kennen. Diese stehen dann im 19"-Rack im Kühlraum, da hört und sieht man auch nichts.

    "Beides ordentliche Server-Maschinen ...."
    Heißt das nicht sowieso, dass dies bereits 2 Geräte sind?
    Wieso dann noch 2 VM's?
    Hast du dann 4 VM's á 2 Geräte?

    Außerdem sollte man da noch mal was nachlesen:
    https://de.wikipedia.org/wiki/Intel_Turbo_Boost#Turbo_Boost_Technology_2.0

    Je mehr CPU's belastet werden, desto geringer ist der Turbo um die Wärme nicht ausufern zu lassen und die Kerne zu zerstören.
    Bei Xeon-CPU's habe ich noch einen (älteren) Hinweis gefunden, dass es Turbo sowieso nur auf einer CPU gibt.
    https://www.computerbase.de/forum/showthread.php?t=1472787

    Ich weiß nicht, ob das noch gilt.

    Mittwoch, 7. Februar 2018 10:40
  • Hallo,

    ja ich hab 2 getrennte Server in 2 völlig unabhängigen Umgebungen. Und bei beiden laufen je 2 VMs (also eben das was mit einer Lizenz möglich ist). "Brauchen"...... brauchen ist eine gute Frage? Braucht man tatsächlich Virtualisierung?

    In meinen beiden Fälle bin ich halt froh, dass auf einer VM die Domäne läuft und auf der anderen die hauseigene Software (SQL-DB usw.). 

    Das ist fein säuberlich getrennt, man kann die SQL-VM neu starten ohne den DC auch starten zu müssen, das Backup ist einfacher, ... alles prima - nur eben lahm!

    Und jetzt soll es das dritte Projekt geben. Hier brauchen wir eigentlich auch nur einen Hardware-Server und dann aber mit 4 VMs (DC, SQL, noch ein SQL, Türschließsystem).

    Aber da ich nun den Performance-Bug kenne frage ich mich ob ich hier dann nicht lieber 4 Hardware-Server hinstelle anstatt eines Servers mit 4 VMs. Oder alles an Software in nur ein einziges Windows reininstallieren - Gott bewahre.

    Also irgendwie komisch. Ich würde das auf jeden Fall als "Bug" bezeichnen. Aber da gibt's sicherlich Stimmen, die meinen: "it's not a bug, it's a feature"

    Mit dem Taskplaner habe ich auch schon überlegt - einfach zu Bürozeiten den Energieplan ändern und abends wieder zurück. Leider aber sitzt in einem der besagten 2 Fälle der Chef direkt neben dem Zimmer, wo der Server steht. Der hakt mir den Kopf ab wenn die Kiste brummt wie Sau :)

    Und dazu dann eben noch die Haltbarkeit... Klar gibt es Wärmesensoren aber bei einer Laufzeit von 3, 4 oder 5 Jahren - jeden Tag volle Pulle Hitze und Strom - das kann nicht gut sein. Bestenfalls ist es nicht schädlich sondern verbraucht nur Unmengen an Strom. Bestenfalls....

    Mittwoch, 7. Februar 2018 12:51

  • Außerdem sollte man da noch mal was nachlesen:
    https://de.wikipedia.org/wiki/Intel_Turbo_Boost#Turbo_Boost_Technology_2.0


    Es geht mir aber nicht um den Turbo-Takt!

    Ich möchte, dass mein 3,6GHz Prozi auch bitte mit 3,6 läuft wenn er etwas zu tun bekommt - aber nein er bleibt bei 1,2GHz stehen und relaxed während die VM auf freie CPU-Zeit wartet.. und wartet.. und wartet..

    Mittwoch, 7. Februar 2018 12:55
  • Nun, der Takt drückt sich im Wesentlichen in GHz aus.
    Die CPU taktet von selbst nur hoch, wenn sie belastet wird.

    Und eine VM kann die CPU nicht echt belasten, da sie nur virtuell ist.

    Mittwoch, 7. Februar 2018 13:20
  • Das wird der interne Grund sein.

    Aber dann muss der VM-Host eben die VMs überwachen und wenn er Last feststellt die CPU hochtakten. Das kann das Betriebssystem ja tun - wie man beim Umschalten des Energiesparmodus selbst erleben kann.

    It's a bug - not a feature.

    :)


    Mittwoch, 7. Februar 2018 13:31
  • Nun, wenn du den Beschreibungen folgst, macht das die CPU selbstständig und das Betriebssystem macht da gar nichts.
    Über die Energieoptionen wird halt nur irgendein CPU-Flag gesetzt, dass die CPU dann auf Maximum läuft.
    Und wie soll man entscheiden, ob eine VM erhöhte Rechenleistung benötigt?

    Der Host macht ja nichts anderes, als die CPU's der VM an Hand der Zeitscheibenanteile zuzuweisen bzw. wieder wegzunehmen, zumal die tatsächliche Virtualisierung ja auch noch durch die Hardware gemacht wird und somit der VM-Host da noch weniger machen kann.

    Ich denke nicht, dass da in Zukunft irgendwas geändert wird denn für VM's wird eben Höchstleistung vorausgesetzt.

    Da du ja mit deinem Beispiel eine spezielle Aufgabe erledigt hast, kannst du ja für diesen Moment die CPU hochfahren und hinterher wieder absenken, da der Regelbetrieb ggf. keine Höchstleistung benötigt.

    • Als Antwort markiert Thomas Raasch Mittwoch, 7. Februar 2018 14:57
    Mittwoch, 7. Februar 2018 14:11

  • Ich denke nicht, dass da in Zukunft irgendwas geändert wird denn für VM's wird eben Höchstleistung vorausgesetzt.


    Also das ist für mich die entscheidende Aussage. Wenn dem tatsächlich so ist, ist alles klar. Ich kann es nur ehrlich gesagt nicht glauben!

    Riesen Rechnenzentren voll mit tausenden CPUs und niemand macht sich Gedanken, dass diese CPUs immer unter Maximaltakt arbeiten und Hitze erzeugen bei gleichzeitiger Stromvernichtung.


    Global heißt das ja, dass genau jetzt in diesem Moment weltweit viele tausende (vermutlich eher Millionen) CPUs im Höchsttakt+Turbo laufen aber praktisch nur 20% Nutzlast ziehen. Viele Millionen CPUs verbraten viele Milliarden KWh... völlig umsonst.

    Ich kann das nicht so richtig glauben...

    Mittwoch, 7. Februar 2018 14:56
  • Hast du die Berichte bzgl. der Rechenleistung für Bitcoins nicht verfolgt?
    Da wird mehr Strom verbraucht als so manches Land benötigt.

    Und was die Hitze angeht, so gibt es da auch entsprechende Lösungen diese abzuführen und wieder Strom daraus zu machen.

    Aber das wird nichts gegen den gigantischen Strombedarf, den E-Autos benötigen werden:

    Mittlere Leistung mal als 20Kw/h angenommen, bei 1 Stunde Fahrt je Tag macht dies bei 1 Mio Fahrzeuge einen Bedarf von 20.000.000 KW/h, das sind 20 Giga Watt/Stunde!

    https://www.ndr.de/nachrichten/Watt-Das-leisten-die-Anlagen-im-Vergleich,watt250.html

    "Ein mittleres Atomkraftwerk wie das Kernkraftwerk Emsland hat eine Nennleistung von etwa 1.400 Megawatt, das entspricht nach Angaben des Betreibers RWE jährlich elf Milliarden Kilowattstunden Strom für 3,5 Millionen Haushalte."
    Mit diesen 1,4 Giga pro Jahr können also 1 Mio Autos ca. 4,3 Minuten im Jahr fahren.

    Oder anders gerechnet:
    Mein Laptop mit 2. Monitor liegt bei zusammen ca. 500 Watt/Stunde.
    Ich kann also entweder 1 Stunde E-Auto fahren oder 40 Stunden den Computer laufen lassen.

    Ich denke, dass da die paar Millionen PC's dann nicht mehr ins Gewicht fallen werden.

    Mittwoch, 7. Februar 2018 15:54
  • check

    da werd ich mal drüber nach-philosophieren.... ist ja erschreckend :)

    Mittwoch, 7. Februar 2018 16:04
  • Du kannst auch anders rechnen:

    Ein Durchschnittshaushalt benötigt heute ca. 4000Kw im Jahr.
    Bei 20Kw/h des E-Autos kann ich also 200 Stunden bei vergleichbarer Leistung, verdoppele also meinen Energiebedarf.

    Bei heute ca. 40Mio zugelassenen PKW's in E-Autos kannst du ja mal den Bedarf ausrechnen und da ist Europa nochnicht dabei.

    Irgendwo hatte ich auch schon mal eine Rechnung gesehen, dass für die E-Autos deutschlandweit, also über alle Strassen, Flüsse, Stadte, Wälder usw. ca. alle 500 Meter ein Windrad stehen müsste, dass auch noch permanent Strom erzeugen soll. Bei einer durschnittlichen Nennlesitung von 23% sieht das eher mau aus.

    Und da machst du dir Sorgen über einen Hochleistungs-PC?
    Hast du mal tatsächlich den Mehrverbrauch zwischen Normal- und Hochleistung gemessen?
    Das ist ja nur die CPU und sonst nichts und die liegt bei einem I7 ca. zwischen 35 und 90 Watt.

    Mittwoch, 7. Februar 2018 16:28

  • In meinen beiden Fälle bin ich halt froh, dass auf einer VM die Domäne läuft und auf der anderen die hauseigene Software (SQL-DB usw.). 

    ...

    Und jetzt soll es das dritte Projekt geben. Hier brauchen wir eigentlich auch nur einen Hardware-Server und dann aber mit 4 VMs (DC, SQL, noch ein SQL, Türschließsystem).

    ...

    Mit dem Taskplaner habe ich auch schon überlegt - einfach zu Bürozeiten den Energieplan ändern und abends wieder zurück. Leider aber sitzt in einem der besagten 2 Fälle der Chef direkt neben dem Zimmer, wo der Server steht. Der hakt mir den Kopf ab wenn die Kiste brummt wie Sau :)

    Und dazu dann eben noch die Haltbarkeit... Klar gibt es Wärmesensoren aber bei einer Laufzeit von 3, 4 oder 5 Jahren - jeden Tag volle Pulle Hitze und Strom - das kann nicht gut sein. Bestenfalls ist es nicht schädlich sondern verbraucht nur Unmengen an Strom. Bestenfalls....

    Hallöchen,

    habt Ihr schon mal darüber nachgedacht die Systeme auszulagern und nicht im Haus zu haben? Dann sparst Du Dir die ganzen Sorgen und Probleme die Du gerade aufzählst.



    Freundliche Grüße

    Sandro Reiter
    Consultant Cloud Infrastructure

    Microsoft Azure
    Office 365
    Microsoft 365




    Donnerstag, 8. Februar 2018 10:29
  • Ich weiß nicht, warum man für alles und jedes einen eigenen Server benötigt.
    Ein SQL-Server kann durchaus mehrere Datenbanken parallel bedienen.
    Vorteil: nur 1 x SQL-Serverlizenz.
    Und warum braucht ein Türschließsystem einen eigenen Server?
    Warum kann ein DC keinen SQL-Server beherbergen?

    So ein DC dümpelt meist sowieso nur vor sich hin und würde mit der Leistung eines 386 vollkommen ausreichen.
    Warum nicht also einen SQL-Sever draufpacken für mehrere Datenbanken?

    Es ist auch alles eine Frage des Preises (Lizenz je Windows-Server, Lizenz je SQL-Server).

    Mit den VM's ist ja alles gut und schön, aber wenn ich nur 1 VM brauche, kann ich auch ohne auskommen.
    Und was die Argumente des leichteren Hardwarewechsels nehme, ist das auch kein Grund zwangsweise auf VM's zu gehen, da man bei vernünftiger Sicherung diese jederzeit auf anderer Hardware restoren kann.

    Donnerstag, 8. Februar 2018 10:37
  • Ja genau das ist im Grunde die Frage - brauche ich für alles eine VM..?!

    Ich würde sagen, wenn es diese Performance-Probleme nicht geben würde, ist die Antwort ganz klar JA.

    Sicherlich "braucht" man eine VM nicht zwingend. Aber die Vorteile sind doch schon vielseitig. Einfachere Sicherung, einfachere Wiederherstellung, Reboots ohne andere Systeme mit abzuschießen, Updates ohne Seiteneffekte, keine Software-Inkompatibilitäten, ...

    Allein mal eben ne VM zu kopieren um ein neues Update oder eine "gefährliche" Buchung zu testen.

    Ist wie mit der Sitzheizung beim Auto... brauchen tut man sie nicht, ich kaufe dennoch nie wieder ein Auto ohne.

    Aber der Performance-Bug ist echt eine bittere Krücke.


    Montag, 12. Februar 2018 15:27
  • Hallöchen,

    habt Ihr schon mal darüber nachgedacht die Systeme auszulagern und nicht im Haus zu haben? Dann sparst Du Dir die ganzen Sorgen und Probleme die Du gerade aufzählst.



    Freundliche Grüße

    Sandro Reiter
    Consultant Cloud Infrastructure

    Microsoft Azure
    Office 365
    Microsoft 365




    Hallo,

    theoretisch eine machbare Idee. Bis man dem Kunden erklärt was technisch mit seinen Daten passiert. Kein einziger Kunde würde danach noch JA sagen.

    Dazu kommt, dass besagter Kunde mit den 4 "Servern" am DSL 5.000 hängt. Praktisch ist da nix online machbar. Gerade so E-Mail.

    Grüße

    Montag, 12. Februar 2018 15:29
  • theoretisch eine machbare Idee. Bis man dem Kunden erklärt was technisch mit seinen Daten passiert. Kein einziger Kunde würde danach noch JA sagen.

    Und was passiert schlimmes mit den Daten in Azure EU oder gar Azure DE?

    Dazu kommt, dass besagter Kunde mit den 4 "Servern" am DSL 5.000 hängt. Praktisch ist da nix online machbar. Gerade so E-Mail.

    Das ist eher eine plausible Erklärung in dem Fall das ganze Inhouse zu betreiben.

    Freundliche Grüße

    Sandro Reiter
    Consultant Cloud Infrastructure

    Microsoft Azure
    Office 365
    Microsoft 365




    Dienstag, 13. Februar 2018 07:03
  • Mit den Daten passiert da ggf. nicht viel, allerdings sind in letzter Zeit die Leitungen (Telekom, Unitymedia) weniger stabil, so dass ich mit dem Ausfall der Netze im Zweifel den Betrieb stillege.

    Nicht umsonst schreibt man Cloud auf deutsch "Klaut":D.

    Dienstag, 13. Februar 2018 08:12
  • Mit den Daten passiert da ggf. nicht viel, allerdings sind in letzter Zeit die Leitungen (Telekom, Unitymedia) weniger stabil, so dass ich mit dem Ausfall der Netze im Zweifel den Betrieb stillege.

    Das ist wie gesagt ein Grund dagegen zu argumentieren. Ein Großteil der Probleme, die der TO aktuell hat, könnten damit aber leicht gelöst werden. Ohne ein stabile Leitung gebe ich aber Recht, wenn man diese Strategie fährt sollte man in eine redundante Internetanbindung ggf. Standleitung investieren um den Betrieb abzusichern.

    Nicht umsonst schreibt man Cloud auf deutsch "Klaut":D.

    :'D

    Freundliche Grüße

    Sandro Reiter
    Consultant Cloud Infrastructure

    Microsoft Azure
    Office 365
    Microsoft 365




    Dienstag, 13. Februar 2018 08:16
  • Nun ja, was die sog. redundanten Leitungen angeht, so habe ich das schon bei meinen Kunden erlebt, so teilen diese sich die berühmte letzte Meile. Ein Schaden auf dieser Strecke legt dann gleich alles lahm.

    Hinzu kommen die z.T. nicht unerheblichen jährlichen Kosten, statt der einmaligen Kosten bei mir zu Hause.

    Ich bin ja mal gespannt, wann Microsoft auf ein ähnliches Lizenzgebahren wie zuletzt Lexware umstellt:
    Wenn du das Updatepaket nicht kaufst, kann deine Software die Daten nur noch anzeigen. Eine weitergehende Nutzung wird ausgeschlossen.
    Bei der Cloud ist das im Prinzip ja schon genau so.

    Dienstag, 13. Februar 2018 08:29
  • theoretisch eine machbare Idee. Bis man dem Kunden erklärt was technisch mit seinen Daten passiert. Kein einziger Kunde würde danach noch JA sagen.

    Und was passiert schlimmes mit den Daten in Azure EU oder gar Azure DE?

    Hallo

    Nun... genau kann ich nicht vorher sagen was passieren wird. Aber wir alle werden es in 1-5 Jahren lesen. Bei WikiLeaks oder in der Zeitung.

    Fakt ist eins: liegen die Daten in der Cloud haben "andere" Zugriff darauf. Sei es der böse Hacker, das gut zahlende Konkurrenz-Unternehmen oder NSA & Co.

    Und genau das werden wir alle bald erfahren dürfen.

    Ob die Clound in der USA liegt oder in DE ist hierfür völlig egal. Ob alles verschlüsselt gespeichert und transportiert wird -> völlig egal.

    Erinnert euch an diese Worte! Der nächste Snowden wird mir den Beweis liefern :)

    Montag, 19. Februar 2018 09:40
  •  Sei es der böse Hacker, das gut zahlende Konkurrenz-Unternehmen oder NSA & Co.

    Kannst Du in Deinem DC ausschließen das Hacker, vielleicht sogar jetzt schon, mitlesen? ;)

    Ich will hier auch gar kein Gute Cloud, böse Cloud spielen. Der eine gibt mehr Geld für Hardware und Wartung sowie Personal aus, der andere eben nicht.


    Freundliche Grüße

    Sandro Reiter
    Consultant Cloud Infrastructure

    Microsoft Azure
    Office 365
    Microsoft 365




    Montag, 19. Februar 2018 09:44
  • Das Schöne ist ja, dass man auch einen Hybrid-Ansatz beim public Cloud-Konzept verfolgen kann. In Deinem Fall ist eine Replikation der VMs nach z.B. Azure für ein Disaster Recovery vielleicht EINE Option. Ob Jemand die Hoheit über seine Daten aus Compliance Gründen behalten muss, ist sicher eine Auflage. Microsoft hat Azure Stack nicht aus Spaß entwickelt und bei Azure Deutschland müssen sicher strenge Auflagen erfüllt werden. [...] Wenn aber der eigene Serverraum in Flammen aufgeht und Dienste ohne große Unterbrechung laufen müssen, betrachtet man Dinge aus einem anderen Blickwinkel, wenn gerade kein zweites RZ zur Verfügung steht. Manche Argumente gegen die public Cloud weichen dann auf. Nicht nur Arbeitsverlagerung bei der Infrastruktur.

    Gruß,
    Marcel

    https://www.windowspro.de/marcel-kueppers

    I write here only in private interest

    Disclaimer: This posting is provided AS IS with no warranties or guarantees, and confers no rights.

    Montag, 19. Februar 2018 13:27
  • Hallo,

    es gibt interessante Neuigkeiten. Habe meinen Azubi an einen ausgedienten Server rangesetzt - er solle mal etwas rumprobieren.

    Also schnell Server 2016 + Hyper-V und darin 2 VMs mit Server 2016 installiert. Als Testtool diente Prime95.

    Mit den Standard Einstellungen (BIOS + Windows) war das Problem genau wie bekannt. Eine VM schaffte es praktisch gar nicht den Host auszulasten.

    Aber mit der Änderung nur einer BIOS-Option ist alles genau so wie man es erwartet!

    Die CPU (Standard-Takt 2,6) taktet im idle mit 1,1. Startet man Prime95 auf dem Host -> CPU geht auf 2,6 und hat 100% Last. Soweit ganz klar.

    Startet man Prime aber nun auf einer VM taktet sich die CPU ebenso von 1,1 auf 2,6 hoch!! Das ist neu. Ebenso liegt dann die Last am Host bei 100%! Das ist auch neu.

    Energieeinstellungen sind auf "Ausbalanciert".


    Also es geht doch!! Die "geheime" BIOS-Option war zu deutsch ungefähr so:

    Energieverwaltung der CPU wird kontrolliert durch:

    a) System (BIOS)

    b) deaktiveirt

    c) OS

    Standard ist a). Stellt man es auf c) funktioniert alles.

    Getestete Hardware:

    Server: DELL PowerEdge R320

    CPU: High End Pentium Dual Core mit 2,6GHz (ohne Turbo-Takt)

    Ich versuche einen aktuellen Server in die Finger zu bekommen, um die Tests dort zu wiederholen

    Dienstag, 3. April 2018 11:09

  • Also es geht doch!! Die "geheime" BIOS-Option war zu deutsch ungefähr so:

    Energieverwaltung der CPU wird kontrolliert durch:

    a) System (BIOS)

    b) deaktiveirt

    c) OS

    Standard ist a). Stellt man es auf c) funktioniert alles.

    ...

    Ich versuche einen aktuellen Server in die Finger zu bekommen, um die Tests dort zu wiederholen

    ... und auch dort wird Dein Test vermutlich gut aussehen. 

    Ändert nichts daran, dass die wenigsten erfahrenen Virtualisierungs-Designer das auch in Produktion machen würden. Schon zu viele vollkommen abartige Phänomene erlebt, die sich am Ende durch Abschaltung der Energieverwaltung im Wohlgefallen auflösten.


    Evgenij Smirnov

    I work @ msg services ag, Berlin -> http://www.msg-services.de
    I blog (in German) @ http://it-pro-berlin.de
    my stuff in PSGallery --> https://www.powershellgallery.com/profiles/it-pro-berlin.de/
    Exchange User Group, Berlin -> https://exusg.de
    Windows Server User Group, Berlin -> http://www.winsvr-berlin.de
    Mark Minasi Technical Forum, reloaded -> http://newforum.minasi.com


    In theory, there is no difference between theory and practice. In practice, there is.

    Dienstag, 3. April 2018 13:31
  • Verstehe...

    du hast nicht zufällig ein konkretes Beispiel eines dieser "abartigen Phänomene"?

    Würde mich mal interessieren, was noch so alles passieren kann außer dem Leistungseinbruch.

    Und da weiter oben hinterfragt wurde, warum man für alles einen eigenen Server braucht:

    habe gerade die Datev-Software in der Hand -> Empfehlung: nicht auf dem DC installieren

    Und hier neben liegt SFirm -> Installation auf DC wird nicht unterstützt, tatsächlich bricht das Setup auf nem DC ab.

    Soviel zur Notwendigkeit von eigenen Servern pro DB/Anwendung.


    Dienstag, 3. April 2018 13:46
  • Wobei sich mir solche Einschränkungen komplett entziehen. Eigentlich gibt es dafür überhaupt keinen Grund.
    Ich entwickle schließlich auch Software und, da ich im Installer alles habe, was die Anwendung benötigt, hatte ich noch nie Probleme mit der Lauffähigkeit seit Windows XP.

    Aber wer weiß, was mit .NET noch so alles auftreten wird...
    Bisher lief aber alles gut.

    Dienstag, 3. April 2018 14:04
  • Verstehe...

    du hast nicht zufällig ein konkretes Beispiel eines dieser "abartigen Phänomene"?

    Würde mich mal interessieren, was noch so alles passieren kann außer dem Leistungseinbruch.


    Moin,

    nicht sofort erklärbares Verhalten halt. Grundsätzlich teilen sich die Phänomene in drei Kategorien:

    • Host schafft es nicht, die CPUs schnell genug hochzuspinnen, und stürzt ab. Gesehen bei verschiedenen Versionen von Hyper-V, ESXi und XenServer.
    • Das, was Du erlebt hast: virtueller Server langweilt sich, ist aber trotzdem nachweislich zu langsam
    • Ganz perfide: Software versucht, die CPU zu evaluieren, ohne sie aber tatsächlich auszureizen, und bekommt im Energiesparmodus falsche Ergebnisse

    Evgenij Smirnov

    I work @ msg services ag, Berlin -> http://www.msg-services.de
    I blog (in German) @ http://it-pro-berlin.de
    my stuff in PSGallery --> https://www.powershellgallery.com/profiles/it-pro-berlin.de/
    Exchange User Group, Berlin -> https://exusg.de
    Windows Server User Group, Berlin -> http://www.winsvr-berlin.de
    Mark Minasi Technical Forum, reloaded -> http://newforum.minasi.com


    In theory, there is no difference between theory and practice. In practice, there is.

    Dienstag, 3. April 2018 21:01
  • Wobei sich mir solche Einschränkungen komplett entziehen. Eigentlich gibt es dafür überhaupt keinen Grund.
    Ich entwickle schließlich auch Software und, da ich im Installer alles habe, was die Anwendung benötigt, hatte ich noch nie Probleme mit der Lauffähigkeit seit Windows XP.

    Von der anderen Seite aus betrachtet, gibt es jeden Grund der Welt, keinen fremden Code auf DCs zu installieren. Besonders kontraproduktiv sind bei sowas Drittprogramme, die

    • Code im System-Kontext ausführen, z.B. als Dienst
    • Code im Kernelmodus ausführen, z.B. als Treiber
    • Unsignierten Code laden, egal in welchem Kontext
    • meinen, lokale Adminrechte zu benötigen (auf einem DC gibt es keine lokalen Gruppen)
    • Freigaben erstellen und darauf bestehen, sie selbst zu verwalten

    So etwas würde ich NIE auf einen DC lassen. Und Virtualisierung erlaubt es ja, das zu separieren, ohne sich gleich in Unkosten stürzen zu müssen...


    Evgenij Smirnov

    I work @ msg services ag, Berlin -> http://www.msg-services.de
    I blog (in German) @ http://it-pro-berlin.de
    my stuff in PSGallery --> https://www.powershellgallery.com/profiles/it-pro-berlin.de/
    Exchange User Group, Berlin -> https://exusg.de
    Windows Server User Group, Berlin -> http://www.winsvr-berlin.de
    Mark Minasi Technical Forum, reloaded -> http://newforum.minasi.com


    In theory, there is no difference between theory and practice. In practice, there is.

    Dienstag, 3. April 2018 21:06
  • Ich füge mal noch eines hinzu:

    Wir selbst programmieren auch und kennen daher Inkompatibilitäten mit Bibliotheken. So ist es mehrfach passiert, dass wir mit unserer Software eine DLL/OCX mitbrachten die Jahre später durch Installation einer völlig anderen Software ersetzt wurde. Teils durch aktuellere aber auch durch ältere Versionen.

    Und wie man erleben durfte, lief dann unsere Software nicht mehr. DLL ersetzt und schwupps lief die andere Software nicht mehr.

    Also ich würde auch trennen was zu trennen geht. Nebenher gibt's ja noch die Vorteile bei ausstehenden Reboots oder Backup/Restore oder ...


    Donnerstag, 5. April 2018 14:56