Ins Glas geschaut

Wer heute Serverumgebungen zu verwalten hat, steht vor einer schier unüberschaubaren Auswahl von Konzepten, letztlich mitbedingt durch die Entwicklung der Virtualisierungstechniken. Eine strukturierte Übersicht hilft bei Entscheidungen.

In Pocket speichern vorlesen Druckansicht 9 Kommentare lesen
Lesezeit: 5 Min.
Von
  • Dr. Fred Hantelmann
Inhaltsverzeichnis

Moderne Virtualisierungstechniken schaffen künstliche Rechnerwelten, die laut den Herstellern als Allheilmittel auf dem Weg zu schlanken und effizienten IT-Infrastrukturen wirken sollen. Werbewirksames Zahlenwerk, erfasst für mittlere Beispielkonfigurationen, verspricht enorme Kosteneinsparungen durch Konsolidierung von Serverlandschaften. Höhere Flexibilität in der Gestaltung von Systemausstattungen, verbesserter Systemschutz, kurze Setup-Zeiten, transparente Budget-Kontrolle und bedarfsgerechte Skalierung im laufenden Betrieb sind weitere Argumente, die den Mehrwert der Virtualisierung im Vergleich zu traditioneller Systemnutzung unterstreichen wollen.

Tatsächlich ist Virtualisierung eines der herausragenden Hype-Themen der IT. Anerkannte Marktforscher wie Forrester, Gartner, Goldman Sachs, IDC und die Yankee Group bescheinigen der Technik seit Längerem hohe Akzeptanz bei den IT-Entscheidern. Publizierte Ergebnisse ihrer regelmäßig ausgeführten weltweiten Umfragen deuten außerdem darauf hin, dass Virtualisierung eine hohe Flächendeckung erreicht hat. Dem Markt rund um die Produkte versprechen sie eine lukrative Zukunft: IDC prognostizierte 2006 für das laufende Jahr 2007 ein Gesamtvolumen von 18 Milliarden USD.

Was Virtualisierung im Allgemeinen und im Speziellen bedeutet, haben diverse Interpretatoren versucht zu beantworten: „Virtualisierung ist eine Herangehensweise in der IT, die Ressourcen so zusammenfasst und verteilt, dass ihre Auslastung optimiert wird und automatisch Anforderungen zur Verfügung steht“ lautet eine häufig zitierte Darstellung, die ein Mitarbeiter von HP prägte. Im Internet-Lexikon Wikipedia heißt es etwas weniger prägnant „Virtualisierung bezeichnet Methoden die es erlauben, Ressourcen eines Computer aufzuteilen“. Nahezu ketzerisch wirkt die Meinung aus dem Hause COS Concat AG: „Wenn diese Frage führenden Storage-Herstellern gestellt wird, bekommt man von jedem einzelnen unterschiedliche Antworten. Denn jeder dieser Hersteller interpretiert den Begriff Virtualisierung aus Sicht seiner technologischen Möglichkeiten.“

Motivationen aufseiten der Entscheider für den Einsatz von Virtualisierungsprodukten sind geprägt durch betriebswirtschaftliche Aspekte wie Reduktion der Systemkomplexität, Verbesserung der Servicequalität, Entlastung des Personals und die Klassiker Minimierung der Total Cost of Ownership (TCO) bei Maximierung des Return on Investment (ROI). Anwender erhalten wiederum eine zusätzliche Verwaltungsschicht zur Gestaltung von virtuellen Infrastrukturen, neue Konzepte und neue Funktionen. Sie müssen sich mit dem Wirt, dem Steuerungssystem für virtuelle Instanzen, und den Gästen - den Betriebssystemen auf einer virtuellen Hardware - auseinandersetzen. Je nach eingesetzter Technik kommen dazu bedarfsgerechte und dynamische Ressourcenzuteilung, Suspend und Resume, das „Einfrieren“ und „Auftauen“ von Betriebssysteminstanzen, Snapshots aktiver Gäste, (Live-) Migration virtueller Instanzen und Template-basiertes Gast-Rollout. Schließlich schwappt die Welle über die Netzwerkstrukturen bis in die Senken der Massenspeichersysteme.

Im Hintergrund: Die Virtualisierung von Datenspeichern zeigt die Komplexität, die sich hinter dem Slogan „Speichervirtualisierung“ verbirgt (Abb. 1).

In Theorie und Praxis bilden Server-Storage- und Netz-Virtualisierung eigene Disziplinen mit unterschiedlichen Zielen. Dieser Beitrag konzentriert sich auf die Facetten, die im Umfeld der Server-Virtualisierung von Bedeutung sind. Ein Hinweis dennoch: Die Storage Networking Industry Association SNIA hat das abgebildete Diagramm entwickelt, das die dort etablierten Techniken in einer Baumdarstellung strukturiert (siehe Abb. 1).

Eines der erstes Verfahren zur Server-Virtualisierung präsentierte IBM vor 40 Jahren mit seinem Mainframe System S/360 Modell CP-67. Dort ermöglichte eine in Hardware gefertigte Page-Translation-Tabelle eine virtuelle Verwaltung des Hauptspeichers. Weitere Techniken zur Behandlung von (virtuellen) I/O-Operationen und Interrupts gestatteten allen Kernel-Diensten den Zugriff auf eine abstrahierte Hardwareschicht, die damit die Voraussetzung für den Betrieb mehrerer simultan laufender Betriebssysteme bildete. Ein Crash einer Betriebssysteminstanz hatte keinen Totalausfall des Systems zur Folge; nur sie war temporär nicht mehr verfügbar.

Virtuelle Speicherverwaltung ist heute natürlich allgegenwärtig, ohne die kein Betriebssystem effizient arbeiten könnte: Das physikalische RAM dient lediglich als vorübergehender Speicherort für Applikationen und ist kleiner als der vom System insgesamt bereitgestellte virtuelle Speicher, der durch Hinzufügen von externem Plattenspeicher entsteht. Das Memory-Management des Betriebssystems nutzt eine Auslagerungstechnik (Paging, Swapping), um im physikalischen Hauptspeicher einen Auszug des virtuellen Speichers zu präsentieren. Des Weiteren bedienen sich moderne Betriebssysteme sogenannter virtueller Adressräume. Es handelt sich um eine Technik, die jedem Prozess eigene, gegen andere Prozesse und das Betriebssystem abgegrenzte logische Adressräume zur Verfügung stellt.

Überblick: Die vier Darstellungsformen für den Betrieb anderer, teils fremder Systeme auf einer Plattform. Die Zahl der Schichten definiert zugleich die Freiheitsgrade (Abb. 2).

Server-Virtualisierung fußt heutzutage auf den „Core-Four“ genannten vier zentralen Ressourcen CPU, Hauptspeicher, Netzwerk-Interconnect und Festplattenspeicher. Welche virtuelle Maschine (VM) und in welcher Form sie diese nutzen kann, bestimmt die Brauchbarkeit für den jeweils geplanten Einsatz. Einige Lösungen simulieren nach Art der Emulatoren die Ressourcen in Form von handelsüblichen Komponenten, die oft nicht auf dem neuesten Stand sind, etwa eine 10-MBit-Netzwerkkarte von Broadcom älteren Datums. Andere sind in der Lage, VMs mit modernen Techniken wie 64-Bit-Umgebungen, mehr als 4 GByte Hauptspeicher, symmetrischem Multiprocessing (SMP) und mehreren CPU-Cores aufzubauen.

Am Markt verfügbare Lösungen setzen heute entweder auf der Ebene der Hardware auf (HW-Virtualisierung) oder sie bilden eine Softwareschicht, die den Aufbau einer virtuellen Maschine erlaubt. Allein die Variante in Software kennt vier Ausprägungen: Emulation, Virtual Machine Monitor (VMM), Paravirtualisierung (PV) und Virtualisierung auf Betriebssystemebene (siehe Abb. 2).

Eine detaillierte Beschreibung der einzelnen Virtualisierungslösungen finden Sie in der Printausgabe. (rh)