Trau, schau, wem

Dank neuer Techniken und deren Leistungshunger rücken die Grenzen des Machbaren immer näher. Im RZ ist es eng geworden und trotzdem müssen weitere Rechner her. Da soll die Konsolidierung den Ausweg bieten und viele virtuelle Server auf einer Hardware unterbringen.

In Pocket speichern vorlesen Druckansicht 5 Kommentare lesen
Lesezeit: 7 Min.
Von
  • Dennis Zimmer
Inhaltsverzeichnis

Es bringt eine Reihe von Vorteilen, auf einem Rechner mehrere Systeme nebeneinander nutzen zu können, vor allem, wenn der Aufwand sonst deutlich geringer ist als der Betrieb auf jeweils eigener Hardware. Virtualisierung heißt das Zaubermittel, eine Technik, die auf der einen Seite einiges mit Programmen gemeinsam hat, die fremde Hardware emulieren, auf der anderen Seite die physische Hardware vor dem Anwender ebenso verbirgt wie große Rechenzentren oder im Netz verteilte Ressourcen à la Grid. Dabei nutzen die Angebote völlig unterschiedliche Methoden und nicht jede ist für jeden Zweck geeignet.

Unter Emulatoren versteht man gemeinhin die komplette Nachbildung einer Architektur durch eine Software, die sämtliche Hardware inklusive Prozessor, Chipsatz und allem Drumherum in einer Umgebung abbildet, in der die jeweiligen Betriebssysteme und Applikationen laufen können. Dadurch kann man auf einer Hardware Systeme betreiben, die dafür nicht konzipiert sind. Vor allem bei den Computerspielen sind Emulatoren beliebt: Klassiker wie Commodores C64 oder Ataris Konsolenspiele fanden so neue Liebhaber. Weitere bekannte Emulatoren sind Pear (Mac Emulation), Bochs und Qemu. Vor allem hinter Letzterem steht eine große Gemeinschaft. Im professionellen Umfeld sind Emulatoren zu langsam, um kritische Applikationen zu steuern, da eine Umsetzung von Prozessorbefehlen (etwa von Little Endian auf Big Endian und vice versa) und Speicherregistern enorme Ressourcen verschlingt.

Virtualisierer nutzen direkt Prozessor(en) und Hauptspeicher der Wirtshardware. Sie emulieren, wenn überhaupt, nur Teile der Peripherie (Netzwerkadapter, Festplatten- und andere Controller). Sie erreichen dadurch eine hohe Ausnutzung der Wirtsressourcen, die sie an die Gastsysteme (GS) weitergeben. Bei der Virtualisierung unterscheidet man drei Ansätze: Hardware-, Para- und Betriebssystemvirtualisierung.

Ihren Ursprung finden nahezu alle Virtualisierungsansätze in der Mainframe-Technik. Dort, etwa unter z/OS bei IBM, MPE bei HP, MVS bei FSC und anderen, ist es seit Jahrzehnten gang und gäbe, den Rechner in mehrere „Partitionen“ aufzuteilen, die jeweils auf einen Anwenderkreis (Datenbank, Abrechnungswesen, Dokumentation, Entwicklung) zugeschnitten sind. Bei IBM hat sich diese Vorgehensweise über die Midrange-Systeme (iSeries, einst AS/400) bis in die Unix-Server unter AIX fortgepflanzt. Dort bieten mehrere Schichten wie Virtual I/O (VIO) und Logical Partitions (Lpar) eine Menge Spielraum und erlauben den Betrieb mehrerer Betriebssysteminstanzen von AIX oder Linux nebeneinander.

In die hardwarenahe Kategorie „vollständige Virtualisierung“ ordnen sich unter anderem die Produkte von Microsoft und VMware ein. Technisch gesehen präsentiert die Virtualisierungssoftware jedem Gastsystem eine angepasste Hardware. Jeder Gast sowie der eigentliche Virtualisierer benötigen eigene Treiber. Die Virtualisierungsschicht gaukelt dem Gastsystem eine immer gleiche Peripherie vor. Lediglich deren Zugriff auf den Prozessor und den Hauptspeicher reicht sie direkt an die physische Hardware durch. Alle anderen Geräte sind „emuliert“, was immer etwas Leistung kostet. Um den Schwund zu minimieren, bieten Virtualisierer für die Gastsysteme zusätzliche Hardwaretreiber und Werkzeuge an.

Trotzdem muss man bei VMwares GSX und Microsofts Virtual Server von einem Performanceverlust zwischen 15 und 25 % ausgehen, wobei VMwares GSX, inzwischen durch den freien VMware Server abgelöst, bisher bei Leistungsvergleichen vorne lag. VMwares ESX Server arbeitet noch effektiver, da er direkt die Hardware des Wirts nutzt und kein zusätzliches Betriebssystem benötigt.

Microsoft bietet seinen Virtual Server derzeit in Version 2005 R2 an. Er braucht Windows 2003 Server als Grundlage. Die Release 2 bringt gegenüber der ersten Version hauptsächlich Änderungen im Bereich der Wirts- und Gastsystem-Cluster mit. Offiziell unterstützt der Virtual Server nur Windows als Gastsystem. Die grundsätzliche Lauffähigkeit von Linux und OS/2 ist jedoch mehrfach bestätigt. 2006 will Microsoft eine Weiterentwicklung namens „v.Next“ herausbringen, die vor allem die im Kasten „Unterstützung von unten“ angesprochenen Virtualisierungstechniken der Prozessoren nutzen soll. Allerdings hat Microsoft weder für R2 noch für v.Next 64-Bit-Betriebssysteme als Gast vorgesehen. Erst beim Longhorn Server soll 2009 oder 2010 ein Hypervisor zur Virtualisierung dabei sein, der wie Xen oder VMware ESX direkt die Hardware nutzt. Derzeit steht Microsofts Virtual Server im direkten Wettbewerb mit VMwares (GSX) Server - beide sind in erster Linie für Test- und Entwicklung sowie für kleinere Produktivumgebungen gedacht. Näheres zum neuen VMware Server im folgende Artikel auf Seite 70.

VMware ESX ist das High-End-Produkt im x86-Umfeld und bietet den größten Funktionsumfang am Markt. Durch die hohe Zuverlässigkeit und Leistungsfähigkeit ist es außerdem eines der wenigen Virtualisierungsprodukte, die für unternehmenskritische Installationen in Frage kommen. Als Konfigurationsbasis dient die Service Console, die derzeit unter Red Hat 7.2 läuft (mit ESX 3.0 unter Red Hat ES 3) und als Schnittstelle zwischen virtuellen Maschinen und Hypervisor fungiert.

Im Gegensatz zu VMware Server (GSX) und Microsoft Virtual Server ist beim ESX Server das Spektrum der geeigneten Hardware deutlich schmaler, da er im Kernel eigene Treiber nutzt und keine herkömmlichen von Windows oder Linux verwenden kann. Dafür bleibt die Virtualisierungsschicht, bestehend aus Hypervisor und Virtual Machine Monitor, schlank und kann eine hohe Leistung und Zuverlässigkeit bieten. Derzeit bietet VMware die Version 2.5.2 am Markt und Version 3.0 im Rahmen einer öffentlichen Betaphase an. ESX 3.0 soll noch in diesem Halbjahr erhältlich sein. Nur zusammen mit dem Virtual Center, das zeitgleich in einer neuen Version herauskommen soll, lässt sich über VMotion die Migration aktiver Gastsysteme zwischen ESX Servern realisieren.

Ein Vertreter der Paravirtualisierung hat in den letzten Monaten einen enormen Bekanntheitsgrad erreicht: Xen. Die Entwicklung des Open-Source-Projekts begann vor einigen Jahren an der University of Cambridge (England) mit dem Ziel, eine performante Form der Virtualisierung zu entwickeln.

Im Gegensatz zur vollständigen Virtualisierung bedarf es bei der Paravirtualisierung einer Anpassung der Gast-Betriebssysteme. Nur so können sie direkt auf die vom Virtual Machine Monitor (VMM) bereitgestellten Ressourcen zugreifen. Die darunter liegende physische Hardware verbirgt der Paravirtualisierer und braucht sie deshalb nur einmal zu virtualisieren. Hypervisor und Gastsysteme nutzen immer die gleichen Treiber. Der Hypervisor von Xen (VMM) erlaubt es, die Hardwareressourcen dynamisch den Gastsystemen zuzuteilen. Benutzerschnittstellen der Gastbetriebssysteme sowie alle sonstigen Daten (Betriebssystem, Programme etc.) mit Ausnahme des Kernel bleiben unverändert.

Weitere Produkte und Details finden Sie in der aktuellen Print-Ausgabe. Außerdem einen Artikel zu Virtuozzo und zur Betaversion von VMWare Server.

Mehr Infos

iX-TRACT

  • Mit Hilfe der Virtualisierungtechnik lassen sich mehrere, gegeneinander abgeschottete Anwendungsumgebungen auf einer Plattformn betreiben.
  • Je nach Grad der Hardwareabstraktion können komplette Umgebungen samt Betriebssystem auf einer dafür nicht konzipierten Hardware laufen.
  • Virtualisierungstechniken können die Nutzung der Ressourcen effektiv verbessern.
  • Für den RZ-Betrieb liefern Virtualisierer lastabhängige dynamische Zuteilungsmethoden für CPUs, Speicher und Ein-/Ausgabe.
  • Spezielle Lösungen bieten zusätzliche Cluster- und Hochverfügbarkeitstechniken.

(rh)