Schlankheitskur

Zentralisierungstechniken sind leidgetrieben: Im ständigen Kampf gegen Sicherheitsrisiken und Produktivitätsstörungen sowie ökologische und Kostenprobleme beim Einsatz fetter Desktop-PCs können Unternehmen nicht gewinnen. Kein Wunder, dass sich Anbieter im Umfeld des Server Based Computing nicht über mangelndes Interesse beklagen können. Eine Statusbeschreibung.

In Pocket speichern vorlesen Druckansicht 27 Kommentare lesen
Lesezeit: 5 Min.
Von
  • Bernd Kretschmer

Gegen heutige vollständige („fette“) Desktop-PCs mit Benutzerschnittstelle, Verarbeitung und Plattenspeicher in einem Gerät positionieren sich immer mehr Lösungen, die Betriebssystem, Anwendungen oder Bildschirmdialoge von zentralen, leichter verwaltbaren und besser gesicherten Servern an Benutzer-Endgeräte liefern. So vielfältig wie die Lösungen sind die immer neuen Begriffe der Branche - je nach Sicht und Hersteller beispielsweise Thin Client Computing, Server Based Computing oder Workplace Optimization.

Dieser Artikel liefert nach einem Blick auf das Leid mit klassischen PCs Informationen über Techniken zum Zentralisieren von Plattenspeicher und Programmausführung aus Server- und Endgerätesicht. Ein Schwerpunkt liegt auf dem Ausführen von Betriebssystem und Anwendungen auf funktionsreduzierten PCs und Anzeigen zentral ausgeführter Anwendungen auf den Benutzer-Endgeräten.

Während es für die Produktivität der Mitarbeiter um das Bereitstellen von Anwendungen geht, sind viele Beschaffer noch den Hardwarekategorien realer PCs verhaftet. Um schlankere Lösungen bekannter zu machen, haben vor drei Jahren mehrere Hersteller das European Thin Client Forum (ETCF) gegründet und wollen ab 2007 ihre Öffentlichkeitsarbeit im Bitkom fortsetzen. In mitteleuropäischen Büros arbeiten laut Edwin Sternitzky, dem Pressesprecher dieses Industrieverbands, 90 % Sachbearbeiter („Task Worker“), die nur eine begrenzte Anzahl von Anwendungen benötigen, 9 % sogenannte „Power Worker“, die gelegentlich auch Anwendungen selbst einrichten wollen und 1 % „Performance Worker“, die einen leistungsstarken Rechner für grafisch anspruchsvolle Aufgaben wie CAD oder DTP nutzen.

Ein vollständiger („fetter“) Desktop-PC/Laptop im Netz mit Fernzugriff zur Administration (Abb. 1).

Ungeachtet dieses tatsächlichen Bedarfs dominiert an den Büro-Arbeitsplätzen lokales Computing mit vollständigen PCs: Anwender booten ihr Gerät - immer häufiger ihr Status-Notebook - von einer lokalen Festplatte, melden sich an einer lokalen oder zentralen Benutzerverwaltung an, führen lokale Anwendungsprogramme aus und speichern ihre Daten gemischt sowohl lokal als auch zentral.

In solchen Arbeitsumgebungen sind Rollout, Aktualisieren, Austauschen, Betreuen und Sichern sehr aufwendig. Zu den größten Herausforderungen im Betrieb gehören das Authentifizieren mobiler Benutzer, bei gemischtem lokalen und zentralen Speichern das Vermeiden von Versions-Chaos sowie das Sichern eines bunt gemischten „Zoos“ von Clients gegen alle Risiken.

Analysten räumen Thin-Client-Umgebungen deutliche Kostenvorteile gegenüber klassischen PCs ein (Abb. 3).

Wie Abbildung 3 zeigt, liegen die Gesamtkosten „fetter“ PCs in allen Studien deutlich über 5000 Euro pro Jahr, wobei laut Gartner 50 % auf Support und 40 % auf „aufgabenferne Benutzertätigkeiten“ entfallen. Besonders viele Risiken und eher doppelt so hohe Kosten birgt der zunehmende Einsatz mobiler Endgeräte, die Folgekosten des Verlusts mobiler Geräte und darauf gespeicherter sensibler Daten nicht gerechnet.

Für fast alle Probleme mit fetten PCs existieren Teillösungen: Im Schulungsbereich frieren Hard- oder Softwarelösungen einen Installationszustand ein. Änderungen durch Benutzer verschwinden mit dem Neustart des Rechners zum Beispiel durch Wächter- respektive Sheriff-Karten oder HD-Guard-Software. Im kommerziellen Umfeld schalten Administrationsprogramme aus der Ferne die Desktop-PCs ein und installieren, aktualisieren und bereinigen ohne Benutzereingriff den Inhalt der Desktop-Festplatten. Doch für viele Behörden und Unternehmen erfüllen diese Teillösungen nicht alle für sie entscheidenden Anforderungen.

Speicher und Programmausführung zentralisieren: Insbesondere größere Unternehmen und Behörden zentralisieren aus Sorge um die Sicherheit ihrer Daten das Desktop-Computing im Rechenzentrum, wo sich vieles besser managen lässt. Dazu gibt es im Wesentlichen zwei Konzepte.

Beim Zentralisieren des Speicherplatzes laden - oder neudeutsch „streamen“ - PCs ein Betriebssystem oder Programme statt von einer lokalen Festplatte ausschließlich oder teilweise von Speicherplatz im Rechenzentrum.

Zum Zentralisieren der Programmausführung trennt man Ablauf und Darstellung von Programmen: Zentrale Anwendungsserver liefern Bildschirm-, Sound- und Druckausgaben über ein Netz an lokale Endgeräte der Anwender und nehmen von ihnen Tastatur-, Maus- und Spracheingaben entgegen.

Fernladen von Betriebssystem und Anwendungen: Am besten lässt sich die Idee des Fernladens der ausführbaren Dateien von Betriebssystem und Anwendungen auf Endgeräte mit einem extrem verlängerten Kabel zwischen Controller und Festplatte veranschaulichen. Soft- und Hardwarelösungen gaukeln den PC-Plattentreibern für das Starten von zentralen Bootservern vor, sie könnten auf lokale Block-Geräte zugreifen. In Wirklichkeit stellen sie ihnen aber Daten von einem Speicher über das Netz zur Verfügung.

Ein plattenloser Rechner lädt Betriebssystem und Anwendungen über das Netz, führt diese aber lokal aus (Abb. 2)

Zentralisiert man den Speicherplatz für Betriebssysteme und Anwendungen, können plattenlose (diskless) PCs von dort booten und nach der Anmeldung an einer Benutzerverwaltung ihre Anwendungen laden. Sonst ändert sich für die PC-Benutzer nichts. Betriebssystem, Programme und Anwendungsdaten lagern sicher im Rechenzentrum und lassen sich hier leichter behüten und pflegen. Da plattenlose PCs ihre Programme lokal ausführen, können Anwender Multimedia und alle Schnittstellen wie gewohnt nutzen.

Der Aufwand für das „Rollout“ und die Pflege identischer plattenloser Rechner ist dabei unabhängig von deren Anzahl. Bei breitbandiger Netzstruktur verhalten sich Endgeräte so schnell wie mit lokalen Platten. Im Fall eines Defekts lassen sich Endgeräte im Null-Komma-Nichts ohne Installation vor Ort einfach austauschen. Anwender können beliebige PCs aus einem Pool nutzen und Teleworker ohne festen Büroraum an wechselnden Schreibtischen arbeiten.

Welche Anbieter mit welchen Produkten die unterschiedlichen Ansätze umsetzen, lesen Sie in der Printausgabe der iX.

Mehr Infos

iX-TRACT

  • Klassische PCs am Arbeitsplatz bereiten vor allem in Sachen Sicherheit, Verwaltbarkeit und Energiebilanz Schwierigkeiten.
  • Zentralisieren des Arbeitsplatz-Computing verspricht unter anderem höhere Sicherheit, leichten Sofort-Austausch der Endgeräte, ortsunabhängiges Arbeiten von Anwendern und eine erhebliche Senkung der Gesamtkosten.
  • Die Verwaltung der zentralen Komponenten soll Rollout, wechselnde Einsatzszenarien und leichte Pflege ermöglichen.
  • Virtualisierung nutzt die vorhandene Hardware besser aus, indem auf einem physikalischen Rechner mehrere virtuelle PCs für mehrere Anwender laufen.
Mehr Infos

Eingesetzte Protokolle

Zur Kommunikation zwischen Anwendungsserver und Benutzer-Endgerät setzen Unternehmen verschiedene Protokolle ein. Bandbreite und Latenz sind dabei entscheidend für das Benutzererlebnis.

X11 ist das traditionelle Übertragungsprotokoll aus der Unix-Welt.

NoMachine NX erhöht die Effizienz von X11 durch Zwischenspeichern, Komprimieren und Eliminieren unnötiger Dialoge zwischen Anwendungsserver und Endgerät (sogenannte „Roundtrips“).

Microsofts Remote Desktop Protocol (RDP) dient zur Kommunikation der Remote Desktop Connection (RDC) von XP Professional und Vista Business Edition sowie der Terminaldienste von Windows 2000/2003-Servern mit Endgeräten.

Independent Computing Architecture (ICA) wickelt die Kommunikation der Citrix-Terminalserver mit den Endgeräten ab.

Suns Adaptive Internet Protocol (AIP) (früher Tarantella AIP) vermittelt die Kommunikation von Unix-, Linux und Windows-Servern über spezielle Kommunikationsserver mit Endgeräten.

Suns Appliance Link Protocol (ALP) arbeitet bei Sun Rays.

VNC Virtual Network von AT&T Laboratories Cambridge, ehemals ORL Olivetti Research Laboratory, ist bei der plattformübergreifenden Fernwartung beliebt.

Mit Einschränkungen eignet sich auch das Hypertext Transfer Protocol (HTTP).

Mehr Infos

(avr)