Aufgefahren

„Technik und Wissenschaft helfen uns, die Probleme zu lösen, die wir ohne sie nicht hätten.“ Dieser Satz trifft ganz besonders auf die IT zu, auch in Bezug auf den Umweltschutz.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen
Lesezeit: 15 Min.
Von
  • Manousos Markoutsakis
Inhaltsverzeichnis

Insbesondere der Einsatz von Hochleistungsrechnern zur numerischen Lösung von Problemstellungen, die ohne Hilfsmittel praktisch unlösbar sind, hat in den letzten Jahren zu vielen Erfolgen geführt. Nicht nur ließen sich zentrale Fragen in Wissenschaft, Wirtschaft und öffentlichem Leben überhaupt erst bearbeiten, nun kommt auch ein weiterer Aspekt ins Spiel: Mit Simulationen und High Performance Computing (HPC) lassen sich zudem Probleme auf umweltschonendere Art und Weise lösen. Doch damit nicht genug. Da die heute eingesetzten HPC-Rechner selbst keine Unschuldslämmer in Sachen Stromverbrauch sind, hat auch hier der Trend eingesetzt, sie verstärkt auf bessere Energieeffizienz auszurichten. Die dabei entwickelten Techniken wiederum haben ihren Weg in andere „grüne“ Disziplinen wie die Photovoltaik gefunden.

In der Automobilindustrie etwa basierte die Entwicklung von neuen Fahrzeugen traditionell auf Experimenten und realen Prototypen. Die Simulation hatte anfangs nur einen unterstützenden Charakter. Nicht nur der Bau der Prototypen auf Basis der Vorgängerprodukte war sehr kosten-, material- und damit energieintensiv, auch die Belastung durch den entstehenden Industrieschrott war nicht unerheblich. Das Gleiche gilt für die Entwicklung etwa von Industrieturbinen oder Düsenantrieben: hier war der Materialaufwand bei realen Versuchen ebenfalls immens.

Mehr Infos

Vor allem der Kosten- und Zeitdruck sowie die Erhöhung der Sicherheitsstandards haben zu der heute gängigen Methode des digitalen Prototyps geführt. Dabei greift man möglichst in den frühen Phasen der Produktentwicklung auf digitale Prototypen zurück, denn hier entstehen die höchsten Kosten. Zugleich erzeugt die Simulation eine strukturiertere Wissensbasis für reale Versuche. Dadurch lassen sich früh Fehler im Design erkennen und vermeiden. Das verringert nicht nur die Anzahl der benötigten realen Prototypen, sondern erspart zudem materialaufwendige Korrekturen in späteren Phasen der Produktentwicklung oder gar unerwartete Rückrufaktionen während der Serienphase. Nicht wenige Automobilhersteller haben ganze Pkw-Serien zu einem extrem hohen Grad auf Basis von CAE (Computer Aided Engineering) und Simulation entwickelt. Der Trend zum virtuellen Prototypen wird sich künftig noch verstärken, insbesondere in allen Industrien, die große, komplexe Produkte entwickeln, deren reale Prototypen ausgesprochen kostenintensiv sind.

Ein prominentes Beispiel für den Nutzen der Simulation ist der Windkanal. Noch immer ist der reale Windkanal ein unverzichtbares Instrument in der Automobil-, Luft- und Raumfahrtindustrie, das aerodynamische Eigenschaften neuer Formen überprüft. Die Kosten und der Materialaufwand des realen Windkanals übersteigen diejenigen eines HPC-Rechners um den Faktor fünf bis zehn.

In einigen Disziplinen liefert der Windkanal noch heute genauere Ergebnisse. Zudem lassen sich die realen Formmodelle mitunter schneller präparieren als die entsprechenden Simulationsmodelle. Dennoch hat die computergestützte Strömungsmechanik - die sogenannte Computational Fluid Dynamics (CFD) - neben der Materialschonung noch einen entscheidenden Vorteil: Sie kann dem Ingenieur tiefere Einsicht und eine detailliertere Visualisierung der zugrunde liegenden physikalischen Prozesse geben. Oft kommt sie heute zusammen mit dem Windkanal zum Einsatz, zum Teil, um die Experimente zu kalibrieren.

Darüber hinaus schafft CFD Möglichkeiten, die reale Experimente kaum bieten. Ein Beispiel liefert das französische Institut CERFACS (European Centre for Research and Advanced Training in Scientific Computation). Es hat das komplexe Problem der Helikopter-Turbinenzündung untersucht. Das CERFACS hat die gesamte Verbrennungsraumgeometrie mit allen Details ohne Vereinfachungen sowie alle strömungsmechanischen, thermischen, akustischen und chemischen Reaktionen im Modell berücksichtigt. Hierfür haben die Forscher die selbst entwickelte CFD-Applikation AVBP genutzt und erweitert.

Der Zugang zu derart komplexen Problemen erfordert ausgesprochen leistungsfähige Rechner. In diesem Fall lief die AVBP-Software auf einem Parallelrechner mit 4096 Prozessoren. Das Programm konnte dadurch 4078-mal schneller laufen als auf einem einzelnen Prozessor. Optimierte CFD-Codes werden zukünftig noch mehr parallele Prozessoren für eine Rechnung nutzen. Erkenntnisse aus diesem Forschungsprojekt fließen in alle Richtungen: nicht nur in den Turbinenbau, sondern auch in die CFD-Solver-Entwicklung, die Parallelität und Effizienz von HPC-Hardware. Die sind vor allem auch deshalb wichtig, da die Erkenntnisse über Energieeffizienz, Verbrauch und Rußentstehung bei Pkw-Motoren mit denselben Prinzipien und HPC-Werkzeugen gewonnen werden. CFD bietet darüber hinaus tiefe Erkenntnisse in überraschend vielen Disziplinen wie thermischer Absicherung, thermischem Komfort, Motorenumströmung und externer Aerodynamik.

Seit der Einführung gesetzlicher Sicherheitsvorschriften bezüglich des Aufprallverhaltens von Pkws hat sich die Nutzung von HPC-Servern und HPC-Applikationen als unentbehrliche Methode etabliert, kosten- und zeiteffektiv neue Fahrzeuge auf Crash-Sicherheit zu optimieren. Wenn ein Autohersteller jeden Tag Hunderte virtuelle Modelle „gegen die Wand fährt“, wäre das mit realen Prototypen praktisch kaum zu bewältigen. Immerhin kostet ein reales Unfallmodell je nach Detaillierungsgrad etwa 200 000 bis 500 000 Euro. Der Zeitaufwand für die Herstellung des realen Prototyps ist eine weitere Hürde.

Physikalische Feinheiten wie die Varianz von Blechdicken oder Festigkeit von Schweiß- und Klebepunkten der Karosserie decken sogenannte stochastische Simulationen sehr effektiv ab, bei denen man ein bestimmtes Crash-Problem, etwa den Frontal-Crash, nicht einmal, sondern mehrmals (beispielsweise 100-mal) immer mit leicht veränderten Anfangsbedingungen berechnet. Die resultierende Ergebnisverteilung zeigt nicht nur, wie das Crash-Verhalten von den variierten Parametern abhängt, sondern macht auch deutlich, wie robust das Crash-Verhalten des betrachteten Fahrzeugdesigns gegenüber real existierenden Schwankungen im Herstellungsprozess ist. Produktqualität und Sicherheit steigen mit solchen Ergebnissen immens.

HPC hat in praktisch allen Lebensbereichen Einzug gefunden, oft verbunden mit einer geringeren Belastung von Mensch und Umwelt als bei traditionellen Methoden. So erspart die Analyse seismischer Daten bei der Exploration neuer Ölreserven eine Menge Bohrungen. Zudem nutzt man Reservoir-Simulationen auf HPC-Rechnern dazu, die Erdschichten und Sedimente auch nach dem Ausschöpfen von Gas- und Ölreserven geologisch stabil zu halten. Molekulare Simulationen dagegen dienen der Erforschung und Entwicklung von neuen Arzneimitteln, während 3D-Simulationen den Gebäudebau und die Stadtplanung unter physikalischen und ästhetischen Gesichtpunkten optimieren helfen.

HPC hat inzwischen viele Bereiche der Forschung und Entwicklung stimuliert; der Trend der nahen Zukunft wird die weitere Verbreitung von HPC-Methoden in kleineren Organisationen und Firmen sowie das Angehen kleinerer Problemstellungen sein. Dies folgt letztlich aus der höheren Benutzerfreundlichkeit und den niedrigeren Kosten, die die HPC-Umgebungen (Server und Applikationen) in den letzten Jahren erreicht haben.

Während HPC-Cluster in den Bereichen, in denen sie eingesetzt werden, die Grenzen verschieben, stoßen sie selbst an neue - weniger die der heute installierbaren Rechenleistung als die des Stromverbrauchs und der Kühlung. Nicht nur, dass der Kostenaspekt hier zu Buche schlägt, inzwischen ist die Wärmeentwicklung in den Rechnern und Mikroprozessoren der limitierende Faktor bei der Weiterentwicklung neuer Prozessoren und Serverarchitekturen.

Das in der IT existierende sogenannte Moore’sche Gesetz besagt, dass sich die Transistorzahl und Rechenleistung von Mikroprozessoren alle 18 bis 24 Monate verdoppeln. Bildete diese Regel noch bis zum Jahre 2003 die Realität sehr genau ab, trifft das heute nicht mehr zu. Denn nach dem Moore’schen Gesetz wären wir bei einem Prozessortakt von 10 GHz angekommen. Tatsächlich ist er aber von 2003 bis heute nur unwesentlich gestiegen. Der Grund hierfür ist die extrem hohe Leistungsdichte, die in den Mikroprozessoren inzwischen herrscht. Ein Beispiel: Hatte Intels Pentium-Prozessor noch mit 14 Watt Verbrauch eine Oberflächen-Leistungsdichte (Watt/cm2) ähnlich der einer heißen Herdplatte, kommt ein Itanium2-Prozessor mit 130 Watt Verbrauch und entsprechender Leistungsdichte einem Kernreaktor nahe. Diese Limitierung in den konventionellen CMOS-Techniken und -Materialien (Complementary Metal Oxide Semiconductor) erschwert es, die Prozessoren höher zu takten.

Der Stromverbrauch der heutigen Prozessoren ufert nicht nur im Kleinen aus, beim Einzelprozessor, sondern auch im Großen, das heißt in der Summe aller Prozessoren, wodurch immense Mengen an CO2 freigesetzt werden. Dataquest und Virginia Tech haben geschätzt, dass im Jahre 1992 weltweit 87 Millionen CPUs installiert waren, die zusammen einen Spitzen-Stromverbrauch von 160 MW (Megawatt = 1 Million Watt) hatten. 2001 waren es bereits 500 Millionen CPUs mit 9000 MW Verbrauch und 2006 1,3 Milliarden CPUs mit 87 400 MW - ein fast exponentielles Wachstum. Zum Vergleich: Ein typisches Kraftwerk kann 300 MW liefern. Da verwundert es nicht, dass neue Strom sparende Techniken mehr als notwendig sind.

Ein weiterer Aspekt ist die Langlebigkeit der Geräte: Jeder weiß, dass Geräte, die heiß werden, weniger lang leben. Eine Daumenregel aus der Elektrotechnik besagt zum Beispiel, dass die Erwärmung um 5 Grad Celsius die Lebenszeit eines Kondensators halbiert. Ein Kondensator, der bei 50 Grad Celsius arbeitet, hat im Mittel eine etwa 30 mal kürzere Lebenserwartung als ein baugleicher Kondensator, der bei 25 Grad Umgebungstemperatur sein Werk verrichtet.

Eine weitere globale Regel der Elektrotechnik, die „Arrhenius-Gleichung“, besagt, dass die Erwärmung um 10 Grad Celsius die Fehlerrate eines Systems verdoppelt. Diese Regel wird ernsthaft bei der Auslegung von komplexen IT-Systemen zugrunde gelegt. Dabei stellt sich die Frage, wie man also die Energieeffizienz eines Computers erfassen soll. An einem Ansatz arbeitet momentan die SPEC (Standard Performance Evaluation Corporation). Mit dem Benchmark Specpower entwickelt sie einen Maßstab und zugleich ein Messinstrument für die Energieeffizienz von Servern. Dabei greift sie auf bestehende Performance-Benchmarks zurück und kombiniert sie mit den neu zu entwickelnden Energieverbrauchmaßstäben.

Auch andere Industrie-Initiativen beschäftigen sich inzwischen mit der Frage der Energieeffizienz primär auf der Ebene von Servern und Rechenzentren, darunter das „Green Grid“ und ECMA (European Computer Manufacturers Association). Das japanische Energy Conservation Center befasst sich ebenfalls mit Techniken zur Eingrenzung der globalen Erwärmung.

Eine energieeffizientere IT braucht vor allem neue Wege, und das auf mehreren Ebenen. Einige davon werden bereits beschritten. Auf Applikationsebene etwa will man Anwendungen, die die bestehenden Hardwareressourcen und Architekturen besser ausnutzen. Im HPC-Umfeld ist Code-Parallelisierung und hohe Skalierung schon immer das Ziel gewesen. Nicht nur bei kleineren Servern wird sicherlich die Verbesserung des Multithreading und die Anpassung an Multi-Core-Prozessoren folgen. Bei Serverinstallationen für Datenbanken, OLTP- (Online Transaction Processing) und CRM-Anwendungen (Customer Relationship Management) hat sich Hardware-Virtualisierung als effektive Methode bewährt, um Ressourcen einzusparen.

Auf Systemebene verstärkt man den Fokus auf ein balanciertes Systemdesign. Das bedeutet, dass ein Server die gegebene Leistung der CPU nur bei einer optimierten Anbindung an den Hauptspeicher und das I/O-Subsystem optimal nutzen kann. Dann erst kann auch die Applikation die höchste „Sustained Performance“ bringen. Ein Weg, das zu erreichen, besteht darin, auf extrem viele niedrig getaktete Prozessoren (unter 1 GHz) zurückzugreifen, die wenig Strom aufnehmen, mit direkter Anbindung an den Arbeitsspeicher parallel geschaltet sind und im Verbund einen dicht gepackten, stromeffizienten und hochperformanten Server ergeben. Nicht umsonst führt der derzeit schnellste Rechner der Top500-Liste zugleich die Green500-Liste an.

In der Chip-Entwicklung gibt es immense Anstrengungen, die Limitierungen traditioneller CMOS-Technologien zu überwinden. Ein wesentlicher Trend der nächsten Jahre wird das Design von Multi-Core-Prozessoren sein. Das hat mehrere Gründe: Die Entwicklung eines neuen Server-Prozessors ist teuer, typischerweise sind 1000 bis 2000 Ingenieursjahre erforderlich. Ein Weg, Kosten zu verringern, ist die Entwicklung von modularen Chip-Designs, deren Komponenten sich später immer wieder einsetzen lassen. Die Robustheit des integrierten Schaltkreises (ICs) bei Einsatz dieser modularen Chip-Komponenten ist ein entscheidender Aspekt bei der Chip-Entwicklung nach dieser Methode.

Ein weiterer Grund für Multi-Core ist Leistungssteigerung durch höhere Integration innerhalb eines Chips. Da das Moore’sche Gesetz nicht mehr für den Einzelprozessorkern gilt, versucht man zumindest die akkumulierte Leistung des Chips - jetzt mit mehreren Kernen bestückt - zu steigern. Es ist eine Ökonomie der höheren Integration. Manch einer spricht schon von einem „Moore’schen Gesetz“ der Anzahl der Cores pro Chip. Ob das so eintritt, wird sich zeigen.

Ein weiterer technischer Ansatz besteht in der Entwicklung dreidimensionaler CMOS-Strukturen. Sie wurden erstmals von Sharp im Jahre 1998 für den Einsatz in Mobiltelefonen eingeführt. Inzwischen gibt es sowohl etablierte Player des Halbleitermarktes als auch Startups, die verschiedene 3D-Techniken beisteuern. Das Ziel des 3D-Designs ist die höhere Integration, Effizienz und Dichte auf möglichst vielen Ebenen: Transistoren, Execution Units, Prozessoren, Mainboard und so weiter.

Die 3D-Techniken liefern Auswege aus den Sackgassen der hohen Leistungsdichten des 2D-Designs und den Limitierungen in der Memory-Bandbreite bei den 2D-Multi-Core-Chips. Man schätzt, dass sich dadurch die Speicherbandbreite auf das Tausendfache steigern lässt. Eine der technischen Herausforderungen, 3D-Chips zur Reife zu bringen, wird die thermische Stabilität, also die Kühlung sein. Hierzu entwickelt man spezielle Materialien, sogenannte TIMs (Thermal Interface Materials), die Wärme effektiv abführen. Es ist noch nicht klar, ob Luftkühlung im Zusammenspiel mit TIMs oder Flüssigkeitskühlung mit TIMs die optimale Lösung für 3D-Chips sein wird. So kann eine TIM-Schicht mit üblicher Luftkühlung bis zu 50 Watt/cm2 abführen, mehrere TIM-Schichten und ein großer Kühlkörper lassen bis zu 130 Watt/cm2 zu. Ein sogenannter Si-Microchannel-Wasserkühler kann sogar die bei 400-500 Watt/cm2 entstehende Wärme konstant ableiten.

Nanotechnik befasst sich generell mit den Eigenschaften der Materie bei Abständen zwischen einem und 100 Nanometer. Sie verspricht neue Möglichkeiten in der Produktion von Mikroprozessoren, die über jene der heute eingesetzten optischen Lithografie hinausgehen.

Neue Nanotechniken jedoch finden Anwendung auch in Bereichen, die über die IT hinausgehen. Eine ist die günstige Herstellung von Solarzellen auf einer flexiblen Polyamid-Folie. Der Ausgangspunkt der Überlegungen sind sogenannte CIGS-Solarzellen (Copper Indium Gallium Selenide), die auf dem Halbleiterverbundstoff Cu-In-Ga-Se2 basieren, Licht extrem effizient absorbieren und Elektronen freigeben. Zusätzlich zu der p-dotierten Absorptionsschicht bekommen die CIGS-Solarzellen eine zweite, n-dotierte Halbleiterschicht (zum Beispiel CdS oder ZnS). Zusammen ergeben sie einen Sperrschicht-Feldeffekt-Transistor (FET), der eine elektrische Spannung erzeugen kann.

Die Schichten brauchen jedoch ein Trägersubstrat aus Glas, Plastik oder einem ähnlichen Material. Dünne Plastikfolien lassen sich jedoch nur unter Zuhilfenahme der Nanotechnik mit den CIGS-Schichten verbinden. Dabei nutzt man den Effekt, dass sich der Schmelzpunkt von vielen Festkörpern wie Gold oder Halbleitern drastisch reduziert, sobald die Festkörperproben Nanodimensionen erreichen. Dadurch kann man Halbleiternanokristalle, geschmolzen bei niedriger Temperatur, auf eine Plastikfolie aufsprühen, ohne diese zu zerstören. Nachdem die Halbleiter rekristallisiert sind, verbleibt ein homogener Halbleiterfilm auf der Plastikfolie. Damit ist eine kostengünstige Herstellung von dünnen und effizienten Solarzellen möglich.

Manousos Markoutsakis
arbeitet im Bereich Deep Computing Industrial bei IBM.

Weitere Artikel zum Thema "IT und Klimaschutz" finden Sie in iX 8/2007 auf Seite 48 und 54. (sun)