iX 5/2018
S. 88
Report
Künstliche Intelligenz
Aufmacherbild

In den Kinderschuhen: Eine Ethik für das Informationszeitalter

Neue Lebenspartner

Selbstfahrende Autos, autonome Roboter und selbstlernende Algorithmen – was noch vor nicht allzu langer Zeit Zukunftsvision war, ist heute Realität. Was aber dürfen die intelligenten Maschinen selbstständig entscheiden und wo sollte der Mensch ihnen Grenzen setzen?

Die konvergierenden Trends zu größerer Rechenleistung, mehr Daten, allgegenwärtigen Sensoren, stärkerer Vernetzung und intelligenteren analytischen Algorithmen ermöglichen Anwendungen und Einsichten, die bisher unmöglich waren. Das erzwingt auch eine Debatte über die passende Ethik fürs Big-Data- und KI-Zeitalter.

Dabei ist die Diskussion über ethische Fragen in Zusammenhang mit Informationstechnik, Robotern, maschinellem Lernen und künstlicher Intelligenz so alt wie diese Technologien selbst, nämlich mehrere Jahrzehnte. Doch scheiterten die Roboter und KI-Algorithmen der 80er-Jahre meist krachend daran, autonom komplexere Aufgaben als das Stapeln von Klötzchen zu lösen. Heute gibt es in Japan bereits automatisierte Assistenten, die selbstständig Aufgaben in der Altenpflege übernehmen und damit die Pflegelücken dieser schnell alternden Gesellschaft schließen.

Neue Wege des Denkens

Allenthalben breitet sich eine Unzahl intelligenter Endgeräte aus – vom Fitnesstracker bis zur Steuerung komplexer Werkzeugmaschinen, von den allgegenwärtigen Webcams bis zur intelligenten Straßenleuchte. Sie alle erzeugen und sammeln Daten, und Steuerungsinstanzen mit intelligenten Algorithmen leiten daraus Handlungsimpulse ab – Lampe ein oder aus beispielsweise. Ob die Datenmassen im Ergebnis Yotta- (eine 1 mit 24 Nullen, 1024 oder 100 Milliarden 10-TByte-Festplatten) oder Zettabytes (1021 Bytes) pro Jahr sind, ist im Grunde egal – beide Zahlendimensionen sind Normalsterblichen so fremd wie unvorstellbar.

Dazu kommen mehr Rechenpower, belegbar an den immer höheren Leistungen von Supercomputern, aber auch normalen Servern, und schließlich aufgrund dieser höheren Rechenpower mögliche bessere Algorithmen. Nur ein Beispiel: Neuronale Netze, ein wichtiger Typ lernfähiger Algorithmen, beliebt etwa bei der Mustererkennung, hatten früher eine einstellige Zahl von Ebenen. Heute ist ihre Ebenenzahl dreistellig und ein Ende ist nicht abzusehen. Je mehr Layer, desto differenzierter sind die Lern- und Erkennungsfähigkeiten eines solchen Algorithmus.

Immer wieder ist zu vernehmen, schon bald – in zwei bis drei Jahrzehnten spätestens – seien Computer oder Algorithmen möglich, die intelligenter sind als Menschen, eigenständig fähig, sich zu reproduzieren, und dann eventuell gar nicht mehr auf den Menschen angewiesen. Man bezeichnet diesen Moment in Anlehnung an Ray Kurzweil, den Chefentwickler von Google, als Singularität. Es gibt mit der von Google gesponserten Singularity University sogar eine wissenschaftliche Einrichtung, die explizit auf diesen Moment ausgerichtet ist. Sie verspricht ihren Schülern vollmundig: „Wir verstehen uns als Plattform, neue Wege des Denkens und der Innovation voranzutreiben, eine Startrampe für neue Unternehmen und gleichzeitig eine mächtige globale Gemeinschaft von Machern und Führern – alle mit dem erklärten Ziel, die größten Probleme der Menschheit zu lösen“ ([a], zu Quellen im Web siehe ix.de/ix1805088, Übersetzung durch die Autorin).

Doch längst nicht jeder sieht der heraufdämmernden Singularität ausschließlich begeistert entgegen. Mit der ethischen Dimension intelligenter Roboter und Algorithmen sowie der allgegenwärtigen Datenerfassung beschäftigt sich in Deutschland beispielsweise AlgorithmWatch [b], eine Initiative von Lorena Jaume-Palasí, Lorenz Matzat, Matthias Spielkamp und Katharina Anna Zweig. Ihr Ziel ist es, datengetriebene Prozesse, die Einfluss auf Mensch und Gesellschaft ausüben, zu durchleuchten und zu bewerten. Entstanden sind bisher diverse Arbeitspapiere zu Themen wie „Ethik und algorithmische Prozesse zur Entscheidungsfindung oder -vorbereitung“.

Algorithmisch gesteuerte Gesellschaft

Tatsächlich sieht es so aus, als würden vor der erhofften Lösung der wichtigsten Menschheitsprobleme via Datenverarbeitung zunächst jede Menge knifflige moralisch-ethisch-rechtliche Probleme entstehen. So ermöglicht das Internet Anbietern Vorgehensweisen, beispielsweise bei der Preisfestsetzung, die zwar auf den Märkten des Mittelalters üblich gewesen sein mögen, in den westlichen Marktwirtschaften aber seit Langem und wohlweislich durch Gesetze und Vorgaben erschwert werden, um mehr Gleichgewicht zwischen Anbietern und Kunden zu schaffen. Wo bleibt beim individuellen Echtzeit-Pricing, basierend auf algorithmischen Vermutungen über die jeweilige Zahlungsbereitschaft des potenziellen Käufers, die Möglichkeit, Preise wirksam zu vergleichen? Das Produkt, das bei Anbieter A gerade X Euro kostet, kann ja fünf Minuten später schon einen ganz anderen Preis haben. Hier verkehrt sich die angebliche Transparenz, die das Internet schafft, in ihr Gegenteil.