iX 12/2018
S. 46
Titel
Maschinelles Lernen I
Aufmacherbild

Maschinelles Lernen: Grundlagen und Beispiele

Gut mitgedacht

Leistungsfähige Hardware und die Cloud eröffnen dem maschinellen Lernen ungeahnte Möglichkeiten. Profitieren können davon fast alle Branchen.

Der Begriff „Artificial Intelligence“ fiel laut verschiedenen Webquellen erstmals 1954 auf einer wissenschaftlichen Konferenz in Dartmouth, Massachusetts. Eine konkrete Definition lieferte im Jahr 1966 der Wissenschaftler Marvin Minsky, der als einer der Gründungsväter der KI gilt: „Künstliche Intelligenz liegt dann vor, wenn Maschinen Dinge tun, für deren Ausführung man beim Menschen Intelligenz unterstellt“ (siehe ix.de/ix1812046).

Das ist natürlich recht vage, und folglich geht es bei den Einordnungen munter durcheinander. Eine wesentliche Unterscheidung lässt sich jedoch festhalten, nämlich die zwischen schwacher KI (weak AI, auch narrow AI genannt) und starker KI (strong AI). Während narrow AI sich auf definierte Gebiete beschränkt, kann strong AI „menschlich“ denken. Schwache KI lässt sich nur für bestimmte Aufgaben optimieren und anwenden. Sie erledigt ihren jeweiligen Job algorithmisch etwa mithilfe neuronaler Netze so, wie Menschen es tun würden, erkennt also beispielsweise Bild und Sprache. Denken kann sie hingegen nicht. Ein Beispiel hierfür ist IBMs Deep Blue: Die Engine besiegte Großmeister im Schach, lieferte jedoch nur wenige Erkenntnisse über menschliche Kognition.

Starke KI hingegen konzentriert sich nicht auf spezielle Aufgabengebiete, sie soll menschlich denken und agieren. Allerdings existieren solche Systeme bislang nur in der Theorie. Bei allen derzeit bekannten Installationen, denen man so etwas wie Intelligenz zubilligt, handelt es sich höchstens um solche mit schwacher KI.

Maschinelles Lernen gilt als eines der ältesten Gebiete der KI. Es soll IT-Systeme in die Lage versetzen, auf Basis von Daten und Algorithmen Muster und Gesetzmäßigkeiten zu erkennen und Lösungen zu entwickeln. So kann künstliches Wissen aus Erfahrungen entstehen. Die gewonnenen Erkenntnisse sind in der Regel allgemeiner Art und daher für neue Einsatzfelder oder für die Analyse bisher unbekannter Informationen verwendbar (siehe ix.de/ix1812046).

Ganz so einfach wie sich KI eingrenzen lässt, verhält es sich beim Machine Learning leider nicht. Hier gibt es unterschiedliche Erklärungsversuche und verschiedene Unterarten, Verfahren und Algorithmen. Über das maschinelle Lernen versucht man, in Datenmengen Gesetzmäßigkeiten und Zusammenhänge (lineare oder nichtlineare) zu erkennen.

Lazy Learning ergänzt die zu analysierenden Daten (grüne Linie); Eager Learning berechnet das Modell (rote Gerade) stets neu (Abb. 1). Quelle: Ertel 2016 [3]

Beim Lazy Learning (faules Lernen, auch speicherbasiertes Lernen oder Memory-based Learning genannt) passiert in der Lernphase außer dem Ablegen der Daten nicht viel. Der Speicher mit Trainingsdaten dient dauerhaft der Klassifikation oder Approximation (Annäherung). Lokale Annäherung bedeutet, dass eine Kurve nicht komplett neu berechnet wird, wenn neue Punkte hinzukommen, sondern nur der betroffene Teil. Als Beispiel kann die in Abbildung 1 dargestellte Lawinenprognose dienen, die einmal täglich erstellt wird. Eine der verbreitetsten Lazy-Learning-Methoden ist die k-Nearest-Neighbor-Methode (KNN) (siehe Kasten „Nachbarschaftshilfe“).