Zuverlässige KI: Absicherung künstlicher neuronaler Netze

Seite 2: Verlässlichkeit durch Unsicherheitsquantifizierung

Inhaltsverzeichnis

Der zweite technische Aspekt zur Absicherung einer KI ist die Bewertung der Verlässlichkeit. Man sollte annehmen, dass beispielsweise in der Bildverarbeitung ein System aufwendig trainierte Objekte als solche zuverlässig wiedererkennt. Dass die Zuverlässigkeit mitunter überschätzt wird, belegt ebenfalls Abbildung 1: Das KI-Modell klassifiziert das mit Rauschen versetzte Bild mit hoher Konfidenz falsch als Gibbon. Was Menschen ignorieren oder ihnen nicht auffällt, stört den Algorithmus dermaßen, dass er die eigentlich bekannten Objekte nicht mehr zuverlässig genug erkennt und sogar bei Fehlklassifikationen eine hohe Zuverlässigkeit für das scheinbar richtig erkannte Objekt ausgibt. Das wiegt User in falscher Sicherheit.

Technisch betrachtet ergeben sich die Fehler, weil die meisten Lernverfahren und damit die neuronalen Netze Punktschätzer sind. Sie können nur einen konkreten Zahlenwert ausgeben, aber nicht angeben, mit welcher Sicherheit dieser Wert gilt. Zwar lassen sich Konfidenzwerte wie in Abbildung 1 berechnen, die jedoch lediglich auf das Intervall [0, 1] normierte Ausgabewerte darstellen und somit keine statistisch gültige Bedeutung besitzen. Dass diese Ausgabewerte oft fälschlicherweise als Konfidenzwerte oder Wahrscheinlichkeiten bezeichnet werden, trägt zur vermittelten falschen Sicherheit bei.

Einen Ausweg bietet die Unsicherheitsquantifizierung, mit der sich das neuronale Netz selbst einschätzen und mitteilen kann, wenn es bei einer Ausgabe unsicher ist. Hierfür gibt es unterschiedliche Ansätze. Verbreitet ist das Ensemble-Verfahren, bei dem Data Scientists nicht nur ein Netz, sondern gleich mehrere Netze auf denselben Daten trainieren. Dabei achten sie darauf, dass die Netze hinreichend divers sind, also nicht dazu neigen, stets die gleichen Ergebnisse zu erzeugen. Alle Netze erzeugen eigene Ausgabewerte, aus denen man die Gesamtausgabe berechnet.

Zusätzlich kann man die Streuung oder Abweichung der einzelnen Ausgaben von der Gesamtausgabe als ein Maß für die Unsicherheit angeben: Je weniger die einzelnen Netze streuen, umso zuverlässiger ist die Gesamtausgabe. Dass dabei stets mehrere Netze parallel zu trainieren und auszuwerten sind, führt allerdings zu einem erheblich erhöhten Rechenaufwand.

Eine Alternative mit nur einem Netz bieten Bayes'sche neuronale Netze (BNN) [5]. Im Unterschied zu klassischen neuronalen Netzen repräsentieren nicht mehr einzelne Zahlenwerte die Gewichte auf den Kanten, die die Neuronen miteinander verbinden. Stattdessen ist jedes Gewicht eine Zufallsvariable (siehe Abbildung 3). Dadurch wird die Ausgabe des BNN ebenfalls zu einer Zufallsvariable, für die sich gängige statistische Kenngrößen wie Varianz, Entropie oder ein Prädiktionsintervall berechnen lassen.

Das linke Diagramm zeigt ein klassisches neuronales Netz, bei dem die Kantengewichte (blau) einfache Zahlenwerte darstellen. Beim BNN im rechten Diagramm sind die Gewichte Zufallsvariablen mit dazugehörigen Wahrscheinlichkeitsverteilungen (gelb) (Abb. 3).

Allerdings sind für das Training der BNN die für klassische Netze üblichen Trainingsalgorithmen wie Backpropagation nicht mehr ohne Weiteres nutzbar, sondern es sind Trainingsverfahren mit höherem Rechenaufwand erforderlich.

In den vergangenen Jahren hat die Conformal Prediction (CP, [6]) an Bedeutung gewonnen. Sie hat den Vorteil, verteilungsfrei zu sein: Es gibt keine Annahmen über die zugrundeliegende Datenverteilung oder das verwendete Lernverfahren. Daher lassen sich CPs auf fast jedes trainierte maschinelle Lernmodell anwenden, und sie bieten mathematisch strenge Garantien. Für ein Signifikanzniveau von fünf Prozent ist garantiert, dass das Verfahren in höchstens fünf Prozent der Fälle falsche Ausgaben erzeugt.

Die Ausgabe ist keine Punktschätzung mehr, sondern eine Menge. Im Falle einer Klassifikationsaufgabe gibt das neuronale Netz folglich keine einzelne Klasse mehr aus, sondern eine Menge infrage kommender Klassen. Je weniger Elemente die Menge enthält, desto sicherer ist sich das Netz.