Drei Fragen und Antworten: Bei KI kann es keine komplette Fairness geben

Fairness klingt nach einem weichen Konzept, lässt sich aber technisch umsetzen. Warum KI dabei nicht alle Menschen in Watte packen kann, klärt iX im Interview.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen

(Bild: iX)

Lesezeit: 4 Min.

Die größten Nebelkerzen im Bereich KI zünden Lobbyisten, Unternehmen und Politik gerade bei Datenschutz und Bias der Modelle – dabei dreht sich der AI Act insbesondere um die Sicherheit von KI-Systemen in Bezug auf uns Menschen. Dass das Thema in der öffentlichen Debatte bisher eher schlecht transportiert wird, zeigt ein Zitat vom Gesundheitsminister Karl Lauterbach, der KI-Systeme mit Heizungen vergleicht und sie "mit synthetischen Daten durchspülen" will. Wie Verzerrungen in KI-Systeme kommen, was das mit Daten auf sich hat und wie sich Fairness technisch umsetzen lässt, erklärt Boris Ruf, Data Scientist beim Versicherungsunternehmen Axa, im Interview.

KI soll fair und transparent sein und damit den Menschen nutzen. Wie kommen Vorurteile und Bias überhaupt in die Systeme?

Verzerrungen können sich entlang des ganzen Lebenszyklus einer KI-Anwendung einschleichen. Eine zentrale Rolle spielen natürlich die Trainingsdaten. Sie beschreiben in der Regel jene Welt, die modelliert werden soll. Fehlen Daten oder sind manche Gruppen unterrepräsentiert, kann das zu Bias führen. Manchmal wird allerdings bereits der Ist-Zustand als unfair wahrgenommen, etwa wenn sich soziale Ungleichheit gesellschaftlich verfestigt hat. Dann kann das Ziel sein, nicht den Status Quo zu reproduzieren, sondern diese Form von "Historical Bias" zu überkommen. Nicht zuletzt ist aber auch der Mensch, der das System einsetzt, eine mögliche Quelle von Verzerrungen. Zum Beispiel, indem er die Ausgabe des Systems auf seine Weise interpretiert, oder wenn die KI-Anwendung für Zwecke genutzt wird, für die sie gar nicht vorgesehen ist.

Die KI birgt ein enormes Potenzial, unser Leben zu bereichern. Damit dieses Potenzial ausgeschöpft werden kann, muss die Gesellschaft der Technologie vertrauen können. Deshalb ist es im Interesse aller Beteiligten, dass der Einsatz verantwortungsvoll erfolgt. Das betrifft Fairness, aber auch andere Bereiche wie Transparenz, Verlässlichkeit und Datenschutz.

Im Interview: Boris Ruf

ist Data Scientist bei AXA und Experte für KI-Fairness.

Fairness klingt oft nach einem weichen, schlecht abgrenzbaren Konzept. Wie lässt sich das technisch implementieren?

Tatsächlich gibt es sehr unterschiedliche Konzepte von Fairness, die sich aber in mathematische Formeln übersetzen lassen. Bekannte Definitionen sind zum Beispiel Demographic Parity oder Equalized Odds. Leider stehen einige Konzepte aber in direktem Konflikt, weshalb man nicht einfach eine Form von "kompletter Fairness" anstreben kann, die sämtliche Vorgaben gleichermaßen erfüllt. Neben der technischen Umsetzung besteht deshalb die große Herausforderung auch darin, für ein gegebenes KI-System festzulegen, was im konkreten Anwendungsfall fair wäre – und warum.

Wie effektiv lässt sich Bias in den immer größer werdenden KI-Systemen überhaupt bekämpfen?

Natürlich wird kein KI-System jemals komplett frei von Bias sein – ebenso wenig wie das im Übrigen herkömmliche Systeme sind. Schon aufgrund der unterschiedlichen, mitunter unvereinbaren Konzepte von Fairness wird man letztlich immer Kompromisse finden müssen. Trotzdem ist es für jeden Betreiber von KI-Systemen maßgeblich, diese Form von Einflüssen im System zu verstehen und bestmöglich zu kontrollieren.

Mehr Volumen und mehr Vielfalt in den Trainingsdaten erhöhen dabei zunächst einmal die Fähigkeit des KI-Modells zu generalisieren und damit die allgemeine Leistungsfähigkeit des Systems. Die Ursachen von Bias, die im Laufe des KI-Lebenszyklus auftreten können, werden dadurch allerdings nicht bekämpft. Mit Hinblick auf LLMs wie ChatGPT stellt sich die Fairness-Frage übrigens komplett neu. Die bisherige Forschung hat sich größtenteils auf Klassifizierungs- und Regressionsprobleme konzentriert, bei denen die Ausgabe eine Klasse oder ein Zahlenwert ist – Fairness für Sprachmodelle zu quantifizieren ist ziemliches Neuland.

Herr Ruf, vielen Dank für Ihre Antworten! In einem ausführlichen Artikel im iX Special zum Thema künstliche Intelligenz führt Boris Ruf die hier angeschnittenen Punkte weiter aus und zeigt, wie sich Bias technisch bekämpfen lässt.

In der Serie "Drei Fragen und Antworten" will die iX die heutigen Herausforderungen der IT auf den Punkt bringen – egal ob es sich um den Blick des Anwenders vorm PC, die Sicht des Managers oder den Alltag eines Administrators handelt. Haben Sie Anregungen aus Ihrer tagtäglichen Praxis oder der Ihrer Nutzer? Wessen Tipps zu welchem Thema würden Sie gerne kurz und knackig lesen? Dann schreiben Sie uns gerne oder hinterlassen Sie einen Kommentar im Forum.

(pst)