Vertrauenswürdige KI: Aleph Alpha baut Faktenprüfung in eigenes Modell ein

AtMan soll Ergebnisse von KI-Systemen durch Quellenangaben nachvollziehbar machen. KI-generierte Informationen ließen sich so auf faktische Korrektheit prüfen.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen

(Bild: Olivier Le Moal/Shutterstock.com)

Lesezeit: 5 Min.
Von
  • Silke Hahn
  • mit Material der dpa
Inhaltsverzeichnis

Halluzinationen und das Konfabulieren plausibel klingender Aussagen, die jedoch faktisch falsch sind, gelten als grundlegendes Manko großer KI-Sprachmodelle. Sie machen deren Einsatz in Bereichen, in denen es um exakte Informationen und sicherheitskritische Informationen geht, heikel. Das Heidelberger KI-Start-up Aleph Alpha hat nach eigenen Angaben erstmals einen Meilenstein auf dem Weg zu inhaltlich korrekter, erklärbarer und vertrauenswürdiger Künstlicher Intelligenz (KI) erreicht.

Eine nun verfügbare Erweiterung des hauseigenen Sprachmodells Luminous sei in der Lage, Zusammenhänge in Informationen und faktische Korrektheit auf Basis von gesicherten Fakten nachzuvollziehen, erklärte das Unternehmen am Donnerstag. Gleichzeitig sei das System in der Lage, darzustellen, welche Textstellen in einer Quelle die generierte Antwort verursacht haben oder im Widerspruch dazu stehen.

Sollten sich die Angaben von Aleph Alpha in unabhängigen Tests bestätigen, wäre dem Heidelberger Unternehmen ein Schritt gelungen, eine systematische Schwäche von Textautomaten wie ChatGPT abzufedern. Bislang ist oft unklar, auf welche Weise und wieso KI-Systeme wie ChatGPT bestimmte Antworten liefern. Eine Validierung der Antworten erfordert weitere Recherche der Nutzer – sowie die Fähigkeit, an glaubwürdig klingenden Informationen auch jenseits der eigenen Fachkenntnisse zu zweifeln. Die Modelle sind in der Regel nicht fähig, auf ihre Quellen zu verweisen oder Unsicherheitsgrade einer gelieferten Auskunft anzugeben. Anwender beklagen, dass große Sprachmodelle (LLM) häufig falsche Fakten liefern. Das Thema der erklärbaren KI (Explainable AI, kurz XAI) beschäftigt daher seit geraumer Zeit Forschungsteams, die KI transparenter machen wollen. Die neu eingeführte Funktion basiert auf Aleph Alphas neuesten Forschungsergebnissen, die Anfang 2023 unter dem Namen AtMan in Zusammenarbeit mit der TU Darmstadt und dem DFKI akademisch veröffentlicht wurden.

AtMan steht für die darin vorgestellte Methode der "Attention Manipulation", also der Steuerung von Aufmerksamkeit innerhalb von Transformermodellen. Die Bezeichnung dürfte auch eine Anspielung sein auf die grundlegende Forschungsarbeit von Google Research, in der Transformermodelle erstmals der Öffentlichkeit vorgestellt wurden ("Attention is all you need", Vortrag und Paper von der Fachkonferenz NeurIPS 2017). Ein Tweet zur Veröffentlichung von AtMan fand international Beachtung unter Forschern, die sich mit KI-Sicherheit befassen, und das AtMan-Paper wurde unter anderem von Timnit Gebrus Forschungsinstitut DAIR einer breiteren Öffentlichkeit vorgestellt.

Die Transparenz und Nachvollziehbarkeit KI-generierter Inhalte werde "den Einsatz generativer KI für kritische Aufgaben im Rechts-, Gesundheits- und Bankenwesen ermöglichen", sagte Firmengründer und Geschäftsführer Jonas Andrulis. Aleph Alpha gilt mit seinem KI-Projekt als ein Hoffnungsträger der deutschen Softwareindustrie. Im Gegensatz zu den großen US-Wettbewerbern OpenAI, Microsoft und Google ist das baden-württembergische Unternehmen nicht auf private Endkunden ausgelegt, sondern bietet sein Modell primär über Partnerunternehmen und Kooperationen an. Luminous ist indirekt über Kunden von Aleph Alpha erreichbar, etwa über das Bürgerinformationssystem Lumi der Stadt Heidelberg oder über Angebote von Partnern wie LanguageTool.org.

Luminous ist kein reines Sprachmodell, sondern beherrscht multimodale Eingaben in Wort und Bild in beliebiger Kombination. Laut Aleph Alpha gilt die neue Funktion auch für das Erklären von Bildinhalten, wie eine kurze Demo veranschaulicht:

Mit Blick auf die bevorstehenden Regelungen durch den EU AI Act werden auf Anwender und Entwicklerinnen generativer KI-Systeme strengere Auflagen zukommen. Wenngleich der Entwurf noch nicht final ausformuliert ist, zeichnet sich bereits ab, dass die künftigen Spielregeln für KI in der EU auf Transparenz, Erklärbarkeit und Datenschutz Wert legen werden – generative KI-Systeme sollen künftig laut Gesetzgeber stärkeren Auflagen zur KI-Sicherheit unterliegen. Andernfalls werde KI-Einsatz sich auf unkritische und spielerische Bereiche beschränken müssen.

Wer fachlich tiefer einsteigen möchte, findet das Forschungspaper zu AtMan auf arXiv.org ("AtMan: Understanding Transformer Predictions Through Memory-Efficient Attention Manipulation"). Interessant ist in dem Zusammenhang ein weiterer Hinweis: So bringt ein von Stephen Wolfram und dessen Team erstelltes Plug-in für ChatGPT das chronisch fabulierende KI-System von OpenAI dazu, faktisch korrektere Auskünfte zu liefern, korrekt zu rechnen und aktuelle Daten aus dem Internet in Betracht zu ziehen. Statistische KI-Systeme, die auf das Vervollständigen von Texten nach Regeln der Mustererkennung trainiert sind (wie GPT-4 oder Luminous) können offenbar auch von dem Ergänzen symbolischer Ansätze (wie Wolframs auf Mathematik und Wissenschaft getrimmtem KI-Modell) profitieren. Mehr dazu lässt sich einem Blogeintag Stephen Wolframs entnehmen. Es bleibt spannend, welche Ansätze sich durchsetzen und künftige Anwendungen prägen werden.

Wer die Modellfamilie Luminous ausprobieren möchte, kann sich auf der Website von Aleph Alpha einen Testzugang einrichten – die neue Funktion "AtMan & Explain" lässt sich im Playground testen. Die Nutzung ist wahlweise über eine Schnittstelle (API) oder über das interaktive User-Interface im Playground möglich. Zum Ausprobieren steht nach der Anmeldung ein Freiguthaben zur Verfügung, Start-ups und wissenschaftliche Einrichtungen können sich um zusätzliche Free Credits bewerben. Wie das Unternehmen betont, werden die Nutzerdaten im Playground weder gespeichert noch weiter verarbeitet, und Aleph Alpha verfügt zudem über ein eigenes Rechenzentrum in Bayern.

(sih)