US-Behörde fragt: Wie kann sich KI Vertrauen erarbeiten?

Wie können sich Systeme mit "Künstlicher Intelligenz" Vertrauen erarbeiten? Welche Daten sind für Zertifizierungen erforderlich? Eine US-Behörde will es wissen.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen
Handschlag

(Bild: gemeinfrei)

Lesezeit: 2 Min.

Wie soll "Künstliche Intelligenz" (KI) überprüft werden? Diese Frage konsultiert die US-Behörde NTIA (National Telecommunications and Information Administration) jetzt öffentlich. Jedermann ist eingeladen, seine Vorschläge zu unterbreiten (AI Accountability Policy Request for Comment, Az. 230407-0093). Eingaben sind namentlich und werden veröffentlicht.

Die NTIA möchte Regeln für Audits, Assessments, Zertifizierungen und andere Verfahren ausarbeiten, die Vertrauen in KI-Systeme schaffen sollen. In der Konsultation widmet sich die Behörde drei Themenbereichen: Welcher Datenzugriff ist notwendig, um Audits und Assessments durchführen zu können? Welche Anreize können zu Verantwortlichkeit und Verlässlichkeit von KI führen? Und inwieweit unterscheiden sich die Antworten je nach Branche?

Für die Konsultation hat die NTIA detailliertere Fragen zu diesen Grundfragen ausgearbeitet, zu deren Beantwortung bis zehnten Juni sie interessierte Kreise einlädt. "Verantwortungsvolle KI-Systeme könnten enorme Vorteile bringen, aber nur, wenn wir die potenziellen Konsequenzen und schädlichen Auswirkungen angehen", sagte NTIA-Chef Alan Davidson am Dienstag, "Unsere Untersuchung wird in Regulierung zur Unterstützung von KI-Audits, Risiko- und Sicherheitseinschätzungen, Zertifizierungen und andere Werkzeuge einfließen, die Vertrauen in KI-Systeme schaffen können."

Die Bemühungen der NTIA gehen auf eine Initiative von US-Präsident Joe Biden zurück. Im Oktober hat das Weiße Haus einen Blueprint für eine Grundrechte-Charta zu Künstlicher Intelligenz veröffentlicht. Das Dokument hat keine unmittelbare Gesetzeskraft, soll aber Vorbildwirkung entfalten, und mag in Verfahren vor Regulierungsbehörden als Hinweis auf gegebene Sorgfalt und Transparenz gelten.

Die US-Normungsbehörde National Institute of Standards and Technology (NIST) hat bereits ein AI Risk Management Framework ausgearbeitet, dessen Einsatz freiwillig ist. Unternehmen und andere Organisationen können es für das Risikomanagement bei KI verwenden. Im Februar hat die US-Handelsbehörde FTC (Federal Trade Commission) vor Werbelügen mit Künstlicher Intelligenz gewarnt.

(ds)