Per Blaupause überprüfen: Wie sicher sind KI-Systeme in Autos?

Ein neues BSI-Projekt mit Partnern soll erforschen, wie man die Sicherheit von KI-Systemen in Autos bewerten kann.

In Pocket speichern vorlesen Druckansicht 10 Kommentare lesen
Künstliche Intelligenz, KI

(Bild: Gerd Altmann, gemeinfrei)

Lesezeit: 2 Min.
Von
  • Ute Roos

Gemeinsam mit dem TÜViT und dem Technologieunternehmen ZF hat das Bundesamt für Sicherheit in der Informationstechnik ein neues Projekt gestartet, das Erkenntnisse liefern soll, wie man die IT-Sicherheit von KI-Systemen in Autos "nach allgemein anerkannten Kriterien" testen kann. Mittelfristig sollen aus den Ergebnissen der Studie Prüfkriterien für KI-Systeme entwickelt werden, die in eine modulare technische Richtlinie münden. Die Richtlinie wiederum kann zur Entwicklung künftiger Sicherheitsüberprüfungen für Autos und internationale Bemühungen zur Standardisierung beitragen.

Voraussetzung für das optimale Schützen der KI-Systeme sei es, zu wissen, wie Angreifer vorgehen, sagt Projektleiter Dr. Georg Schneider des AI Lab Saarbrücken von ZF. Daher würde man im Labor Angriffe simulieren und die Reaktion von KI-Systemen analysieren. Vor allem sogenannte Adversarial Attacks auf eine aktuelle KI-basierte Verkehrszeichenerkennung würden in verschiedenen Varianten untersucht.

Bei diesen Angriffen handelt es sich um Manipulationen von optischen Signalen, die von den KI-Systemen dann falsch interpretiert werden und auf die sie dann mit nicht gewünschten Operationen reagieren. Im Straßenverkehr hieße das etwa, dass ein manipuliertes Tempo-60-Schild als Tempo-120-Schild gelesen werden könnte.

Damit man von den Vorteilen der KI-Systeme im Bereich Mobilität profitieren kann, ist ein sicherer Einsatz zwingend. Bislang fehlen aber sowohl Werkzeuge, mit denen sich die Risiken überprüfen lassen, als auch Konzepte und Methoden dafür, sagt die Leiterin der Abteilung Cyber-Sicherheit in der Digitalisierung und für elektronische Identitäten beim BSI, Dr. Silke Bargstädt-Franke. Die Komplexität der Anwendungsfälle auf Basis von Interaktionen zwischen klassischer Software, KI-Systemen und der physischen Umwelt erlaubten keine Entwicklung von Prüfmaßstäben auf theoretischer Basis, man müsse praktische Probleme im Betrieb erkennen, so Bargstädt-Franke.

Im Zentrum des Projekts steht nun die Erprobung und Weiterentwicklung von Anforderungen, Methoden und Werkzeugen. In zwei Folgeprojekten sollen dann gezielte Anwendungsfälle erprobt werden. Die dann als Projektziel angestrebte technische Richtlinie könnte beispielsweise bei internationalen Standardisierungsbemühungen im Rahmen des UNECE World Forum for Harmonization of Vehicle Regulations herangezogen werden.

(ur)