KI-generierte Bilder: Amnesty International in der Kritik

Die Menschenrechtsorganisation verwendete von künstlicher Intelligenz erstellte Bilder für eine Kampagne in sozialen Netzen. Nach Kritik wurden sie gelöscht.

In Pocket speichern vorlesen Druckansicht 37 Kommentare lesen
KI-generiertes Bild einer von Sicherheitskräften abgeführten Frau in Kolumbien

KI-Bild von kolumbianischen Protesten

(Bild: Amnesty International)

Lesezeit: 3 Min.
Von
  • Frank Schräer

Amnesty International hat kürzlich einen Bericht über Menschenrechtsverletzungen der kolumbianischen Polizei veröffentlicht und diesen in sozialen Netzen beworben. Dafür sind stilisierte Bilder verwendet worden, die per Software mit Methoden künstlicher Intelligenz erzeugt wurden. Daraufhin hagelte es Kritik und die Organisation hat reagiert. Die Bilder sind wieder entfernt worden.

Hintergrund sind die Unruhen in Kolumbien 2021, als eine Steuerreform der Regierung zu massiven Protesten führte, auf die Sicherheitskräfte gewaltsam reagierten. Zudem sollen zahlreiche Menschen von Polizei und Militär verschleppt und misshandelt worden sein. Das hat Amnesty International in einem Bericht aufgearbeitet, auf den etwa bei Twitter und in einer Instagram-Story mit Bildern hingewiesen wurde.

c't Fotografie 3/24

Dafür wurden keine echten Bilder verwendet, die Menschenrechtsorganisation hat sie sich von künstlicher Intelligenz erstellen lassen. Darauf wurde zum einen per Bildunterschrift hingewiesen ("Illustrations produced by artificial intelligence"), aber ist bei genauem Hinsehen auch relativ einfach zu erkennen. So wurde eine Frau mit Flagge in Polizeigewahrsam gezeigt, aber es war keine kolumbianische Flagge. Die Farben stimmen, aber die drei Streifen sind in der falschen Reihenfolge.

Fotojournalisten und Medienwissenschaftler warnten Amnesty International daraufhin, dass die Nutzung von KI-Bildern die Arbeit der Organisation untergraben und Verschwörungstheorien nähren könnte, wie The Guardian berichtet. Insbesondere Fotografen fühlen sich vom Vorgehen der Organisation verhöhnt, würden sie sich doch den Gefahren aussetzen, Bilder inmitten solcher gewaltsamen Proteste zu machen.

Amnesty International erklärt, dass sie in früheren Berichten reale Fotos verwendet, aber in diesem Fall auf KI-Bilder zurückgegriffen haben, um abgebildete Personen vor eventueller staatlicher Verfolgung zu schützen. KI-Bilder werden von einer entsprechenden Software aus verschiedenen, von Menschen gemachten Fotos zusammengesetzt und zu einem neuen Bild anhand eines vorgegebenen Themas generiert. Das wiederum wirft Fragen zum Urheberrecht auf, denn die KI nennt die ursprünglichen Quellen nicht.

Gleichwohl hat Amnesty International die Bilder nun aus den sozialen Netzen entfernt und sich entschuldigt. Das norwegische Twitter-Konto der Organisation weist dabei abermals auf den Personenschutz hin und erklärt auch, dass die kolumbianischen Sicherheitskräfte während der Proteste teilweise die Stromversorgung in betroffenen Gebieten unterbrochen habe. Die Dunkelheit hätte es Fotografen schwer gemacht.

Amnesty International selbst beschäftige sich mit den negativen Konsequenzen der Nutzung künstlicher Intelligenz, einschließlich des Verbreitens von Falschinformationen. Die Organisation müsse vorsichtiger sein bei der Verwendung dieser Technologien, obwohl sie in diesem Fall keinen Schaden anrichten könne.

(fds)