So fahnden Content-Scanner nach Missbrauchsbildern

Google, Facebook & Co. durchsuchen das Netz nach Bildern und Videos: Was und wie die großen US-Konzerne scannen – und was die EU plant.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 10 Kommentare lesen

(Bild: Composing | Quellen: Nichizhenova Elena, boonchuay1970, sasun Bughdaryan, WALL-E | stock.adobe.com)

Lesezeit: 20 Min.
Von
Inhaltsverzeichnis

Das Internet ist der Hauptumschlagplatz für pädokriminelle Inhalte. In Foren mit Hunderttausenden bis einigen Millionen Teilnehmern tauschen die Nutzer mehr oder weniger unbehelligt Fotos und Videos von schwerstem sexuellem Kindesmissbrauch, animieren sich gegenseitig zur Produktion von neuem Content und schulen Neulinge in Sachen Kontaktanbahnung und Verschleierung. Doch auch immer mehr Jugendliche und sogar Kinder machen sich strafbar, weil sie – teils aus Naivität und Geltungsdrang – zur Verbreitung beitragen.

Um die Verbreitung dieses Child Sexual Abuse Material (CSAM) im Internet einzudämmen, soll zum einen ein hohes Strafmaß abschreckend wirken. Seit Juli 2021 steht auf Besitz und Verbreitung von Kinderpornografie mindestens ein Jahr Freiheitsstrafe. Zum anderen soll die Wahrscheinlichkeit steigen, dass die Täter erwischt werden. Deshalb sehen viele Politiker und Kinderschutzorganisationen die Zukunft in einem flächendeckenden Einsatz von Bildvergleichs- und Bilderkennungssoftware, die CSAM nicht nur automatisiert erkennen, sondern auch melden soll.

In den USA gibt es dafür bereits eine Verpflichtung sowie ein Meldesystem, über das Verdachtsfälle international weitergeleitet werden, auch an deutsche Behörden. Die Europäische Union möchte ein eigenes System aufbauen. Weil die EU-Pläne explizit auch den Messenger- und Mailverkehr einbeziehen, könnte dies auf eine anlasslose Überwachung der gesamten digitalen Kommunikation hinauslaufen: also konkret auf eine Schwächung der Ende-zu-Ende-Verschlüsselung sowie abhängig von den eingesetzten Algorithmen auf eine wachsende Anzahl Unbescholtener, die aufgrund systembedingter Fehleinschätzung in den Fokus von Ermittlungen geraten.

Das war die Leseprobe unseres heise-Plus-Artikels "So fahnden Content-Scanner nach Missbrauchsbildern". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.