Machine Learning: Google verbietet Nutzung der Cloudplattform Colab für Deepfake

Googles browserbasierter Dienst zum Erstellen von Machine-Learning-Modellen schließt laut FAQ die Nutzung seiner Ressourcen für Deepfake aus.

In Pocket speichern vorlesen Druckansicht

(Bild: Haris Mm/Shutterstock.com)

Lesezeit: 4 Min.
Von
  • Silke Hahn
Inhaltsverzeichnis

Ohne gesonderte Mitteilung hat Google in seinem Cloud-basierten Dienst Colaboratory (kurz: Colab) die Nutzung der Plattform zum Erzeugen von Deepfake untersagt. Das Unternehmen schließt neuerdings das Erstellen von Deepfakes in seinen Regeln als unrechtmäßige Nutzung aus, wie aus einer Auflistung in den FAQ hervorgeht. Google Colab sei demzufolge nur für interaktive Projekte zu nutzen – das Cracken von Passwörtern, DoS-Angriffe, Kryptomining und eine Reihe weiterer potenziell missbräuchlicher Einsatzszenarien sind explizit untersagt.

In diese Ausschlussliste hat Google nun auch Deepfakes eingereiht, das aber bislang nicht öffentlich kommentiert. Seit wann die Einschränkung greift, lässt sich daher nur durch archivierte Internetdaten erschließen. Auf Snapshots der Colab-FAQs bei archive.org von Mitte Mai waren Deepfakes noch nicht als "verbotene Nutzung" gelistet, zehn Tage später hingegen schon. Die Neuerung müsste demzufolge zwischen dem 15. und dem 24. Mai 2022 gegriffen haben.

Die Einschränkung war zunächst einigen Colab-Nutzern aufgefallen, die die Plattform mit der Distribution DeepFaceLab (DFL) zum Erstellen von Deepfakes genutzt hatten und die nun seit Kurzem Fehlermeldungen mit Verweis auf die FAQ erhalten, wenn sie auf der Plattform ihren Code zur Ausführung bringen wollen. Offenbar ist bislang nur DFL direkt von dem Bann betroffen, die Nutzung der Distribution FaceSwap scheint vorerst noch keine Fehlermeldung auszulösen. Beide Programme gehen als Forks auf eine umstrittene anonyme Codespende zurück, die Unbekannte 2017 auf Reddit gepostet hatten. DeepFaceLab gilt als das meistgenutzte Tool zum Erstellen von DeepFake, und die neue Einschränkung scheint gezielt gegen dieses Werkzeug gerichtet zu sein.

Screenshot der FAQ von Google Colab vom 31. Mai 2022: Deepfake ist neuerdings als verbotener Einsatzzweck gelistet.

(Bild: Research Google)

Nach Auftauchen des Warnhinweises lässt sich den Nutzern zufolge der Code allerdings weiterhin zur Ausführung bringen. Die Verwarnten erfahren dabei, dass das Ausführen dazu führen könne, dass sie Colab künftig nur noch eingeschränkt nutzen könnten. Dann steht es ihnen frei, den Code dennoch zur Ausführung zu bringen ("Continue anyway") oder die Aktion abzubrechen ("Cancel execution").

Warnhinweis an DFL-Nutzer, die Code zum Erstellen von Deepfakes auf Google Colab zur Ausführung bringen wollen

(Bild: Discord)

Colab (was für Colaboratory steht) ist eine Jupyter-Notebook-Implementierung für den Browser, die Google als gehosteten Cloud-Dienst anbietet. Es ermöglicht das Remote-Training von Machine-Learning-Projekten auf leistungsfähigeren GPUs (Grafikprozessoren), als den meisten Nutzern sonst zur Verfügung stünden. High-End-GPUs stehen auch bei Colab nicht der Allgemeinheit offen, ihre Nutzung hatte Google für User der kostenlosen Version in der Vergangenheit bereits eingeschränkt.

Die eigentliche Zielgruppe von Colab sind Studierende, Data Scientists und Forscher, die Nutzung ist kostenlos. Wie ein leitender Entwickler des Projekts FaceSwap gegenüber Unite.AI vermutete, sei der kostenlose Service wohl mittlerweile in beträchtlichem Umfang genutzt worden, was der ursprünglichen Intention – Forschung und Bildung zu fördern – zuwider laufe. Wie und wofür solche Tools am Ende zum Einsatz kämen, lasse sich nur schwer kontrollieren, und es sei traurig, dass seriöses Testen von Code durch solchen Missbrauch möglicherweise auch wieder mehr Einschränkungen unterliege. Forschung werde dadurch zunehmend zu einer Ressourcenfrage.

Es ist davon auszugehen, dass die Einschränkung einigen, die im großen Stil Deepfake in hoher Auflösung erstellt hatten, mangels verfügbarer Hardware und Ressourcen den Boden entzieht und der Pool an Fälschungen mit hochaufgelösten, detailreichen Gesichtern sich spürbar reduzieren dürfte. Da sich mit Colab vortrainierte Machine-Learning-Modelle nutzen lassen, ohne über einen expliziten Coding-Hintergrund oder hochwertige Hardware zu verfügen, war Googles Angebot für viele Deepfake-Projekte die erste Wahl und wurde wohl auch in Tutorials als zugänglichste Möglichkeit angepriesen. Anleitungen zum Erstellen von Deepfakes sind auch auf den Seiten von Colab Research weiterhin greifbar. So existiert dort ein Eintrag vom 26. September 2020 mit Hinweisen zum Erstellen von Deepfakes mit der First-Order-Model-Methode, verfasst von einem Data Scientist namens Jaume Clave.

Der Tech-Journalist Bill Toulas vom IT-Portal BleepingComputer hatte als einer der Ersten über den Deepfake-Bann bei Colab berichtet. Betroffene hatten sich zuvor via Discord ausgetauscht, wie bei Unite.AI nachzulesen ist.

(sih)