AI Act: Hart umkämpfter Schwellenwert könnte schon bald obsolet sein​

Nach der KI-Verordnung soll die zum Trainieren eines Modells wie GPT verwendete Rechenleistung herangezogen werden, um über höhere Auflagen zu entscheiden.​

In Pocket speichern vorlesen Druckansicht 27 Kommentare lesen

(Bild: incrediblephoto / Shutterstock.com)

Lesezeit: 3 Min.

Betreiber von Basismodellen wie GPT von OpenAI, Gemini von Google oder LLaMA von Meta müssen laut der am Mittwoch vom EU-Parlament beschlossenen Verordnung für Künstliche Intelligenz (KI) vorhersehbare systemische Risiken prüfen und gegebenenfalls abmildern. Es geht etwa um die Bereiche Gesundheit, Sicherheit, Grundrechte und Umwelt. Für "Foundation Models" mit allgemeinem Verwendungszweck und "hohem Wirkungsgrad" konnten die Abgeordneten besonders strengere Verpflichtungen durchzusetzen. Sie müssen etwa auch Tests mit gegnerischen Angriffen vornehmen, der EU-Kommission schwerwiegende Vorfälle melden und über ihre Energieeffizienz Bericht erstatten.

Als quantitativen Schwellenwert für die Einstufung solcher Modelle soll die Brüsseler Regierungsinstitution laut laut Artikel 51 des AI Acts unter anderem die zum Trainieren verwendete Rechenleistung heranziehen. Von einer hohen Wirksamkeit ist demnach vor allem auszugehen, wenn "die kumulierte Menge" der fürs Training verwendeten Berechnungen mehr als 10 hoch 25 (10^25) Gleitkomma-Operationen beträgt, gemessen in Floating Point Operations (Flops). Doch Dragoş Tudorache, parlamentarischer Ko-Berichterstatter für das KI-Gesetz, hat eingeräumt, dass diese Vorgabe schon bald hinfällig sein dürfte.

Bis die Regeln in rund 12 Monaten in Kraft treten, könnte es vier oder fünf große Basismodelle geben, die diese Schwelle überschreiten, erklärte der Verhandlungsführer gegenüber dem Portal Euractiv. Genauso möglich sei aber auch ein neuer Technologiesprung, der die Rechenanforderungen für leistungsstarke Foundation Models massiv senken werde. Aktuell müssten voraussichtlich nur OpenAI mit ChatGPT und Google mit Gemini die ganz hohen Auflagen erfüllen. Die für das Training des aktuellen OpenAI-Modells GPT-4 nötige Rechenleistung wird auf knapp über 10^25 Flops geschätzt. Für den Vorgänger GPT-3 soll ein Cluster mit rund 10^18 Flops eingesetzt worden sein. Zum Vergleich: Die Leistungsfähigkeit des Nvidia-Servers DGX H100, der speziell auf KI-Zwecke ausgerichtet ist, beträgt etwa 10^16 Flops.

Der Flops-Schwellenwert "verwechselt Rechenleistung mit Risiko", was zwei verschiedene Dinge seien, kritisierte Sandra Wachter, Professorin für Technologie und Regulierung am Oxford Internet Institute gegenüber Euractiv. Unabhängig von ihrer Größe steckten in diesen Modellen alle möglichen Risiken in Bezug auf Voreingenommenheit, Fehlinformationen, Datenschutz und Halluzinationen. Der Teil des KI-Gesetzes zu Basismodellen sei das Ergebnis massiver Lobbyarbeit auch von europäischen Akteuren wie Aleph Alpha und Mistral, ergänzte Merve Hickok, Präsidentin des Center for AI and Digital Policy. Parallel arbeiten Ingenieure im Silicon Valley mit Hochdruck schon allein aus Kostengründen daran, den immensen Rechenaufwand für das KI-Training zu reduzieren. Regulierungsausnahmen gelten generell für Open-Source-Modelle.

In Stein gemeißelt sind die 10^25 Flops nicht. In Erwägungsgrund 111 der Verordnung heißt es: "Dieser Schwellenwert sollte im Laufe der Zeit angepasst werden, um technologischen und industriellen Veränderungen, wie zum Beispiel algorithmischen Verbesserungen oder erhöhter Hardwareeffizienz, Rechnung zu tragen, und um Benchmarks und Indikatoren für die Modellfähigkeit ergänzt werden." Doch eine Überarbeitung dürfte nicht einfach werden, nachdem sich die Ko-Gesetzgeber nur unter enormen Anstrengungen überhaupt auf einen gemeinsamen Text einigen konnten. Laut einem Anhang soll die Kommission bei der Einstufung auch andere Kriterien berücksichtigen wie die Anzahl der Parameter des Modells, die Qualität oder Größe des Datensatzes, die Fähigkeit zum Erlernen neuer, unterschiedlicher Aufgaben und die Zahl der Nutzer.

(mki)