OpenAI ruft zum Helfen auf: Experten sollen Red-Teaming-Network unterstützen

Um die Sicherheit ihrer Modelle zu verbessern, bittet OpenAI Experten, sich dem Red-Teaming-Network anzuschließen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

(Bild: OpenAI)

Lesezeit: 2 Min.

OpenAI bittet Experten, sich dem Red-Teaming-Network anzuschließen. Bei der gesuchten Hilfe geht es um die Risikobewertung, die jeweilige Experten vornehmen sollen. Sie können aus der ganzen Welt stammen, konkrete Voraussetzungen zur Erfahrung mit KI-Systemen und Großen Sprachmodellen gibt es nicht, stattdessen eine Liste von gesuchten Berufen und Professionen: Biologen, Physiker, Soziologen, Recht, Bildung und weitere. "Wir suchen Experten aus verschiedenen Bereichen, die mit uns zusammenarbeiten, um unsere KI-Modelle zu bewerten und zu evaluieren", heißt es im Aufruf.

Mit dem Begriff Red-Teaming will OpenAI eine Palette von Risikobewertungen für KI-Systeme einschließen. Dazu gehören qualitative Fähigkeiten beim Entdecken, Stress-Tests und automatisierte Nutzungsfälle. Auch Microsoft hat ein solches Team für beispielsweise Bing. Es gibt bereits ein bestehendes Team aus Experten für iterative Deployment-Prozesse. Dieses soll nun schon früher in die Entwicklung integriert und fester eingebunden werden. OpenAI schreibt: "Wir sehen diese Arbeit als Ergänzung zu extern festgelegten Praktiken von etwa Regierungen, wie beispielsweise Prüfungen durch Dritte."

Wer jetzt hofft, besonders früh auf alle neuen Modelle und Funktionen bei OpenAI zugreifen zu können, wenn er in das Team aufgenommen wird, der irrt. Nicht jeder wird mit allen Bereichen in Berührung kommen, heißt es weiter. Manche Experten werden etwa nur 5 bis 10 Stunden im Jahr gebraucht werden. Das Red-Teaming-Team soll neben anderen Kontroll-Teams wie dem Research-Access-Programm und den Open-Source-Evaluationen stehen.

"Dieses Netzwerk bietet eine einzigartige Gelegenheit, die Entwicklung sichererer KI-Technologien und -richtlinien sowie den Impact, den KI auf die Art und Weise haben wird, wie wir leben, arbeiten und interagieren, zu gestalten." Eine "Kompensation" gibt es nicht. Außerdem verweist OpenAI auf Auswahlkriterien für Teilnehmer, die Interessenkonflikte vermeiden sollen.

Bewerbungen nimmt OpenAI über ein Bewerbungsformular an. Der abschließende Satz erinnert an ein Drohszenario aus Filmen und Büchern: "Begleiten Sie uns bei dieser Mission, eine sichere AGI aufzubauen, die der Menschheit nützt."

(emw)