Google-KI-Forscher: KI lernt nur auswendig

François Chollet forscht seit Jahren für Google an Künstlicher Intelligenz. Er denkt, die Erwartungen an die Technologie sind viel zu hoch.

In Pocket speichern vorlesen Druckansicht 46 Kommentare lesen
Collage mit Blumen zum Thema Künstliche Intelligenz

KI ist von allgemeiner Intelligenz und Kreativität weit entfernt, meint François Chollet.

(Bild: Google)

Lesezeit: 4 Min.

Der französische KI-Experte François Chollet, der seit neun Jahren für Google arbeitet, äußert sich weiterhin sehr skeptisch zum Thema Künstliche Intelligenz. Es gebe zwar durchaus einen Markt für generative KI, momentan umfasse er jährlich etwa 4 Milliarden US-Dollar, dieses Jahr wohl 6 Milliarden, in drei Jahren 10 Milliarden. Allerdings seien innerhalb von zwei Jahren 90 Milliarden Dollar in diesen Bereich investiert worden. "Meiner Ansicht nach geht die Rechnung nicht auf", sagte Chollet der Neuen Zürcher Zeitung (NZZ).

François Chollet im Jahr 2020.

(Bild: Ramosset, Wikimedia, CC BY-SA 4.0)

Viele Nutzer zahlten für Sprach-KI-Abonnements, aber die Renditen seien klein, weil es teuer sei, KI-Modelle zu betreiben. Zudem herrsche unter den Anbietern große Konkurrenz. Die Investitionen seien um ein Tausendfaches zu hoch, diejenigen, die hauptsächlich KI nutzten – Schüler und Programmierer – brächten nicht viel ein. Auch komme Forschung an anderen Themen dabei zu kurz. "Sprach-KI saugt den Sauerstoff aus dem Raum, es bleibt nichts für andere Ideen", sagte Chollet.

Der Experte räumt dabei durchaus ein, dass die KI echte Fortschritte gemacht habe. Dank ihr könnten Computer Sprache sehr viel besser verarbeiten und Bilder erkennen als noch vor kurzem. Doch der Hype sei übertrieben. Es sei davon die Rede gewesen, "dass wir in ein, zwei Jahren übermenschliche künstliche Intelligenz (AGI) haben würden. Dass es bald keine Programmierer mehr brauche. Ich bin überzeugt davon, dass in fünf Jahren mehr Programmierer nötig sein werden als heute", vermutet Chollet.

Er glaubt auch nicht, dass Maschinen plötzlich ihre eigenen Ziele setzen und Menschen schaden, wie manch einer irrtümlich warne. In einem guten Szenario könne KI-Kunst ähnlich wie zur Erfindung der Fotografie für Innovationen der Kreativität in der Malerei sorgen. In einem schlechten würden Menschen nicht mehr lernen, selbst Bilder zu malen oder zu musizieren. "Wenn man mit KI arbeitet, steht zwischen dem Geist und dem Produkt immer ein Vermittler – das begrenzt die Möglichkeiten", sagte Chollet. "Wenn Künstler diese Grenzen nicht mehr überschreiten, stagniert die Kultur."

Damit knüpft Chollet an Aussagen an, die er vor vier Jahren in einem Fachaufsatz getroffen hatte. Seinerzeit schrieb er: "Wir können zwar Systeme entwickeln, die extrem gute Leistungen bei bestimmten Aufgaben zeigen, aber sie haben immer noch massive Einschränkungen. Sie sind instabil, datenhungrig, nicht in der Lage, Situationen zu verstehen, die leicht von ihren Trainingsdaten oder den Annahmen ihrer Entwickler abweichen, und nicht in der Lage, sich auf die Handhabung von neuartigen Aufgaben umzustellen."

Nun sagte Chollet im NZZ-Interview, Sprach-KI werde nicht näher an menschenähnliche oder allgemeine künstliche Intelligenz herankommen. Überzogene Erwartungen resultierten auch aus Testergebnissen, durch die es ausgesehen habe, als würde KI in Jura- und Mathe-Tests besser abschneiden als Menschen. In einer jüngst erschienenen Studie habe sich aber ergeben, dass diese Sprachmodelle lediglich die richtigen Antworten abspeichern. Wenn Mathematikaufgaben in der Substanz gleich blieben, aber umgestellt oder Zahlen ersetzt würden, verschlechterten sich die Ergebnisse der Sprach-KI um bis zu 80 Prozent. Damit KI allgemein intelligent wäre, müsse sie zuerst lernen, das richtige Programm zur Lösung eines Problems abzurufen.

Als Intelligenz beschreibt Chollet, sich an neue Situationen anzupassen, Dinge zu verstehen, die sie nie gesehen haben in einer Welt, die sich dauernd verändert. KI-Sprachmodelle hätten hingegen nur ein "Gedächtnis". "Sie haben das Internet abgespeichert, können Fakten und Muster abrufen. Aber sie verstehen Dinge nicht, die anders sind als das, was sie gelernt haben", sagte der KI-Forscher. Mit dem Ansatz der ungefähren Ähnlichkeit, nach dem jetzige KI funktioniere, sei echtes abstraktes Denken nicht möglich. Der Weg sei noch weit und dabei gebe es andere interessante Wege, die skaliert werden könnten, beispielsweise evolutionäre Algorithmen. "Wenn man Milliarden über Milliarden in diese Idee stecken würde, würde ziemlich sicher auch etwas Cooles entstehen."

(anw)