AutoGPT: KI-Agenten beginnen, auf GPT-4-Basis autonom in der Welt zu handeln

Das Verschmelzen großer Sprachmodelle mit interaktiven Agenten führt zu Interaktionsmustern, die glaubwürdige Simulationen menschlichen Verhaltens ermöglichen.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 56 Kommentare lesen

KI Midjourney | Bearbeitung: c't

Lesezeit: 14 Min.
Von
  • Silke Hahn
Inhaltsverzeichnis

Auf den ersten Blick schaut alles niedlich aus: eine Kleinstadt als Computersimulation. In interaktiven Puppenhäusern im Stile von The Sims interagieren 25 KI-Agenten in natürlicher Sprache untereinander in einer abgeschirmten Umgebung (Sandbox). Ein Agent möchte eine Valentinstagsparty ausrichten, und zwei Tage lang verbreiten seine Kumpels die Einladungen. Alle koordinieren sich so, dass sie zur rechten Zeit bei der Party erscheinen.

Mehr zu ChatGPT und KI-Textgeneratoren

Allerdings bewegen keine Menschen die Figuren, diese bewegen sich selbst und treffen unaufgefordert Entscheidungen. Fast möchte man sagen, "autonom". Denn eine Agentenstruktur erweitert hier die Fähigkeiten großer Sprachmodelle, eine vollständige Aufzeichnung sämtlicher Erfahrungen des handelnden "Agenten" zu speichern. All dies geschieht in natürlicher Sprache, wie auch wir Menschen sie zur Verständigung und zur Interaktion mit unserer Umwelt einsetzen.

Das Setting entspringt keinem Kindergeburtstag, sondern einem wissenschaftlichen Experiment zu den Fähigkeiten moderner Künstlicher Intelligenz (KI). Der darüber verfasste Forschungsbericht ("Generative Agents: Interactive Simulacra of Human Behavior") beantwortet teils die Frage, inwieweit heutige KI-Systeme schon in der Lage sind, menschliches Verhalten nachzuahmen. Die Agenten gehen Tätigkeiten nach, die an menschliches Tun erinnern: Sie wachen auf, bereiten Frühstück zu, begeben sich zur Arbeit. Malen, schreiben, bilden sich "Meinungen", nehmen einander wahr und stoßen Gespräche an.