KI-Navigator #1: Künstliche Intelligenz ist weit mehr als bloße Technologie

Die Kolumne der DOAG KI Community startet mit Erkenntnissen über die Gemeinsamkeiten von KI-Modellen und Huskies (oder Menschen).

In Pocket speichern vorlesen Druckansicht 14 Kommentare lesen

(Bild: CoreDESIGN/Shutterstock)

Lesezeit: 4 Min.
Von
  • Oliver Szymanski

Willkommen zur ersten Ausgabe der KI-Navigator-Kolumne der DOAG KI Community!

Kolumne KI-Navigator – Oliver Szymanski

Oliver Szymanski, Vorstand KI DOAG e.V., hat sich als IT Consultant und iJUG Gründungsmitglied in der technischen und in der Community-Arbeit einen Namen gemacht. Beim IT-Systemhaus der Bundesagentur für Arbeit treibt er innovative Lösungen voran und widmet sich in seiner Freizeit seinen Huskies, schreibt Romane und programmiert gerne - auch gerne mit KIs.

Je intensiver ich mich mit KI beschäftige, desto mehr lerne ich über mich selbst, meine Mitmenschen und meine Huskies (manche Unwissende sagen Hunde, doch wer Huskies kennt, wird das sicher nicht verwechseln).

In dieser aufstrebenden Ära der KI werden die wahren Herausforderungen weniger von technischer Natur als von Selbsterkenntnis geprägt. Der Fortschritt der KI ermöglicht nicht nur einen tiefen Einblick in unsere eigenen Denk- und Entscheidungsprozesse, sondern auch in die Dynamiken unserer Beziehungen zu unseren Mitmenschen und sogar zu unseren tierischen Begleitern – in meinem Fall den Huskies.

KI Navigator: Die neue Kolumne der DOAG KI Community

Die DOAG KI Community (KIC) wurde im Jahr 2023 als Teil von DOAG e.V. gegründet, mit dem Ziel, eine Plattform für den Austausch von Wissen, Erfahrungen und Best Practices im Bereich Künstliche Intelligenz (KI) zu schaffen. Die DOAG ist insbesondere auf Entwicklerinnen und Entwickler ausgerichtet und befasst sich mit allen bedeutenden Themen der Softwareentwicklung wie Cloud Native, Infrastruktur und Softwarearchitektur. Der Verein veranstaltet zahlreiche Events, darunter die CloudLand und gemeinsam mit dem Interessenverbund deutschsprachiger Java User Groups iJUG die JavaLand-Konferenzen. Die KIC bietet eine Plattform für Diskussionen und Kooperationen und veranstaltet Events zu den aktuellen KI-Themen.

Im Rahmen der KIC wurde die KI-Navigator-Konferenz ins Leben gerufen, die im November 2023 in Zusammenarbeit mit der de'ge'pol und Heise erfolgreich debütierte. Diese Konferenz richtet ihren Fokus auf die praktische Anwendung von KI in den Bereichen IT, Wirtschaft und Gesellschaft und brachte Experten aus diesen unterschiedlichen Disziplinen zusammen.

Als Vorstand KI der DOAG bin ich stolz, gemeinsam mit unseren engagierten Mitgliedern und Partnern diese Plattform ins Leben gerufen zu haben, die sich als Bindeglied zwischen den faszinierenden Welten der KI, IT, Wirtschaft und Gesellschaft etabliert.

Nach dem Erfolg der KI-Navigator-Konferenz eröffnet die KIC nun ein weiteres Kapitel mit der Einführung der KI-Navigator-Kolumne. In einer fortlaufenden Serie teilen Experten und Expertinnen aus der KI-Welt Einblicke, Perspektiven und Innovationen. Wir besprechen, wie Künstliche Intelligenz unser tägliches Leben, die Wirtschaft und die Gesellschaft nachhaltig gestaltet und laden dazu ein, mit uns auf diese faszinierende Reise durch das neue Zeitalter der KI zu gehen, um Realität und Zukunft zu erkunden.

Das Training eines LLM (Large Language Model) gleicht in gewisser Weise dem jahrelangen Training meiner Huskies, dem Prägen von Aktion und Reaktion und somit dem Stärken ihres Vertrauens auf ihre Instinkte oder in anderen Bereichen dem Überwinden der Instinkte. Training formt quasi die Neuronen. Damit lernen sie, dass es gut ist, sich draußen zu erleichtern und schlecht, es drinnen zu tun.

Dazu kommt das Langzeitgedächtnis, das speichert, wo in der Küche die Leckerchen versteckt sind und zu welchen Uhrzeiten die Huskies üblicherweise das Futter erhalten. Ähnlich wird ein LLM durch Training mit Daten versorgt und hat zusätzlich meist in Form von einem Vector Store Zugriff auf ein Langzeitgedächtnis, das auf einem Fundus von Informationen basiert.

Daneben gibt es das Kurzzeitgedächtnis, also beispielsweise das Wissen, dass ich gerade Leckerchen aus der Küche geholt habe. Ähnlich verarbeitet ein LLM den aktuellen Kontext des Gesprächs, um situative und zeitnahe Antworten zu generieren.

Wie ein LLM bei einer Anfrage arbeitet, kann man ebenso in einem Dialog zwischen zwei Menschen erleben. Je nach Worten des Gegenübers versuchen wir den Kontext zu verstehen. Bezieht er sich auf direkt davor Gesprochenes (Kurzzeitgedächtnis), gehen wir darauf ein. Ansonsten schlagen wir im Langzeitgedächtnis nach und reagieren anhand der gefundenen Informationen. Dabei fällt die Reaktion abhängig von unseren Neuronenverbindungen unterschiedlich aus. Menschen können bei gleicher Faktenlage unterschiedliche Reaktionen zeigen.

Wie Training, Gedächtnisse und Kontext zusammenspielen kann man ebenfalls erleben, wenn man einem Husky "Sitz" sagt und auf eine Reaktion hofft. Daheim, mit dem Wissen, dass große Leckerchenvorräte in der Küche sind und ich gerade etwas in der Tasche habe, kommt der Husky dem Vorschlag nach (was Vorschläge und Kommandos sind, wird häufig unterschiedlich interpretiert). Wenn im Wald andere Voraussetzungen und Ablenkung drumherum ist, verhält sich der Husky durchaus kritischer dem Menschen gegenüber und unterbreitet einen Gegenvorschlag.

Da LLMs ebenso auf vielfältige Einflüsse reagieren, darf man sie nicht mit deterministischen Algorithmen verwechseln. Sie können ähnlich wie ein Husky bei wechselnden Umweltfaktoren unterschiedliche Antworten liefern. Dabei spielen Neuronen, Langzeit- und Kurzzeitgedächtnis eine Schlüsselrolle. Hinzu kommt der Hyperparameter der Temperatur, der dem KI-Modell mehr oder weniger Freiheit erlaubt. Die Neuronen in einem LLM verhalten sich ähnlich wie die Verbindungen im Gehirn. Sie werden durch die Daten und das Training geformt.

Eine häufige Forderung im Kontext von KI ist, dass wir akribisch verstehen müssen, warum ein Modell eine bestimmte Entscheidung getroffen hat. Doch bringt es uns wirklich weiter, wenn wir wissen, welche Neuronen hier gefeuert oder nicht gefeuert haben?

Ähnliches gilt für unsere eigenen Entscheidungen. Oft finde ich scheinbar plausible Gründe für plötzliches Schokoladenverlangen, die nicht immer die wahre Ursache sein müssen. Vielleicht sollten wir uns stärker darauf konzentrieren, zu verstehen, auf welchen Daten unsere Entscheidungen basieren, und gleichzeitig akzeptieren, dass auch KI "menschliche" Fehler machen kann. Fern von deterministischen Algorithmen kann und wird KI wie ein Mensch falsche Ergebnisse produzieren. Hierbei sollten wir prüfen, ob die Erfolgsquote ausreichend ist, wie wir die Ergebnisse prüfen und verbessern können und ob die Gesamtbetrachtung positive Beiträge liefert.

Wie in anderen Bereichen werden Versicherungen dabei eine Rolle spielen. Ist das Risiko geringer, könnte es sein, dass der Versicherungsschutz höher wird, wenn keine KI-basierte Anwendung im Spiel ist.

Die eigentliche Herausforderung für unsere Gesellschaft besteht darin, diese Dynamik zu verstehen, statt vorschnell nach kontraproduktiver Regulierung zu rufen. Nur durch ein tiefes Verständnis können wir gemeinsam KI-Anwendungen etablieren, die nicht nur hilfreich, sondern auch gesellschaftlich gewinnbringend sind. In diesem Spannungsfeld liegt unsere größte Aufgabe, die es zu meistern gilt.

(rme)