Künstliche Intelligenz ist ein Kleinkind
Large Language Models (LLMs) sind vielseitige KI-Systeme, die auf umfangreichen Datensätzen aus dem Internet trainiert werden und danach menschenähnlich auf Textanfragen reagieren.
Ihr Training erinnert dabei stark an die Erziehung eines Kleinkindes. In beiden Fällen haben Lob, Tadel und gemachte Erfahrungen (der “Input”) einen großen Einfluss auf zukünftige Interaktionen.
Wir müssen uns vor Augen halten, wie wichtig unsere “Erziehungsarbeit” in diesem Kontext ist. Genau wie bei unseren Kindern, sind wir dafür verantwortlich, den LLMs Ethik und Moral zu vermitteln. Überlassen wir dies dem Zufall, sind die Konsequenzen unabsehbar.
In den vergangenen Jahrzehnten hat sich künstliche Intelligenz (KI) von einem Konzept der Science-Fiction zu einem festen Bestandteil unseres täglichen Lebens entwickelt. Häufig jedoch noch unsichtbar als Bestandteil von Online-Services oder in der Fertigung und Logistik von Großunternehmen.
Mit der Veröffentlichung von ChatGPT durch OpenAI im Herbst 2022 ist erstmals eine Untergruppe von KI, die sogenannten Large Language Models (LLMs), in das Zentrum des öffentlichen Interesses gerückt und hat einen globalen KI-Hype ausgelöst.
LLMs sind textbasiert und werden mit großen Datenmengen aus dem Internet gefüttert und trainiert. Das können beliebige digitale Texte sein, wie z.B. Konversationen auf Twitter und Reddit, Zeitungs- und Blogartikel oder Online-Enzyklopädien und digitale Bücher. Diese aggregierten Daten münden nach dem Training in ein Sprachmodell, das in der Lage ist, auf menschenähnliche Weise auf Textanfragen zu reagieren. Die Interaktion mit diesen Sprachmodellen via Chat wirkt oft so fließend und natürlich, dass die Antworten kaum von menschlichen Interaktionen zu unterscheiden sind.
Nimmt man die breite Palette der möglichen Anwendungen hinzu, dann ist der große Erfolg der LLMs leicht nachvollziehbar. Sie beantworten Wissensfragen, schreiben auf Anfrage Gedichte, Kurzgeschichten und Essays, übersetzen Texte zwischen diversen Sprachen oder helfen bei der Beantwortung von E-Mails, Zusammenfassung von Meetings oder dem Erstellen und Debuggen von Code. Der Fantasie sind hier kaum Grenzen gesetzt.
Und genau das stellt die Entwickler aktuell noch vor Probleme. Nachdem erste Versionen von ChatGPT noch relativ bereitwillig Anleitungen zum Bombenbau ausgespuckt haben, wird inzwischen intensiv und kontinuierlich daran gearbeitet, die LLMs zu erziehen und dafür zu sorgen, dass sie moralische und ethische Grundregeln befolgen.
Bei näherem Hinsehen sind die Ähnlichkeiten zur Erziehung eines Kleinkindes frappierend. Während ein Kleinkind in Entwicklung und Verhalten maßgeblich durch sein Umfeld geprägt wird, repräsentieren auch die riesigen Datensätze, mit denen LLMs gefüttert werden, eine breite Palette menschlicher Erfahrungen und Wissensbereiche. In gewisser Weise "lehren" diese Daten das Modell, wie es auf bestimmte Anfragen reagieren soll. Die bei LLMs hinterlegten Regeln und Richtlinien erinnern ebenfalls an die Erziehungsmethoden bei Kleinkindern. Lob und Tadel, in Form von positiver oder negativer Rückmeldung während des Trainingsprozesses, helfen dem Modell, zwischen gewünschten und unerwünschten Antworten zu unterscheiden.
Trotz dieser Ähnlichkeiten gibt es viele Menschen, die Anthropomorphismen in Bezug auf KI ablehnen. Sie argumentieren, dass LLMs im Grunde nur Worte anhand von Wahrscheinlichkeiten aneinanderreihen, ohne ein echtes Verständnis für die Zusammenhänge zu haben. Aber auch Kleinkinder plappern anfangs nur nach, was sie hören, ohne die wahre Bedeutung der Worte zu verstehen. Mit der Zeit und Erfahrung entwickeln sie dann ein tieferes Verständnis und die Fähigkeit, komplexe Gedanken und Ideen zu entwickeln. Obwohl sich auch hier diskutieren lässt, ob es sich am Ende nicht nur um eine systematische Aneinanderreihung von erlernten Satzbausteinen handelt.
So stellt sich die Frage: Wie wird die Weiterentwicklung der LLMs von ihrer "Kindheit" bis zum "Erwachsen" aussehen? Werden zukünftige Versionen von LLMs ein tieferes Verständnis der von ihnen verarbeiteten Informationen erlangen? Die Weiterentwicklung könnte die Fähigkeit beinhalten, Kontext besser zu verstehen, logische Schlussfolgerungen zu ziehen, und vielleicht sogar eine Form des kreativen Denkens zu entwickeln.
Während wir diesen Entwicklungsprozess beobachten, ist es entscheidend, dass wir weiterhin in die "Erziehung" unserer KI-Systeme investieren, um sicherzustellen, dass sie ethisch, sicher und zum Vorteil aller handeln. Dabei ist aus unserer Sicht ein Vergleich zur Erziehung unserer Kinder durchaus angebracht. Wir müssen uns bewusst sein, dass, egal wie fortschrittlich diese Modelle werden, ihre Fähigkeiten immer durch die Daten, mit denen sie trainiert wurden, und die Regeln, die wir festlegen, geprägt sind. Die Reise der KI von der "Kindheit" zum "Erwachsen" ist eine, die wir sorgfältig navigieren müssen, um die zahlreichen Vorteile zu nutzen und gleichzeitig die potenziellen Risiken zu minimieren.
Für mehr zu KI sowie deren zukünftigen Rolle in unserer Gesellschaft sei das Buch Scary Smart: Die Zukunft der künstlichen Intelligenz und wie wir mit ihrer Hilfe unseren Planeten retten von Mo Gawdat empfohlen.