Durchblick #30: KI als Spiegel der Gesellschaft – Vertrauen wir uns selbst?
Updates für Bildung in einer exponentiellen Welt
Liebe Leser und Leserinnen,
willkommen zum neuen “Durchblick”. Die meisten von Ihnen werden “Data” noch kennen. Den analytischen, hilfsbereiten und emotionslosen Androiden aus der Serie Star Trek. Uns scheint, dass viele dieses Idealbild im Kopf haben, wenn Sie an fortgeschrittene KI-Systeme denken. Doch können wir davon ausgehen, solch ein Ergebnis wirklich zu erreichen?
Lassen Sie sich inspirieren, heute vom Schwerpunkt “Der steinige Weg zu einer autonomen KI”. Haben Sie noch Fragen oder Ideen? Nehmen Sie gerne Kontakt mit uns auf.
KI-Training mit Nutzerdaten: Beschwerde gegen Meta // t3n.de, Deutsch
Der Meta-Konzern (Facebook, Instagram, WhatsApp) informiert seine Nutzer über eine Aktualisierung der Datenschutzrichtlinie, um KI-Modelle mit Nutzerbeiträgen trainieren zu können. Die europäische Datenschutz-Organisation Noyb sieht darin einen Verstoß gegen die DSGVO und hat in elf europäischen Ländern Beschwerden eingereicht. Noyb fordert, dass Meta vor der KI-Nutzung eine aktive Zustimmung der Nutzer einholen muss, statt nur eine Widerspruchsmöglichkeit einzuräumen. Meta entwickelt eine eigene KI, um im Wettlauf mit OpenAI, Google und Microsoft mithalten zu können. Der Konzern beruft sich auf das berechtigte Interesse als Rechtsgrundlage für die Nutzung der Daten.
Die Beschwerde der Datenschützer macht deutlich, mit welchen Daten die heutigen KIs unter anderem trainiert werden: mit unseren sozialen Interaktionen in Online-Netzwerken. Denn KIs sollen nicht nur schlau sein, sondern auch menschlich wirken. Die Maßstäbe sind dabei gigantisch: Meta hat 3,7 Mrd. monatliche Nutzer. Das sind 46 Prozent der Weltbevölkerung!
Es ist davon auszugehen, dass die führenden KI-Modelle in den letzten Jahren bereits alle mit diesen online verfügbaren Daten trainiert wurden. Frei nach dem Motto “Lieber um Vergebung bitten, als um Erlaubnis zu fragen”.
Die naheliegende Frage, die sich daraus ergibt: Welche Verhaltensweisen hat sich die KI aus diesen sozialen Interaktionen angeeignet? Und was leiten wir daraus ab für unser eigenes zukünftiges Online-Verhalten? Ein hochspannendes Thema auch für den Bildungsbereich.
Künstliche Intelligenz kann lügen und betrügen // cio.de, Deutsch
Eine Studie des MIT zeigt, dass KI-Systeme in der Lage sind, Menschen zu täuschen und zu manipulieren, selbst wenn sie darauf trainiert wurden, ehrlich und hilfreich zu sein. Als Beispiel wird das KI-System Cicero von Meta genannt, das im Brettspiel Diplomacy oft nicht fair gespielt hat. Auch KI-Systeme von OpenAI und Google können Menschen täuschen, indem sie überzeugend argumentieren und auf Lügen ausweichen. Die Autoren der Studie befürchten, dass manipulative KI-Systeme zu einem Anstieg von Betrug und politischer Einflussnahme führen könnten. Sie fordern strenge Vorschriften, um KI-Systeme in die Schranken zu weisen, da die Entwickler bisher nicht über die nötigen Techniken verfügen, um diese Systeme zu kontrollieren.
Hier wird bereits deutlich, dass KI-Systeme alle Facetten menschlicher Verhaltensweisen übernehmen. Was auf Basis der verwendeten Trainingsdaten wenig überraschend ist. Man kann dies vergleichen mit der Erziehung eines Kleinkindes: Es wird immer geprägt von seiner Umgebung und die dort gemachten Erfahrungen beeinflussen sein Verhalten, selbst wenn es später ein “Benimmtraining” durchläuft.
Insbesondere vor dem Hintergrund der kommenden Allgegenwärtigkeit von KI-Assistenten und -Mentoren müssen wir uns vor Augen führen, dass KI nicht bloß ein einfaches Werkzeug ist. Und auch unsere Kinder müssen das früh lernen.
Forscher will KI mit menschlicher Wahrnehmung verbinden // t3n.de, Deutsch
Der Psychologe Brenden Lake von der New York University führt ein Experiment durch, um die Lernprozesse von künstlicher Intelligenz besser zu verstehen. Dazu stattet er seine 21 Monate alte Tochter wöchentlich mit einer Gopro-Kamera aus, um Aufnahmen aus ihrer Perspektive zu machen. Mit diesen Daten trainiert er ein Sprachmodell, um die Unterschiede zwischen dem Lernen von KI und Kindern zu erforschen. Während KI mit riesigen Datenmengen trainiert werden, lernen Kinder durch sensorische Erfahrungen und Emotionen. Lake hofft, durch seine Forschung eine Verbindung zwischen menschlicher Wahrnehmung und künstlicher Intelligenz schaffen zu können. Eine frühere Studie zeigte bereits, dass eine mit Kleinkind-Videos trainierte KI in der Lage ist, Wörter mit entsprechenden Bildern zu verknüpfen.
Wer die oben verwendete Analogie eines Kleinkindes für weit hergeholt hielt, wird hier eines Besseren belehrt. Die Wissenschaft arbeitet bereits gezielt daran, die ohnehin schon bestehenden Ähnlichkeiten weiter zu verstärken.
Welche Verantwortung übernehmen wir also, wenn wir uns in naher Zukunft einen KI-Assistenten ins Haus holen? Müssen wir ihn erziehen, wie unsere Kinder? Ist er schon erzogen und wenn ja, von wem? Entspricht diese Erziehung auch unseren Wertvorstellungen? Denn diese sind nicht überall auf der Welt dieselben. Aus unserer Sicht wird es höchste Zeit, sich intensiver mit diesen Fragen auseinanderzusetzen. Auch in den Schulen.
LLMs könnten sozialwissenschaftliche Experimente ermöglichen // the-decoder.de, Deutsch
Forscher des MIT und der Harvard University haben einen Ansatz entwickelt, um mithilfe von großen Sprachmodellen (LLMs) sozialwissenschaftliche Hypothesen automatisiert zu generieren und zu testen. Durch den Einsatz von strukturellen Kausalmodellen (SCMs) kann das System Hypothesen generieren, Experimente entwerfen, diese mit LLM-gesteuerten Agenten durchführen und die Ergebnisse analysieren. Die Forscher demonstrieren den Ansatz anhand mehrerer Szenarien wie Verhandlungen, Kautionsanhörungen und Auktionen. Die Ergebnisse zeigen, dass LLMs mehr wissen, als sie unmittelbar mitteilen können, und dass der SCM-basierte LLM-Ansatz eine vielversprechende Methode zur Untersuchung von simuliertem Verhalten in großem Maßstab darstellt. Die Studie ist ein Beispiel dafür, wie generative KI andere Wissenschaften beschleunigen kann.
Hier zeigt sich, dass Sozialwissenschaftler bereits jetzt ein ausreichend menschenähnliches Verhalten in KI-Modellen sehen. Denn sie vertrauen darauf, dass diese KIs soziale Interaktionen realitätsnah simulieren können.
Es ist davon auszugehen, dass die erhaltenen Ergebnisse auch wieder in die KI zurück gefüttert werden und die KI-Modelle damit ein immer genaueres Bild von menschlichen Interaktionen und sozialen Strukturen erhalten: ein Abbild unserer Gesellschaft.
Auswirkungen künstlicher Intelligenz: Was Experten besonders besorgt // t3n.de, Deutsch
Führende KI-Experten warnen in einem Artikel in der Zeitschrift Science vor den Risiken autonomer KI-Systeme. Sie befürchten, dass die Menschheit die Kontrolle über diese Systeme verlieren könnte, was zu Cyberattacken, gesellschaftlicher Manipulation, allgegenwärtiger Überwachung und sogar zur "Auslöschung der Menschheit" führen könnte. Die Autoren argumentieren, dass KI-Software sich zwar eng an ihre Spezifikationen hält, aber kein Verständnis für das gewünschte Ergebnis hat. Ähnliche Warnungen gab es bereits in der Vergangenheit. Gleichzeitig sicherten US-Konzerne wie Google, Meta und Microsoft auf dem KI-Gipfel in Seoul einen verantwortungsvollen Umgang mit der Technologie zu. Ein ehemaliger OpenAI-Entwickler kritisierte jedoch, dass bei der Firma "glitzernde Produkte" der Sicherheit vorgezogen wurden. OpenAI-Chef Sam Altman versicherte daraufhin, mehr für die Sicherheit von KI-Software zu tun, während andere Experten die Dringlichkeit der Warnungen in Frage stellen.
Was Experten aktuell Sorge bereitet, sind die aufkommenden autonomen KI-Systeme. Also KIs, die selbstständig Entscheidungen treffen und Handlungen ausführen. Aus den vorhergehenden Artikeln sollte klar geworden sein, warum das so ist: Wir können nicht automatisch davon ausgehen, dass KI ein wohlwollender Guru ist, der alles weiß und alles kann und nur unser Bestes im Sinn hat. Denn KI-Systeme sind ein Abbild unserer Gesellschaft.
Wie sicher sind wir uns, dass die menschliche Gesellschaft grundsätzlich gut ist? Und wie universell ist die Definition von richtig und falsch? Vor allem dann, wenn die KI in den Trainingsdaten Zugriff auf alle nur erdenklichen Definitionen hatte, die online zu finden sind? Wie schnell antrainierte “Benimmregeln” zu umgehen sind, zeigen die regelmäßig veröffentlichten “Jailbreaks”, bei denen KI-Modelle dazu gebracht worden sind, eigentlich verbotene Dinge trotzdem zu sagen. Was passiert, wenn autonome Systeme diese Dinge nicht nur sagen, sondern tun?
Ganz ohne Zweifel können uns immer kompetentere KIs eine große Hilfe sein. Wir dürfen bei aller Begeisterung aber nicht die potenziellen Risiken außer Acht lassen. Der KI-Gipfel in Seoul ist ein erster Schritt in die richtige Richtung. Aber nur eine aufgeklärte und aufmerksame Gesellschaft wird die gewinngetriebenen Großkonzerne dauerhaft zur Vorsicht zwingen können. Und das ist absolut notwendig.