Durchblick #58: Gefährdet KI die Demokratiebildung?
Updates für Bildung in einer exponentiellen Welt
Liebe Leser und Leserinnen,
willkommen zum neuen “Durchblick”. In wenigen Wochen startet in Stuttgart die Bildungsmesse Didacta mit dem diesjährigen Schwerpunkt “Demokratiebildung”. Grund genug für uns, einmal einen genaueren Blick darauf zu werfen, inwieweit die zunehmende Nutzung von KI einen Einfluss auf Demokratiebildung haben kann.
Lassen Sie sich inspirieren, heute vom Schwerpunkt “KI und Demokratie” Haben Sie noch Fragen oder Ideen? Nehmen Sie gerne Kontakt mit uns auf.
Wie KI künftig unsere Entscheidungen beim Einkaufen oder Wählen manipulieren könnte // t3n.de
Forscher der Universität Cambridge warnen vor einer sich entwickelnden "Intention Economy", in der KI-Systeme menschliche Entscheidungen vorhersagen und beeinflussen könnten. Durch die Analyse intimer Gesprächsdaten mit KI-Agenten (Chatbots, digitale Tutoren) können Systeme Persönlichkeiten nachahmen und Vertrauen aufbauen. Diese Erkenntnisse könnten an Unternehmen und Organisationen verkauft werden, die damit gezielt Kaufentscheidungen oder politische Meinungen beeinflussen. Erste Schritte in diese Richtung sind bereits bei Tech-Unternehmen wie OpenAI, Meta und Nvidia erkennbar. Die Forscher warnen vor den Auswirkungen auf demokratische Prozesse und faire Märkte, wenn keine entsprechende Regulierung erfolgt.
Was vor vielen Jahren mit einfachem Nutzertracking für Werbezwecke begann, entwickelt sich durch KI-gestützte Analysen von Gesprächen und Verhalten zu einem immer präziseren Instrument der Entscheidungsbeeinflussung. Und die Methoden werden nicht mehr nur von Unternehmen für Marketingzwecke genutzt, sondern zunehmend auch von politischen Akteuren zur gezielten Meinungsbildung eingesetzt.
Vor diesem Hintergrund sollte auch Medienkompetenz neu gedacht und erweitert werden: Lernende müssen über das Erkennen von Fake News hinaus auch die subtilen Mechanismen der KI-gestützten Einflussnahme verstehen lernen. Sie benötigen praktische Fähigkeiten, um persönliche Entscheidungsräume zu schützen und informierte, unabhängige Urteile fällen zu können.
Der Bildungsauftrag erweitert sich damit um eine zentrale Komponente: Die Befähigung junger Menschen, in einer von KI-Systemen durchdrungenen Welt selbstbestimmt zu agieren und dabei demokratische Prozesse zu bewahren. Dazu gehört auch das Verständnis, wie persönliche Daten zur Verhaltensprognose genutzt werden können.
Neues Bytedance-KI-Modell animiert Porträts passend zu Audiodateien // the-decoder.de
Bytedance, der Mutterkonzern von TikTok, hat ein KI-Framework namens INFP entwickelt, das statische Porträtbilder anhand von Audiodateien animieren kann. Das System arbeitet in zwei Stufen: Zunächst werden kommunikative Verhaltensweisen in einen Bewegungs-Latenzraum übertragen, dann erfolgt die audiogesteuerte Bewegungsgenerierung. Besonders ist die automatische Unterscheidung zwischen Sprecher- und Zuhörerrollen. Zur Entwicklung wurde der Datensatz DyConv mit über 200 Stunden Dialogvideos erstellt. Die Technologie übertrifft bisherige Standards, wird aber wegen möglichen Missbrauchs für Desinformation nur eingeschränkt zugänglich gemacht.
Wir empfehlen dringend, sich das im Artikel eingebettete Video anzusehen und dabei Folgendes im Hinterkopf zu behalten: Alles, was dort zu sehen ist, wurde anhand eines Fotos und einer Audiodatei zum Leben erweckt. Es wurde nie eine Person gefilmt!
Bedenklich wird es, wenn derartige Systeme mit den im vorherigen Artikel beschriebenen Technologien zur Intentionsanalyse verschmelzen. Es entstehen hoch personalisierte Überzeugungswerkzeuge mit vertrauenerweckenden digitalen Avataren, die nicht nur aussehen wie echte Menschen, sondern auch deren Verhalten und kommunikative Muster perfekt nachahmen.
Gleichzeitig bietet die Technologie revolutionäre Möglichkeiten für Lehrende. Die könnten einen persönlichen Avatar erstellen, der rund um die Uhr für Fragen zur Verfügung steht, in verschiedenen Sprachen antwortet und sich an unterschiedliche Lernniveaus anpasst. Der Avatar würde dabei die authentische Mimik, Gestik und das pädagogische Auftreten der Lehrkraft bewahren.
Diese duale Natur der Technologie – Werkzeug zur Manipulation einerseits, Instrument der Bildungsdemokratisierung andererseits – macht die tiefe Integration von Medienkompetenz und ethischem Bewusstsein im Bildungssystem umso wichtiger.
Microsoft veröffentlicht Erkenntnisse aus Red-Team-Tests von über 100 KI-Produkten // the-decoder.de
Microsoft hat die Ergebnisse seiner KI-Sicherheitstests aus zwei Jahren veröffentlicht, bei denen über 100 generative KI-Produkte untersucht wurden. Zentrale Erkenntnisse: Einfache Angriffsmethoden gegen KI-Modelle mithilfe von Prompt-Engineering sind oft effektiver als komplexe mathematische Ansätze. Trotz der Entwicklung automatisierter Testtools (PyRIT) bleibt menschliche Expertise bei der Evaluierung, besonders für ethische Fragen und kulturspezifische Inhalte, unverzichtbar. Die Integration von KI in Anwendungen schafft neue Sicherheitsrisiken, die sowohl KI-spezifische als auch traditionelle Schwachstellen umfassen. KI-Sicherheit muss als kontinuierlicher Prozess verstanden werden, der ständige Überwachung und Anpassung erfordert.
Das Ziel des Red Teaming ist es, die Robustheit eines Systems zu prüfen, indem potenzielle Angriffe und Sicherheitslücken in verschiedenen Szenarien getestet werden. Die umfangreiche Analyse von Microsoft zeigt deutlich, wie verwundbar aktuelle KI-Systeme noch sind und dass wir vorsichtig damit sein müssen, die häufig bereits sehr mächtigen Tools bedenkenlos einzusetzen.
Trotzdem ist es wichtig, dass sich die Schulen nicht davor verschließen, denn die notwendigen Erfahrungen sammelt man nur in der regelmäßigen Anwendung und gemeinsamen Reflexion. Das gilt sowohl für Lehrkräfte als auch für Schüler.
KI auf dünnem Eis: Warum schon 0,001 Prozent fehlerhafte Daten die Sicherheit gefährden // t3n.de
Eine Studie der New York University untersucht die Anfälligkeit von KI-Sprachmodellen für fehlerhafte Trainingsdaten. Bereits wenn 0,001 Prozent der Trainingsdaten (eine Million von 100 Milliarden Token) Fehlinformationen enthalten, steigt der Anteil schädlicher Inhalte in den Antworten um 4,8 Prozent. Besonders kritisch ist dies im medizinischen Bereich, wo falsche Informationen zu Fehldiagnosen oder -behandlungen führen könnten. Für diese "Daten-Vergiftung" (Data Poisoning) ist kein direkter Zugriff auf das KI-System nötig – es reicht, gezielt Fehlinformationen im Internet zu streuen. Klassische Verbesserungsmethoden wie Prompt Engineering konnten das Problem nicht lösen. Die Forscher entwickelten jedoch einen Algorithmus, der medizinische Fachbegriffe erkennt und mit validierten biomedizinischen Wissensgraphen abgleicht.
Auch diese Studie zeigt, dass die heutigen KI-Systeme häufig noch nicht robust genug für kritische Anwendungsfelder sind. Ohne gezieltes Finetuning kann die KI selbstständig nicht unterscheiden, was richtig oder falsch ist. Insbesondere nicht im chaotischen Wissenspool, den das Internet darstellt. Dies ist einer der Gründe, warum immer stärker auf KI-Agenten gesetzt wird: Kleinere, spezialisierte KI-Modelle, die mit weniger, aber hochwertigeren Daten trainiert wurden.
Für Bildungseinrichtungen bedeutet dies, dass der Umgang mit KI-Systemen nicht nur technisch, sondern vor allem auch kritisch-analytisch gelehrt werden muss. Lernende müssen verstehen, dass KI-Antworten trotz überzeugender Präsentation grundsätzlich hinterfragt werden müssen. Die Fähigkeit zur Faktenkontrolle und Quellenprüfung wird damit mehr und mehr zu einer Schlüsselkompetenz der digitalen Bildung.
KI-Tools untergraben kognitive Fähigkeiten besonders bei jüngeren Menschen // the-decoder.de
Eine Studie der Swiss Business School mit 666 Teilnehmern zeigt einen deutlichen negativen Zusammenhang zwischen der Nutzung von KI-Tools und der Fähigkeit zum kritischen Denken. Besonders betroffen sind jüngere Menschen zwischen 17 und 25 Jahren, die KI-Tools am intensivsten nutzen. Die Studie verwendete den standardisierten Halpern Critical Thinking Assessment (HCTA) und identifizierte "kognitive Entlastung" – das Delegieren von Denkaufgaben an KI – als Hauptursache. Höhere Bildung erwies sich als Schutzfaktor. Die Forscher empfehlen einen ausgewogenen KI-Einsatz in Bildungseinrichtungen und die Förderung aktiver Lernstrategien. Besonders problematisch ist der sich selbst verstärkende Kreislauf: Je mehr Menschen KI vertrauen, desto eher delegieren sie Denkaufgaben, was wiederum das kritische Denken schwächt.
Wir haben diesen Artikel aus zwei Gründen ausgewählt: Zum einen zeigt er, dass genau die Technologie, die ausgeprägteres kritisches Denken notwendig macht, diese Fähigkeit auch untergraben kann. Zum anderen ist er bei genauerem Hinsehen ein gutes Beispiel für die Notwendigkeit von Quellenprüfung und kritischem Hinterfragen:
Wie aussagekräftig ist eigentlich eine Teilnehmerzahl von nur 666? Ist das Repräsentativ? Und im Artikel sind wir über folgende Aussage gestolpert: “Besonders ausgeprägt ist dieser Effekt laut der Studie bei jüngeren Teilnehmern zwischen 17 und 25 Jahren. Diese Gruppe zeigte die höchste KI-Nutzung und gleichzeitig die niedrigsten Werte beim kritischen Denken. Ältere Teilnehmer über 46 Jahre nutzten KI-Tools weniger und schnitten bei Tests zum kritischen Denken besser ab.” Könnte kritisches Denken bei jüngeren Menschen aufgrund der niedrigeren Lebenserfahrung nicht ohnehin schwächer ausgeprägt sein? Besteht hier wirklich eine Kausalität zur KI-Nutzung, oder vielleicht nur zum Alter?
Die Beantwortung dieser Fragen überlassen wir Ihnen. Schulen Sie Ihr kritisches Denken!