Durchblick #14: Fakt oder Fiktion? Der Einfluss von KI auf unsere Wahrnehmung
Updates für Bildung in einer exponentiellen Welt
Liebe Leser und Leserinnen,
willkommen zum neuen “Durchblick”. Wie lange können wir unseren Sinnen eigentlich noch trauen? Während aktuelle KI-Tools immer beeindruckendere und realistischere Medien produzieren, hapert es immer noch an der zuverlässigen Identifizierung dieser synthetisch produzierten Inhalte. Ist eine Lösung dieser Herausforderung mit Technologie überhaupt möglich, oder müssen wir bei Moral und Ethik ansetzen?
Lassen Sie sich inspirieren, heute vom Schwerpunkt “Die Parallelwelt der KI-generierten Medien”. Haben Sie noch Fragen oder Ideen? Nehmen Sie gerne Kontakt mit uns auf.
SWK-Bildungsforscher empfehlen den Einsatz von ChatGPT an Schulen // deutsches-schulportal.de, Deutsch
Die Ständige Wissenschaftliche Kommission der Kultusministerkonferenz (SWK) empfiehlt in einem Impulspapier den Einsatz von KI-Tools wie ChatGPT im Bildungssystem. Sie fordert kostenlosen oder kostengünstigen Zugang zu diesen Werkzeugen für Schüler:innen und Lehrkräfte, um bestehende Ungleichheiten nicht zu verstärken. Die SWK sieht großes Potenzial in KI-Sprachmodellen zur Binnendifferenzierung und Individualisierung im Unterricht. KI-Chatbots könnten interaktiv Rückmeldungen geben und bei Verständnisproblemen helfen. Allerdings warnt die SWK davor, die Textproduktion komplett an KI auszulagern, da dies das fachliche Lernen untergraben würde. Sie empfiehlt, regelmäßigen Einsatz von KI-Tools erst ab der achten Klasse und betont die Notwendigkeit, Schüler:innen in der Quellenbewertung und im Verständnis der KI-Funktionsweise zu schulen.
Bereits in der letzten Ausgabe haben wir das SWK-Papier zitiert, aber es lohnt ein genauerer Blick. Denn der Inhalt kann sich sehen lassen und analysiert sehr umfassend und treffend die aktuelle Situation im Hinblick auf KI-generierte Inhalte. Eine wichtige Erkenntnis ist dabei, dass der Umgang mit der zunehmenden Flut dieser Inhalte und das kritische Hinterfragen der Quellen gelernt werden muss, und deshalb auch an den Schulen nicht ausgeblendet werden kann. Interessierten Lesern empfehlen wir einen Blick in das oben verlinkte Original-Dokument. Dort heißt es unter anderem
zum Umgang mit selbst generierten Inhalten:
“Prompt-Tuning setzt damit kritisches und analytisches Denken voraus und Lernende benötigen breites fachliches Wissen, um die Glaub- und Vertrauenswürdigkeit der LLM-generierten Inhalte einschätzen zu können.”zum Umgang mit Online-Medien:
“Kritisches Prüfen und Reflexion, mithin generell Medien- und Nachrichtenkompetenzen, sind damit Fähigkeiten, die nicht nur für den individuellen Lernprozess essenziell sind, sondern auch für die Gesellschaft als Ganzes.”Die wesentlichen Herausforderungen sind damit erkannt und benannt. Was nun folgen muss, ist eine zügige und flächendeckende Umsetzung entsprechender Maßnahmen.
Content Detektoren: Kann man KI-Texte erkennen? // search-one.de, Deutsch
Der Autor Kai Spriestersbach setzt sich intensiv mit der Frage auseinander, ob Suchmaschinen und Lehrkräfte KI-generierte Texte erkennen können. Der Artikel beleuchtet die Herausforderungen, denen KI-Detektoren gegenüberstehen. Selbst fortschrittliche Detektoren wie GPTZero bieten keine absolute Sicherheit. Sie können durch einfache Umformulierungen oder Änderungen an KI-Texten getäuscht werden und zeigen eine hohe Fehlerrate. OpenAI arbeitet an Wasserzeichen für KI-Texte, aber auch diese Technik hat Schwächen. Der Autor argumentiert, dass es derzeit keine verlässliche und einfache Lösung gibt, KI-generierte Texte zu erkennen, und betont die Bedeutung der fairen und verantwortungsvollen Nutzung sogenannter “Detektoren”.
Der Artikel macht klar, dass auch in Zukunft wenig Hoffnung besteht, KI-generierte Texte zuverlässig zu erkennen. Was unserer Ansicht nach im Bildungssystem auf keinen Fall passieren darf, ist eine regelmäßige Konfrontation von Schüler:innen mit falschen Anschuldigungen. Stattdessen ist ein offener Umgang mit KI-Tools notwendig und die Auseinandersetzung mit deren Stärken, Schwächen und sinnvollen Einsatzmöglichkeiten. Das erfordert ohne Zweifel neue Unterrichts- und Prüfungskonzepte. Aber nur so baut sich die notwendige Kompetenz auf. Ohne Frustration und Heimlichtuerei.
KI kann nun auch Handschriften perfekt imitieren // t3n.de, Deutsch
Ein Forschungsteam der Mohamed bin Zayed University of Artificial Intelligence hat eine KI entwickelt, die menschliche Handschriften so perfekt imitieren kann, dass kein Unterschied zum Original erkennbar ist. Die KI nutzt Vision Transformers (ViTs), um den Stil einer Person, wie die Neigung der Buchstaben oder die Breite der Striche, zu erfassen. Dies ermöglicht die Erstellung von handschriftlichen Texten, die von echten nicht zu unterscheiden sind. Das Team plant, die Technologie für verschiedene Anwendungen einzusetzen, darunter auch die Unterstützung von Menschen, die aufgrund von Verletzungen nicht schreiben können. Allerdings sehen die Forscher auch Risiken wie potenziellen Missbrauch für Fälschungen:
„Wir müssen die Öffentlichkeit sensibilisieren und Werkzeuge zur Bekämpfung von Fälschungen entwickeln.“
Konnte man sich bisher bei einem handgeschriebenen Text noch relativ sicher sein, dass er authentisch ist, hält nun auch hier die künstliche Intelligenz Einzug. Damit gibt es wohl kein Medium mehr, das wir unreflektiert konsumieren und intuitiv als authentisch einstufen können. Versierte Nutzer von KI-Systemen werden uns sehr bald fast beliebige Realitäten vorgaukeln können.
Umso wichtiger, dass Schüler:innen lernen, eine Quelle immer kritisch zu hinterfragen. Ganz egal ob Text, Bild, Video oder Audio.
Wahljahr 2024: So will OpenAI einen KI-Missbrauch verhindern // t3n.de, Deutsch
Der Artikel behandelt OpenAIs Strategien zur Verhinderung des Missbrauchs ihrer KI-Tools ChatGPT und Dall‑E im Superwahljahr 2024. In diesem Jahr stehen wichtige Wahlen in den USA, Europa und Russland an, wobei die Befürchtung besteht, dass KI-generierte Fehlinformationen und gefälschte Bilder diese Wahlen beeinflussen könnten. OpenAI plant, den Einsatz seiner Tools für Wahlkampagnen und Lobbyarbeit zu verbieten, bis ein Verständnis über politische Einflussnahme via KI entwickelt wird. Ein weiterer Schwerpunkt liegt auf der Transparenz bei KI-generierten Bildern. Dall‑E soll einen digitalen Herkunftsnachweis implementieren, um die Authentizität von Bildern zu verifizieren. ChatGPT wird zudem daraufhin optimiert, aktuelle Informationen zu verarbeiten und sachliche Falschinformationen zu vermeiden.
Die Anstrengungen OpenAIs zur Eindämmung von Wahlmanipulation mithilfe von KI-Tools machen die politischen und gesellschaftlichen Dimensionen klar, die die breite Verfügbarkeit von derartigen neuen Technologien haben kann. In einem Zeitalter, in dem Fakten und Fiktion schnell verschwimmen können, wird die Fähigkeit, Informationen kritisch zu hinterfragen und zu bewerten, zu einer Schlüsselkompetenz nicht nur für Schüler:innen und Lehrkräfte, sondern für alle Bürger:innen werden.
Gegen KI-generierte Deepfakes hilft Resilienz und ein moralischer Kompass // nzz.ch, Deutsch
Die Autoren Christopher Nehring und Benjamin Lange beleuchtet die Herausforderungen, die durch den Einsatz von künstlicher Intelligenz (KI) im Bereich der Medienproduktion entstehen. Insbesondere geht es um Deepfakes, die reale Personen Dinge sagen oder machen lassen, die nie stattgefunden haben. Diese Technologie wird immer besser und günstiger, was sie zu einer Bedrohung für die Wahrnehmung von Wahrheit und Realität macht. Der Artikel betont, dass KI-Erkennungstools nur begrenzt helfen, da sie oft fehleranfällig sind und Fakes falsch bewerten. Die Autoren argumentieren, dass es neben technologischen Lösungen auch eines moralischen Kompasses, ethischer Kompetenzen und einer Stärkung der Resilienz gegen Desinformation bedarf. Bildungsprogramme im Umgang mit KI, das Bewusstsein über die Grenzen der Technologie und kritische Meinungsbildung werden als Schlüsselelemente hervorgehoben.
Der Artikel zeigt das Spannungsfeld zwischen technologiezentrierten und menschenzentrierten Lösungsansätzen gegen Deepfakes auf. Während Technologiekonzerne wie OpenAI über Detektoren und digitale Wasserzeichen nachdenken, stehen im Bildungsumfeld eher die ethischen Aspekte und die kritische Meinungsbildung im Vordergrund.
Einerseits werden Tools entwickelt, die KI-generierte Inhalte identifizieren und markieren sollen, und andererseits sollen Menschen in die Lage versetzt werden, die Glaubwürdigkeit und Intention von digitalen Inhalten kritisch zu hinterfragen.
Langfristig wird vermutlich nur eine Kombination aus beidem den gewünschten Erfolg bringen. Aber letzteres wird mehr Zeit benötigen, denn die Aneignung und Pflege der notwendigen Kompetenzen sind ein analoger Prozess und kein digitaler.