Durchblick #19: Fake Reality – Neuer Bildungsauftrag erforderlich?
Updates für Bildung in einer exponentiellen Welt
Liebe Leser und Leserinnen,
willkommen zum neuen “Durchblick”. Fake News ist bereits seit Jahren ein heiß diskutiertes Thema und spätestens seit der Pandemie ist auch die breite Öffentlichkeit darauf sensibilisiert. Doch die rasanten Fortschritte in allen Bereichen der künstlichen Intelligenz stellen uns bereits vor die nächste Herausforderung: Fake Reality. Muss unser Bildungssystem darauf reagieren?
Lassen Sie sich inspirieren, heute vom Schwerpunkt “Neue Realitäten” Haben Sie noch Fragen oder Ideen? Nehmen Sie gerne Kontakt mit uns auf.
Sora – OpenAI erzeugt nun auch KI-Videos // spiegel.de, Deutsch
OpenAI hat mit Sora einen neuen Text-zu-Video-Generator vorgestellt, der bis zu 60-sekündige KI-generierte Videos aus Textbeschreibungen erstellt. Diese Technologie, die auf früheren Entwicklungen wie Dall-E und ChatGPT basiert, ermöglicht es, hochwertige, fotorealistische Videoclips zu erstellen, die aktuell die Fachwelt verblüffen. Die Videos haben noch keine Tonspur, und aktuell sind die Inhalte auf eine Minute limitiert. Wann die Technologie für die Öffentlichkeit verfügbar gemacht wird, ist bislang nicht bekannt.
Die Vorstellung von Sora durch OpenAI ist ein weiterer bemerkenswerter Schritt in der Evolution künstlicher Intelligenz, den zu diesem frühen Zeitpunkt noch niemand für möglich gehalten hat.
Wir stehen an der Schwelle einer neuen Ära in der digitalen Mediengestaltung, die viele Herausforderungen mit sich bringen wird. Die Möglichkeit, dass jeder bald in der Lage sein wird, auch Videos zu generieren, die sich von der Realität nicht mehr unterscheiden lassen, macht einmal mehr klar, wie wichtig es ist, dass die kritische Auseinandersetzung mit diesen neuen Realitäten bereits in der Schule beginnt.
Fake News war gestern – Die Ära der Fake Reality beginnt // spiegel.de, Deutsch
Die Kolumne von Sascha Lobo thematisiert die Verschmelzung von TikTok mit der neuen KI-Technologie Sora von OpenAI, die realistische Videos aus Text generiert. Lobo betont, dass TikTok bereits eine mächtige Plattform für die Verbreitung von Inhalten ist, die durch die Integration von Sora eine neue Ära der "Fake Reality" einläuten könnte. Er warnt vor den potenziellen Gefahren dieser Technologien, die hochgradig personalisierte und überzeugende Fake-Inhalte erschaffen könnten, was die Grenzen zwischen Realität und Fiktion verwischt. Er spricht von einem “Feuerwerk der Manipulation” und der “perfekten Propagandamaschinerie”.
Wir müssen uns klarmachen, dass unsere Kinder mit TikTok, Instagram und YouTube Shorts aufwachsen. Bewegte Bilder sind die beliebteste Form der Medien. Möglichst kurz und in kleinen Häppchen. “Influencer” und “Streamer” sind erstrebenswerte Berufsbilder und die Erfolgreichsten verdienen damit Millionen. Erlaubt ist alles, was Klicks und Likes bringt und von den Portalen nicht zensiert wird. In diesem Kontext muss eine Technologie wie Sora bewertet werden.
Das Bildungssystem alleine wird die notwendige Aufklärung nicht liefern können. Neben den Portal- und App-Betreibern, die Verantwortung übernehmen müssen, wird vor allem das Elternhaus gefordert sein. Doch hier ist das Ausmaß der in den letzten Monaten entstandenen technischen Möglichkeiten in den meisten Fällen überhaupt noch nicht ins Bewusstsein gerückt. Dieses Bewusstsein muss dringend in die gesellschaftliche Breite getragen werden.
Verhalten wie ein Mensch – ChatGPT besteht Turing-Test // spiegel.de, Deutsch
Die Studie von Forschern der University of Michigan und Stanford University zeigt, dass ChatGPT-4 im Turing-Test menschenähnliche Verhaltens- und Persönlichkeitszüge offenbart, die statistisch nicht von Menschen unterscheidbar sind. Besonders in Spielen, die Fairness, Kooperation und strategisches Denken betonen, wurde ChatGPT-4 als menschlich wahrgenommen, obwohl es im "Gefangenendilemma"-Spiel weniger überzeugte. Die Software adaptierte ihr Verhalten während der Tests, was ihre fortschreitende Lernfähigkeit unterstreicht.
Der Turing-Test wurde entwickelt, um festzustellen, ob ein System intelligent ist oder nicht. Er funktioniert nach dem Prinzip: Was quakt wie eine Ente, sich anfühlt wie eine Ente und aussieht wie eine Ente, ist auch eine Ente. Geradlinig und pragmatisch. Statt also zu diskutieren, ob ChatGPT ein Bewusstsein hat für das, was es formuliert, oder rein statistisch Worte aneinanderreiht, sollten wir uns damit auseinandersetzen, wie die neu entstandene Intelligenz sinnvoll in die Gesellschaft integriert werden kann.
Die Schulen stehen nun vor der Herausforderung, eine Balance zwischen technologischer Kompetenz und ethischer Reflexion zu finden, um sicherzustellen, dass die nächste Generation nicht nur mit KI-Tools umgehen kann, sondern auch deren Einfluss auf die Gesellschaft versteht und mitgestaltet.
Unternehmen verliert 25 Mio. Dollar über Deepfake-Videokonferenz // t3n.de, Deutsch
Ein internationales Unternehmen hat 25 Millionen Dollar durch einen Deepfake-Betrug mittels Videokonferenz verloren. Täuschend echte Deepfake-Technologie imitierte Mitarbeiter und überzeugte einen Angestellten in Hongkong, Überweisungen zu tätigen. Die Betrüger nutzten Instant-Messaging und Videocalls zur Kommunikation, und das Opfer erkannte den Betrug erst nach 15 Transaktionen.
Der Artikel veranschaulicht eindrucksvoll, was bereits vor Monaten mit der “damaligen” KI-Technologie möglich war. Was erwartet uns also, wenn immer menschlichere ChatBots auf neueste Videotechnologie wie Sora treffen?
Zumindest OpenAI hat inzwischen öffentlich verkündet, dass sie die neuesten KI-Modelle nur langsam und iterativ veröffentlichen werden, um der Gesellschaft Zeit zur Adaption zu geben. Was in diesem Kontext “langsam” bedeutet, lässt sich sicher unterschiedlich interpretieren. Es bedeutet aber sicherlich nicht, dass uns noch viel Zeit bleibt.
Umfrage: Deutsche fürchten Fake News // spiegel.de, Deutsch
Eine Umfrage der Bertelsmann Stiftung vom Oktober letzten Jahres zeigt, dass eine große Mehrheit der Deutschen Fake News als ernsthaftes Problem für die Gesellschaft und die Demokratie ansieht. Über 80 % der Befragten sind besorgt über die Auswirkungen von Desinformationen. Viele Menschen begegnen Fake News regelmäßig, besonders in sozialen Medien, und sehen verschiedene Gruppen, einschließlich Politiker und ausländische Regierungen, als Verantwortliche. Die Studie betont die Notwendigkeit von Faktenchecks und kritischer Medienkompetenz, um Desinformationen entgegenzuwirken.
Einerseits ist der hohe Anteil der Menschen, die Desinformation als ernsthaftes Problem ansehen, ermutigend. Andererseits glauben nur 16 % der Befragten, dass sie selbst auf Falschinformationen hereinfallen würden. In Unkenntnis der aktuellen und kommenden technologischen Möglichkeiten ist dies eine dramatische Fehleinschätzung.
Das unterstreicht die dringende Verantwortung von Bildungssystem und Elternhaus, im Kontext der "Neuen Realitäten" eine fundierte Medienkompetenz zu vermitteln. In einer Ära, in der Fake News die demokratischen Grundwerte bedrohen, müssen Schulen die Schüler:innen nicht nur mit Fähigkeiten zur kritischen Bewertung von Informationen ausstatten, sondern auch ein tiefes Verständnis für die Mechanismen und Auswirkungen von Desinformation erreichen. Dies ist entscheidend, um eine informierte und resiliente Gesellschaft zu formen, die fähig ist, mit den Herausforderungen des exponentiellen Zeitalters umzugehen.