Durchblick #56: Das Jahr 2025 wird fundamentalen Wandel bringen
Updates für Bildung in einer exponentiellen Welt
Liebe Leser und Leserinnen,
willkommen zum neuen “Durchblick”. Schon wieder neigt sich ein Jahr dem Ende zu und wir wollen heute einen Blick auf den Stand der Technik werfen. Was hat sich getan in den vergangenen 12 Monaten und sind die Chatbots klüger geworden? Es häufen sich Berichte, dass wir ein “Plateau” in der KI-Entwicklung erreicht hätten – werden wir also im nächsten Jahr mit angezogener Handbremse unterwegs sein? Ist die KI-Entwicklung vielleicht gar nicht so exponentiell wie gedacht?
Lassen Sie sich inspirieren, heute vom Schwerpunkt “Stagnation oder Stimulation?” Haben Sie noch Fragen oder Ideen? Nehmen Sie gerne Kontakt mit uns auf.
Ganz und gar nicht mit angezogener Handbremse ist die Entwicklung unserer eigenen KI-Plattform “Walter” angelaufen. Die aktuelle Alpha-Version wird bereits seit einigen Wochen intensiv von Lehrkräften getestet, und wir haben schon spannende Neuerungen für das kommende Jahr im Köcher. Schauen Sie doch selbst mal rein!
Mit diesem Newsletter verabschieden wir uns in die Weihnachtspause und möchten uns bei unseren Lesern und Leserinnen ganz herzlich bedanken für die Treue und die spannenden Impulse im zurückliegenden Jahr! Wir wünschen Ihnen eine ruhige und besinnliche Weihnachtszeit! Der nächste “Durchblick” erscheint am 10.01.2025.
OpenAI-Mitgründer sagt fundamentalen Wandel für die KI-Entwicklung voraus // t3n.de
Ilya Sutskever, OpenAI-Mitgründer und jetziger Leiter von Safe Superintelligence, prognostiziert einen Paradigmenwechsel in der KI-Entwicklung. Er argumentiert, dass die verfügbaren Trainingsdaten, ähnlich fossilen Brennstoffen, begrenzt sind und das traditionelle Pre-Training von KI-Modellen an seine Grenzen stößt. Als Zukunftsperspektive sieht er autonome KI-Agenten, die mit weniger Daten bessere Ergebnisse erzielen und logisch denken können. Sutskever zieht dabei Parallelen zur Evolution des menschlichen Gehirns, wo spezialisierte Hirnareale miteinander kommunizieren, und deutet an, dass KI ähnlich innovative Skalierungsmuster entwickeln könnte.
Während viele Berichte, die von Stagnation sprechen, sich vorwiegend auf das Fehlen von genug Trainingsdaten fokussieren, lenkt Sutskever's Analyse die Aufmerksamkeit auf einen sich anbahnenden fundamentalen Paradigmenwechsel – weg vom datenhungrigen Training, hin zu effizienteren, logisch denkenden Systemen. Eine passende Analogie ist vielleicht die Geschichte des Fliegens: Auch dort führte die simple Nachahmung der Natur (das Flattern mit den Flügeln) nicht zum Durchbruch, sondern erst das Verstehen der zugrundeliegenden Prinzipien der Aerodynamik. Zwingt uns der Mangel an zu “verfütternden” Daten schlussendlich dazu, die grundlegenden Mechanismen echter Intelligenz zu verstehen?
Salesforce: Die KI-Agenten kommen // heise.de
Salesforce präsentiert mit Agentforce 2.0 die nächste Generation von KI-Systemen: autonome KI-Agenten, die über reine Textgenerierung hinausgehen und selbstständig Entscheidungen treffen und Aufgaben ausführen können. Diese "digitalen Mitarbeiter" basieren auf einer fortschrittlichen Technologie-Infrastruktur, die Data Cloud, Tableau, MuleSoft und die neue Atlas-Reasoning-Engine kombiniert. Erste Praxiserfolge zeigen eine deutliche Effizienzsteigerung, etwa bei der Halbierung menschlicher Interventionen im Helpdesk. Gartner prognostiziert, dass bis 2028 ein Drittel aller Unternehmensanwendungen KI-Agenten enthalten werden. Diese Entwicklung wird als dritte KI-Welle bezeichnet und folgt auf prädiktive und generative KI, wobei letztere die hohen Erwartungen oft nicht erfüllen konnte.
Es zeigt sich, dass die von Sutskever prognostizierten KI-Agenten-Systeme bereits Einzug in die Praxis halten und sehr vielversprechende Ergebnisse liefern. Auch Amazon hat gerade erst ein KI-Labor für “agentische” Modelle gegründet.
Was also auf den ersten Blick wie eine Stagnation der KI-Entwicklung erschien, entpuppt sich beim zweiten Hinsehen als Wendepunkt: Während die generative KI an ihre Grenzen stößt, öffnet sich mit autonomen KI-Agenten ein vollkommen neues Kapitel. Diese Systeme sind deutlich spezialisierter und damit auch weniger datenhungrig. Der nächste logische Schritt wird eine Vernetzung dieser Systeme untereinander sein.
Project Astra: Googles schnellerer KI-Assistent hat Augen, Ohren und Gedächtnis // heise.de
Google entwickelt mit Project Astra einen fortschrittlichen, multimodalen KI-Assistenten, der auf dem neuen Gemini 2.0-Modell basiert. Der Assistent kann visuell und sprachlich interagieren (also sehen und hören), verfügt über ein verbessertes Gedächtnis (10 Minuten statt früher 45 Sekunden) und kann verschiedene Google-Dienste wie Maps und Lens integrieren. Trotz bemerkenswerter Fortschritte bestehen jedoch noch Einschränkungen, etwa beim Zugriff auf persönliche Daten oder bei der Spracherkennung in lauter Umgebung. Das Projekt befindet sich in der Testphase und ist bislang nur in den USA und Großbritannien verfügbar.
Die hier angekündigten multimodalen Fähigkeiten sind die Basis für die kommende KI-Evolutionsstufe: Erst wenn KI-Agenten ihre Umgebung ganzheitlich wahrnehmen, sich Kontexte merken und über verschiedene Sinneskanäle kommunizieren können, wird eine wirklich nahtlose Zusammenarbeit zwischen unterschiedlichen Agenten, Menschen und der physischen Welt möglich. Project Astra demonstriert dieses Potenzial eindrucksvoll: Der Assistent kann visuelle Informationen verarbeiten, sprachlich interagieren und sich Gesprächskontexte merken - genau die Fähigkeiten, die für eine intuitive Mensch-KI-Kollaboration und die Vernetzung spezialisierter Agenten-Systeme erforderlich sind. Neben Google hat auch OpenAI gerade weitere multimodale Fähigkeiten für ChatGPT bekannt gegeben.
Metas neue KI-Architektur soll grundlegende Schwächen heutiger KI-Systeme überwinden // the-decoder.de
Meta präsentiert mit dem Byte Latent Transformer (BLT) eine fundamentale Neuausrichtung im KI-Design: Während bisherige Sprachmodelle Texte in abstrakte Token zerlegen und dadurch oft an einfachen Aufgaben wie dem Zählen einzelner Buchstaben scheitern, arbeitet BLT direkt auf Byte-Ebene. Das System verwendet einen intelligenten Ansatz, der Bytes je nach Komplexität dynamisch in unterschiedlich große Patches gruppiert – große Patches für einfachen Text, kleine für komplexe Passagen. Mit nur 8 Milliarden Parametern übertrifft BLT bereits größere Modelle bei Aufgaben, die Verständnis auf Zeichenebene erfordern, obwohl es mit 16-mal weniger Daten trainiert wurde. Besonders bemerkenswert: Durch gleichzeitiges Vergrößern der Patch- und Modellgröße lässt sich die Leistung steigern, ohne die Kosten zu erhöhen – ein wichtiger Durchbruch für die Skalierbarkeit von KI-Systemen.
Metas BLT-Architektur lehrt uns eine wichtige Lektion über Innovation im exponentiellen Zeitalter: Echte Durchbrüche entstehen nicht durch bloße Vergrößerung bestehender Systeme, sondern durch das radikale Infragestellen grundlegender Annahmen. Während die Industrie bisher auf immer größere Modelle und mehr Trainingsdaten setzte – ein Weg, der zwangsläufig in die Stagnation führen muss – wagt Meta den Schritt zurück zu den Grundlagen und stellt die Token-basierte Architektur selbst infrage.
Diese Entwicklung spiegelt sich in allen diskutierten Artikeln wider: Sutskever prognostiziert das Ende des reinen Datenwachstums, Salesforce zeigt mit spezialisierten Agenten neue Wege der KI-Nutzung, Google erweitert die Interaktionsfähigkeiten und Meta revolutioniert nun die Grundarchitektur. Gemeinsam ist allen Ansätzen: Sie brechen mit der Vorstellung, dass "mehr vom Gleichen" der Weg nach vorn ist.
Prognosen, die von einem Plateau sprechen, ignorieren vollkommen die kontinuierlich stattfindende Disruption. Hier lässt sich auch eine wichtige Lektion für unser Bildungssystem ableiten: Wir müssen den Lernenden vermitteln, vermeintliche Grenzen nicht als endgültig zu akzeptieren, sondern als Aufforderung zum Umdenken zu verstehen. Denn scheinbare Stagnation ist oft nur das Signal, dass wir fundamentalere Fragen stellen müssen.
Unsere Prognose für 2025 lautet deshalb: Keine Stagnation, sondern weitere Stimulation.