Durchblick #31: Verliert der KI Hype-Train an Fahrt?
Updates für Bildung in einer exponentiellen Welt
Liebe Leser und Leserinnen,
willkommen zum neuen “Durchblick”. Ein Riese erhebt sich und steigt in das KI-Rennen ein: Die Firma Apple hat auf der jährlichen Developers Conference erstmals KI-Funktionen für ihre Produkte angekündigt. Gleichzeitig wird Kritik laut, dass die aktuellen KI-Entwicklungen in eine Sackgasse führen würden. Kommt Apple zu spät? Und werden wir ungeliebte Jobs bis auf Weiteres doch nicht an die KI abgeben können?
Lassen Sie sich inspirieren, heute vom Schwerpunkt “Die Achillesfersen aktueller KIs”. Haben Sie noch Fragen oder Ideen? Nehmen Sie gerne Kontakt mit uns auf.
Apple Intelligence: Apple stellt neue KI-Funktionen für iPhone und Mac vor // t3n.de, Deutsch
Apple hat auf der WWDC 2024 neue KI-Funktionen unter dem Namen "Apple Intelligence" vorgestellt. Dazu gehören eine verbesserte Version von Siri, Schreibhilfen, Bildgenerierung und KI-gestützte Funktionen in Apps wie Mail, Fotos und Notizen. Die meisten Anfragen werden direkt auf dem Gerät verarbeitet, um die Privatsphäre zu schützen. Allerdings setzen die neuen Funktionen ein Gerät mit M-Prozessor voraus, beim iPhone sogar ein iPhone 15 Pro oder Pro Max. Zudem wird Apple Intelligence zunächst nur als Beta und auf Englisch verfügbar sein.
Ein Aspekt der Apple Ankündigung kann aus unserer Sicht nicht genug hervorgehoben werden: Die lokal laufenden KI-Modelle sind ein signifikanter Game-Changer. Es ist davon auszugehen, dass Mitbewerber wie Google ebenfalls nachziehen werden. Denn dies löst auf einen Schlag die Datenschutzproblematik vor allem in Europa, da KI-Anfragen das Gerät nicht mehr verlassen müssen. Außerdem senkt es die Nutzungskosten dramatisch, wenn keine Serverzeit bezahlt werden muss. Eine intensive Nutzung der KI-Features wird sich höchstens auf die Batterielaufzeit auswirken.
Die lokalen Modelle sind zwar kleiner und leistungsschwächer als moderne serverbasierte Varianten, aber auch spezialisierter auf bestimmte Smartphone-Anwendungsfälle. Es bleibt abzuwarten, ob dies eine höhere Nutzbarkeit und Nützlichkeit im Alltag mit sich bringt oder nicht.
Auf jeden Fall sind wir den persönlichen Assistenten und Coaches, die wir immer bei uns tragen, einen Schritt näher gekommen. Welchen Einfluss wird dies auf das Lernen haben?
OpenAI-CTO dämpft Erwartungen an radikal verbesserte KI-Modelle in naher Zukunft // the-decoder.de, Deutsch
In einem Interview dämpft OpenAIs CTO Mira Murati die Erwartungen an radikal verbesserte KI-Modelle in naher Zukunft. Sie stellt klar, dass die internen Systeme von OpenAI technisch nicht weit von den öffentlich zugänglichen Modellen entfernt sind. Das impliziert, dass zeitnah keine großen Leistungssprünge bei den öffentlichen Modellen zu erwarten sind, da der Prozess von der Entwicklung bis zur Markteinführung langwierig ist. Kritiker sehen darin eine Bestätigung, dass die Skalierung dieser Art von KI-Technologie bereits ein Plateau erreicht hat, während andere weiterhin große Entwicklungssprünge in Aussicht stellen.
Es ist schwer einzuschätzen, wie die Aussagen von Murati zu deuten sind. Unterschätzen wir wieder einmal die Entwicklungsgeschwindigkeit von KI-Anwendungen? Wird die Veröffentlichung von neuen Features bewusst gebremst, um die Gesellschaft nicht zu überfordern? Oder haben wir tatsächlich ein Leistungsplateau erreicht, mit den aktuellen Trainingsmethoden?
Fakt ist, dass mit Hochdruck daran gearbeitet wird, das Training von KI-Modellen weiter zu optimieren. Es muss also jederzeit mit neuen Technologiesprüngen gerechnet werden, die das Ergebnis von Entwicklungen sind, die jetzt noch gar nicht antizipiert werden können.
Eine Verschnaufpause ist sicher wünschenswert, aber wir warnen davor, die eigene Strategie auf einer angenommenen Stagnation zu basieren. Wie sieht Ihre KI-Strategie aus?
Sprachmodelle schaffen simple Logikaufgabe nicht // golem.de, Deutsch
Ein internationales Forschungsteam hat verschiedene Large Language Models (LLMs) mit einer einfachen Logikaufgabe konfrontiert: "Alice hat N Brüder und außerdem M Schwestern. Wie viele Schwestern hat der Bruder von Alice?" Die Ergebnisse zeigen, dass die meisten Modelle Schwierigkeiten haben, diese Aufgabe zuverlässig zu lösen, obwohl sie in standardisierten Benchmarks gute Ergebnisse erzielen. Selbst die besten Modelle wie GPT-4o erreichen nur eine Erfolgsquote von maximal 65 Prozent. Ein zusätzliches Problem ist, dass viele Modelle ihre falschen Ergebnisse überzeugend verteidigen können, was bei Nutzern den Eindruck erwecken kann, dass die Aufgaben korrekt gelöst wurden.
Es ist in der Tat erstaunlich zu sehen, wie KI-Modelle einerseits verblüffend gute und hilfreiche Antworten liefern können und andererseits immer noch an einfachen Logikaufgaben scheitern. Auch das Bewältigen von komplexeren Rechnungen ist eine bekannte Schwäche. Das bedeutet ebenfalls, dass die Nützlichkeit von KI aktuell stark kontextabhängig ist. Eine Tatsache, die insbesondere beim Einsatz im Bildungsbereich berücksichtigt werden muss.
Forschung zeigt: Hochwertige Bildungsdaten sind entscheidend für KI-Performance // the-decoder.de, Deutsch
Ein neuer Datensatz namens FineWeb-Edu, der auf Hugging Face heruntergeladen werden kann, unterstreicht die Bedeutung qualitativ hochwertiger Lerninhalte für die Leistung von Large Language Models (LLMs). FineWeb-Edu basiert auf dem Web-Datensatz FineWeb, wurde jedoch nach Bildungsinhalten gefiltert, sodass nur Textdaten mit einem hohen Bildungswert enthalten sind. LLMs, die mit FineWeb-Edu trainiert wurden, übertreffen Modelle, die mit anderen Datensätzen trainiert wurden, insbesondere bei Aufgaben, die Wissen und logisches Denken erfordern. Die Ergebnisse zeigen, dass die Qualität der Trainingsdaten oft wichtiger ist als die schiere Quantität und dass der Zugang zu hochwertigen Datenquellen wie Lehrbüchern oder wissenschaftlichen Publikationen für die Entwicklung leistungsfähiger KI-Modelle entscheidend sein kann.
Hat man beim Training von KI-Modellen bisher vor allem auf Quantität gesetzt, so zeigt sich nun mehr und mehr, dass wir uns einem Punkt nähern, an dem die Qualität der Daten eine immer größere Rolle spielt. Insbesondere die bisher unterentwickelte Fähigkeit des logischen Denkens scheint davon zu profitieren.
Wir glauben, dass es in Zukunft mehr und mehr KI-Modelle geben wird, die mit hochwertigem Expertenwissen trainiert wurden und die bei Bedarf mit anderen KI-Spezialisten interagieren, um die gewünschten Ergebnisse zu erzielen: Ein Netzwerk von spezialisierten KIs. Vergleichbar mit unserem Gehirn, in dem es ebenfalls spezialisierte Bereiche gibt, zwischen denen Informationen ausgetauscht werden. Vermutlich ist dies auch der Weg zur Allgemeinen Künstlichen Intelligenz -einer KI, die dem Menschen ebenbürtig ist.
Million-Dollar-Wettbewerb für Entwicklung von adaptiver Künstlicher Intelligenz // the-decoder.de, Deutsch
Der KI-Forscher François Chollet und Mike Knoop haben den ARC-Preis ins Leben gerufen, einen mit einer Million Dollar dotierten Wettbewerb für die Entwicklung einer KI, die sich an neue Situationen anpassen und einfache Denkaufgaben lösen kann. Ziel ist es, die KI-Forschung wieder auf den Weg zur Entwicklung einer allgemeinen künstlichen Intelligenz (AGI) zu bringen, da heutige KI-Systeme oft an ihre Grenzen stoßen, wenn sie mit neuen, unbekannten Problemen konfrontiert werden. Der ARC-Preis baut auf dem von Chollet bereits 2019 veröffentlichten ARC-Benchmark auf und soll den Fokus auf die Entwicklung von KI-Systemen mit menschenähnlichen kognitiven Fähigkeiten lenken.
Chollet und Knoop wollen mit Ihrem Wettbewerb das bereits weiter oben genannte Problem der unterentwickelten Logikfähigkeit von KIs adressieren. Wir möchten Sie ermutigen, sich auf der ARC-Webseite selbst ein Bild davon zu machen, an welchen Fragen KIs aktuell noch scheitern. Können Sie die Aufgaben lösen?
Auf der Webseite wird auch noch einmal definiert, was die Wissenschaftler unter AGI verstehen: AGI ist kein System, das einen Großteil der ökonomisch wertvollen Arbeit automatisieren kann, sondern ein System, das sich effizient neue Fähigkeiten aneignet und komplexe, bisher ungelöste Probleme meistert.