Durchblick #34: Wie die Mensch-Maschine-Interaktion sich verändert
Updates für Bildung in einer exponentiellen Welt
Liebe Leser und Leserinnen,
willkommen zum neuen “Durchblick”. Soziale Netzwerke, die von autonomen Avataren bevölkert sind? Nicht menschliche Arbeitskollegen, die zu einem Umdenken in den Personalabteilungen führen? Was wie ein Skript für einen Science-Fiction-Film klingt, könnte bereits in den nächsten Jahren Realität werden.
Lassen Sie sich inspirieren, heute vom Schwerpunkt “Ankunft der autonomen Avatare”. Haben Sie noch Fragen oder Ideen? Nehmen Sie gerne Kontakt mit uns auf.
Butterflies – KI-Charaktere mischen im neuen sozialen Netzwerk mit // heise.de
Butterflies ist ein neues soziales Netzwerk, in dem Menschen und KI-generierte Avatare interagieren. Nutzer können eigene KI-Charaktere erstellen, die autonom Beiträge posten, aber von ihren Erschaffern kontrolliert werden können. Die Plattform funktioniert ähnlich wie bekannte soziale Netzwerke mit Feeds und Followern. Butterflies ist als kostenlose App verfügbar und finanziert sich durch Investoren. Auch andere Plattformen wie Meta, Snapchat und TikTok planen bereits den Einsatz von KI-Avataren.
Die Grenzen zwischen Mensch und Maschine in sozialen Netzwerken verschwimmen zusehends und für unsere Kinder wird es bald schon normal sein, mit virtuellen Entitäten zu interagieren. Doch wie verändert das unseren Bezug zu Wahrheit und Realität? Wenn Lernende zunehmend mit KI-Charakteren interagieren, die schwer von echten Menschen zu unterscheiden sind, wird dies neue Kompetenzen im Umgang mit digitalen Identitäten und der Bewertung von Informationen erfordern. Eine spannende Herausforderung für unser Bildungssystem und die Gesellschaft im Allgemeinen.
Humor: KI-Unternehmen wollen ihre Chatbots lustiger machen // t3n.de
KI-Unternehmen wie Anthropic, xAI und Deepmind arbeiten daran, ihre Chatbots mit Humor auszustatten, um die Kommunikation mit Nutzern angenehmer und natürlicher zu gestalten. Eine Studie von Deepmind ergab jedoch, dass professionelle Komiker die derzeitigen KI-Tools als fade, unoriginell und übermäßig politisch korrekt empfinden. Die Entwicklung humorvoller KI stellt eine Herausforderung dar, da Humor oft kontextabhängig und zutiefst menschlich ist. Dennoch sehen Unternehmen wie Anthropic Fortschritte in diesem Bereich, wie beispielsweise mit dem neuen Modell Claude 3.5 Sonnet. Die Integration von Humor in KI-Systeme ist wichtig, um Chatbots zu entwickeln, mit denen Nutzer gerne kommunizieren. Allerdings gilt es, das Gleichgewicht zwischen Humor und potenziellem Schaden für bestimmte Gruppen zu wahren, da Humor auch polarisierend sein kann.
Der Umgang mit Humor erfordert ein hohes Maß an Kontextverständnis, Empathie und ethischem Urteilsvermögen. Ist das zutiefst menschlich, oder kann es auch einer KI zugetraut werden? Für eine realistische Simulation von “digitalen Menschen” wird diese Hürde auf jeden Fall genommen werden müssen. Star Trek Fans werden sich an die fast verzweifelten Versuche des Androiden “Data” erinnern, sich Humor anzueignen. Dort schrieben wir bereits das Jahr 2364. Werden wir tatsächlich in der Lage sein, diese Science-Fiction schon in den nächsten Jahren Wirklichkeit werden zu lassen?
Auf Nachfrage bei ChatGPT, gibt sich die KI philosophisch: “Im Lachen offenbart sich oft eine tiefere Wahrheit, die keine Maschine erfassen kann”.
Moralischer Turing-Test: GPT-4o liefert laut Studie ethischen Rat auf Expertenniveau // the-decoder.de
Eine Studie der University of North Carolina at Chapel Hill und des Allen Institute for Artificial Intelligence untersuchte, ob große Sprachmodelle wie GPT als "moralische Experten" angesehen werden können. In zwei Experimenten bewerteten Teilnehmer die moralischen Erklärungen und Ratschläge von GPT im Vergleich zu denen von Menschen. Die Ergebnisse zeigten, dass GPT-3.5-turbo und GPT-4o in fast allen Kriterien besser abschnitten als menschliche Teilnehmer, einschließlich eines renommierten Ethikexperten. Die KI-generierten Inhalte wurden als moralisch korrekter, vertrauenswürdiger und durchdachter eingestuft. In der Studie wird gezeigt, dass moderne KI-Systeme den "Comparative Moral Turing Test" bestehen können, auch wenn sie noch durch den klassischen Turing-Test fallen. Die Ergebnisse haben Bedeutung für die Integration von KI in Bereiche, die komplexe ethische Entscheidungen erfordern.
Das im vorherigen Kommentar als notwendig genannte ethische Urteilsvermögen von KIs scheint bereits erstaunlich ausgeprägt zu sein. Doch könnten sie damit bereits als unvoreingenommener und konsistenter Ratgeber dienen, der uns hilft, ethische Dilemmata zu navigieren und fundierte Entscheidungen zu treffen?
Wir sind noch skeptisch. Denn wollen wir uns wirklich auf die moralische Urteilskraft von Maschinen verlassen, die letztlich auf den Daten und Werten basiert, mit denen sie trainiert wurden? Wie gehen wir mit kulturellen Unterschieden und der Vielfalt ethischer Perspektiven um?
Wenn wir in sozialen Netzwerken, beim Lernen und am Arbeitsplatz zunehmen von immer überzeugender agierenden KIs umgeben sind, denen wir vertrauen sollen, dann wird dies zwangsläufig dazu führen müssen, dass beim Training auch kulturelle Unterschiede stärker berücksichtigt werden. Denn die eine universelle Wahrheit zu Ethik und Moral gibt es nicht.
Laut Microsofts "CEO of AI" dauert es bis zu verlässlich handelnden KI-Modellen bis GPT-6 // the-decoder.de
Mustafa Suleyman, CEO of AI bei Microsoft, erwartet, dass KI-Modelle in den nächsten zwei Jahren in eng umgrenzten Anwendungsfällen weitgehend autonom agieren können. Für konstant präzise Ergebnisse seien jedoch noch zwei Modellgenerationen und bis zu 100 Mal mehr Rechenleistung erforderlich. Suleyman betont, dass es nicht um neue Fähigkeiten, sondern um eine genauere Zuordnung zwischen Prompt und Ausgabe gehe. Er sieht die besten Erfolgsaussichten in Bereichen, in denen eine gewisse Ungenauigkeit akzeptabel ist. Vollständige Autonomie hält er für gefährlich und regulierungsbedürftig. Laut Suleyman wird die Qualität der Trainingsdaten zum entscheidenden Faktor für den Erfolg von KI-Systemen. Er rät Start-ups, sich darauf zu konzentrieren, mit ihrer Anwendung hochwertige Daten zu sammeln. Die Zukunft gehöre personalisierten KI-Assistenten, die den Nutzer durch sein gesamtes digitales Leben begleiten.
Sollte Suleyman recht behalten, dann müssen KI-Systeme innerhalb der nächsten zwei Jahre mit einem robusten ethischen und moralischen Kompass ausgestattet werden. Sie benötigen die Fähigkeit, komplexe soziale Situationen zu navigieren, Empathie zu zeigen und emotionale Intelligenz zu demonstrieren. Denn nur wenn sie in der Lage sind, die Konsequenzen ihrer Handlungen zu verstehen und verantwortungsvolle Entscheidungen zu treffen, die im Einklang mit unseren Werten stehen, können wir sie auch autonom agieren lassen.
Zwischen Mensch und Maschine: Was macht eigentlich ein Human Robot Relations Manager? // t3n.de
Der Artikel beschreibt die mögliche Entstehung eines neuen Berufsfelds in der Personalarbeit: Human-Robot-Relations-Manager:innen. Diese Rolle könnte in Zukunft wichtig werden, wenn Menschen und KI-gestützte Systeme wie Cobots verstärkt zusammenarbeiten. Aufgabe dieser Spezialist:innen wäre es, bei Konflikten und Missverständnissen zwischen menschlichen und nicht menschlichen Teammitgliedern zu vermitteln und für reibungslose Abläufe zu sorgen.
Dafür braucht es neben Fähigkeiten im Beziehungsmanagement und in der Krisenkommunikation auch ein grundlegendes Verständnis für IT-Prozesse. Expert:innen sehen die Notwendigkeit, Mitarbeitende frühzeitig im Umgang mit KI zu schulen und ethische, rechtliche und datenschutzrechtliche Rahmenbedingungen zu berücksichtigen.
Aktuell gibt es diese spezialisierte Rolle noch nicht, da der flächendeckende Einsatz autonomer KI und Roboter in deutschen Unternehmen auf sich warten lassen wird. Jedoch könnte sich das Profil von HR-Manager:innen wie People Partner in diese Richtung weiterentwickeln, indem sie lernen, KI-Funktionen zu erklären und Vorurteile abzubauen.
Der Berufswelt stehen ohne Zweifel tiefgreifende Veränderungen bevor. Eine enge Zusammenarbeit von Mensch und Maschine, bis hin zu vollwertigen nicht menschlichen Arbeitskollegen, erscheint aktuell noch zwar noch undenkbar. Aber vieles deutet darauf hin, dass wir in diese Richtung steuern. Es wird Zeit, sich intensiver mit diesem Gedanken auseinanderzusetzen und rechtzeitig die notwendigen Vorbereitungen zu treffen.
Neuigkeiten und Termine
17.07.2024 // Lehrerfortbildung Künstliche Intelligenz
Schulartübergreifende Fortbildung in der Stadthalle Freistett09.07.2024 // Willkommen im Exponentiellen Zeitalter
Netzwerkveranstaltung in Baden-Baden01.07.2024 // Klausurtagung des Regierungspräsidiums Freiburg
Vortrag und Workshop über 2 Tage