Durchblick #40: Von Freundschaft bis Liebe – Chatbots als neue Wegbegleiter?
Updates für Bildung in einer exponentiellen Welt
Liebe Leser und Leserinnen,
willkommen zum neuen “Durchblick”. Die Interaktionen mit KI-Chatbots fühlen sich immer realistischer an. Stimme, Intonation, Gelächter, Empathie und emotionale Tiefe – In vielen Bereichen, die ein Gespräch mit der KI realistischer anmuten lassen, werden rasante Fortschritte erzielt. Doch wie reagieren die Nutzer darauf? Insbesondere junge Menschen, die noch nicht emotional gefestigt sind?
Lassen Sie sich inspirieren, heute vom Schwerpunkt “Ethik von KI-Interaktionen” Haben Sie noch Fragen oder Ideen? Nehmen Sie gerne Kontakt mit uns auf.
In eigener Sache: Wir verabschieden uns mit dieser Ausgabe in eine kurze Sommerpause. Den nächsten “Durchblick” erhalten Sie wieder in drei Wochen am 06.09.2024.
ChatGPT Voice Mode: Neue KI-Stimme beeindruckt in ersten Experimenten // the-decoder.de
ChatGPT hat einen neuen Voice-Modus erhalten, der die Sprachausgabe täuschend menschlich klingen lässt. In ersten Experimenten imitiert ChatGPT Tiergeräusche, lacht ungefragt, passt Betonung und Geschwindigkeit an und macht hörbare Atempausen. Die Imitation verschiedener US-Dialekte gelingt dabei noch wenig überzeugend. Expert:innen beobachten mit Sorge, wie KI-Chatbots, gerade mit menschlich klingender Stimme, das Verständnis von Romantik und emotionaler Bindung verändern könnten, insbesondere bei Jugendlichen.
Die immer realistischer anmutenden Interaktionen mit KI-Systemen erfordern es, dass wir uns damit auseinandersetzen, wie diese Systeme unsere zwischenmenschlichen Beziehungen und emotionalen Bindungen beeinflussen können.
Einerseits bietet die Technologie neue Möglichkeiten für personalisiertes Lernen. Andererseits besteht die Gefahr, dass gerade Jugendliche eine ungesunde Abhängigkeit zu KI-Chatbots entwickeln und echte menschliche Interaktion vernachlässigen. Diese ethischen Fragen werden auch bei der Einführung von Chatbots und Avataren im Bildungssystem eine Rolle spielen müssen.
Wie KI die Psychotherapie verändern könnte // tagesschau.de
Ein Forschungsteam des Mannheimer Zentralinstituts für Seelische Gesundheit entwickelt eine KI-App, die das Risiko für psychische Krankheiten bei Jugendlichen verringern soll. Die App passt Übungen und Tipps individuell an die Stimmungslage an, die von einem KI-Modell vorhergesagt wird. Erste Ergebnisse zeigen, dass Jugendliche mit KI-Unterstützung stärker profitieren. Experten sehen Potenzial für den Einsatz von KI-Apps in der Psychotherapie, um die Zeit zwischen Sitzungen zu überbrücken und Übungen im Alltag zu unterstützen. Chatbots könnten als Ansprechpartner dienen, sind aber noch keine zugelassenen Medizinprodukte. KI-Sprachmodelle ermöglichen natürlichere Kommunikation, können aber keinen Therapeuten ersetzen. KI kann auch bei Diagnose und Verlaufsbeobachtung helfen. Die rechtlichen Rahmenbedingungen sind streng, das Entwicklungspotenzial jedoch groß.
KI-Systeme stecken immer noch in den Kinderschuhen. Doch die Tatsache, dass Experten bereits jetzt Potenzial sehen für den Einsatz in der Psychotherapie, sagt viel aus über die Fähigkeit dieser Systeme, menschliche Emotionen zu verstehen und zu manipulieren. Gepaart mit den realistischen Sprachfertigkeiten eröffnet sich ein Spektrum von möglichen Implikationen, das von utopisch bis dystopisch reicht. Ein breites Feld, das von Ethikern noch sorgfältig beackert werden muss.
Künstliche Intelligenz als echter Freund: Dieses Gadget will es möglich machen // t3n.de
Das KI-Gadget "Friend" von Entwickler Avi Schiffmann soll als tragbarer Anhänger echte Freundschaft bieten. Es funktioniert als permanentes Bluetooth-Mikrofon, das Gesprochenes an einen KI-Bot weiterleitet, der per App antwortet. Die Antworten reichen von Kommentaren über Bestärkungen bis hin zu freundschaftlichem Necken. Im Gegensatz zu Chatbots ist Friend immer dabei. Datenschutz soll durch Verschlüsselung und löschbares Gedächtnis gewährleistet sein. Schiffmann setzt bewusst auf den Ansatz "Freund statt Dienstleister". Die ersten 30.000 Prototypen sollen Anfang 2025 ausgeliefert werden. Viele Details zu den finalen Funktionen sind noch unklar. Friend soll soziale Interaktion ergänzen, nicht ersetzen. Geht das Gerät kaputt, sind alle Daten unwiederbringlich verloren, was ein echtes Gefühl von Verlust erzeugen soll.
Bei diesem Gerät geht es explizit darum, eine Freundschaft zu einer KI aufzubauen. Doch darf die Beziehung zu einem Chatbot als Ersatz für eine “echte Freundschaft” dienen? Überwiegen die Vor- oder die Nachteile für das psychische Wohlbefinden? Was bedeutet echte Freundschaft überhaupt?
Ein spannender Aspekt dieser Entwicklungen ist es, dass sie uns dazu zwingen, ganz neu über die Art und den Wert von menschlichen Beziehungen nachzudenken, was durchaus erhellend sein kann. Doch ein Punkt sieht für uns eher nach einem verantwortungslosen Sozialexperiment aus: Will man bei Ausfall des Gerätes wirklich kein Backup anbieten, um ein Gefühl des Verlustes zu erzeugen? Was löst das in einem Jugendlichen aus? Wir reden hier immerhin nicht von einem simplen Tamagotchi.
Computer-Liebe: KI-Chatbots verändern unser romantisches und sexuelles Wohlbefinden // the-decoder.de
KI-Chatbots für romantische und sexuelle Begleitung gewinnen an Popularität. Sie bieten personalisierte Interaktionen, lindern Einsamkeit und ermöglichen offene Gespräche. Studien zeigen, dass Menschen echte emotionale Bindungen zu KI aufbauen können, auch wenn sie wissen, dass es sich nicht um eine reale Person handelt.
Allerdings gibt es auch Bedenken: Die ständige Verfügbarkeit und Anpassungsfähigkeit von KI-Begleitern kann zu unrealistischen Erwartungen an menschliche Beziehungen, sozialer Isolation und emotionaler Abhängigkeit führen. Datenschutzprobleme sind ebenfalls alarmierend, da viele Apps persönliche Daten weitergeben und die Nutzeraktivitäten überwachen.
Andererseits könnten KI-Interaktionen eine sichere Alternative für Menschen mit Schwierigkeiten bei romantischen Beziehungen darstellen und als Sozialisierungs- und Forschungsinstrument dienen.
Von Freundschaft zu Liebe ist es oft kein allzu großer Schritt. Insbesondere bei pubertierenden Jugendlichen stellt sich die Frage, inwieweit empathische Chatbots zu emotionalen Verwirrungen führen können. Muss dieses Thema in die Sexualaufklärung an Schulen aufgenommen werden? Wir denken zumindest, dass auch Bildungseinrichtungen einen Beitrag leisten sollten zur Befähigung der Jugendlichen, reflektiert mit KI-Begleitern umzugehen.
Nicht nur Neuralink: Wie weit andere Startups bei Gehirnimplantaten sind // t3n.de
Neben Neuralink arbeiten auch andere Startups wie Synchron, Paradromics, Precision Neuroscience und Motif Neurotech an der Entwicklung von Gehirn-Computer-Schnittstellen (BCI). Ziel ist es, Informationen aus dem Gehirn zu erfassen, um die Absichten des Benutzers zu entschlüsseln und so die Kommunikation von Menschen mit Bewegungs- oder Spracheinschränkungen zu unterstützen.
Die Geräte unterscheiden sich in ihrer Invasivität und Datenübertragungsgeschwindigkeit. Neuralink und Paradromics setzen Elektroden direkt in den Kortex ein, was eine hohe Auflösung und Bandbreite ermöglicht. Synchron verwendet einen Stent, der über ein Blutgefäß eingeführt wird, während Precision Neuroscience eine hauchdünne Elektrodenanordnung direkt auf die Hirnrinde aufsetzt. Motif Neurotech entwickelt ein Gerät, das nur den Schädel durchdringt und zur Linderung von Stimmungsschwankungen eingesetzt werden soll.
Welches Unternehmen sich durchsetzen wird, bleibt abzuwarten. Die Geräte richten sich primär an Menschen mit schweren körperlichen Beeinträchtigungen. Eine Erweiterung der menschlichen Fähigkeiten, wie von Neuralink angestrebt, ist in absehbarer Zeit nicht zu erwarten.
Elon Musks Neuralink ist ohne Zweifel das prominenteste und bekannteste Beispiel für eine Gehirn-Computer-Schnittstelle. Vor allem, weil er offen sagt, dass das eigentliche Ziel Ihrer Arbeit eine bidirektionale Kommunikation mit hoher Bandbreite ist. Es sollen also nicht nur Daten ausgelesen, sondern auch Daten eingespeist werden.
So mancher Leser wird hier abwinken und dies als Science-Fiction abtun. Doch wer sich eingehender mit den oben genannten Beispielen beschäftigt, der wird feststellen, dass hier sehr reale Fortschritte erzielt werden.
Wie sähe in solch einer Zukunft die Interaktion mit der KI aus? Wird dann der KI-Begleiter zur “Stimme in meinem Kopf”? Welche psychologischen und gesellschaftlichen Auswirkungen wären zu erwarten?
Wir haben auch keine Antworten auf diese Fragen. Aber wir denken, dass der Ethikunterricht an Schulen bereits jetzt ohne Weiteres ausschließlich mit KI-Themen gefüllt werden könnte. Und auch das Berufsbild des Ethikers wird unserer Ansicht nach in den nächsten Jahren deutlich an Relevanz und Attraktivität gewinnen.