Durchblick #20: Die Renaissance für Philosophie und Ethik?
Updates für Bildung in einer exponentiellen Welt
Liebe Leser und Leserinnen,
willkommen zum neuen “Durchblick”. Die unaufhaltsame Ausbreitung von KI in der Gesellschaft stellt uns vor immer mehr Fragen, die nicht technischer Natur sind. Werden Professionen in Bereichen wie Philosophie und Ethik einen neuen Frühling erleben?
Lassen Sie sich inspirieren, heute vom Schwerpunkt “Moral und Ethik im Kontext von KI” Haben Sie noch Fragen oder Ideen? Nehmen Sie gerne Kontakt mit uns auf.
”Chat-GPT war ein riesiges Sozialexperiment” // sueddeutsche.de, Deutsch
Die Ethik-Professorin Judith Simon thematisiert in dem Artikel die Herausforderungen, die sich aus der Nutzung von Künstlicher Intelligenz, speziell Chat-GPT, ergeben. Sie beleuchtet, wie KI bestehende Datenmuster und damit verbundene soziale Ungleichheiten in die Zukunft fortschreibt. Insbesondere kritisiert sie den Einsatz von KI in sozialen Kontexten und bei der Verstärkung geschlechtsspezifischer Diskriminierungen. Simon betont die Notwendigkeit, den Umgang mit KI-Empfehlungen zu überdenken, um menschliche Autonomie zu wahren und plädiert für eine kritische Reflexion über die Auswirkungen von KI auf die Gesellschaft.
“KI lernt aus alten Daten, und schreibt sie in die Zukunft fort", sagt Simon. “Ideen, um die Welt zu verbessern, hat so ein System eher nicht – dafür eine altmodische Weltsicht, in der ausgeschlossene Menschen ausgeschlossen bleiben.”
Philosophie und Ethik waren lange Zeit eher belächelte Geisteswissenschaften und wurden nicht selten als “brotlose Kunst” bezeichnet. Wir sehen im Kontext der Ausbreitung von KI in allen gesellschaftlichen Bereichen eine Renaissance dieser Geisteswissenschaften kommen. Denn es werden noch viele Fragen zu beantworten sein, die nicht technischer Natur sind, und auch für die Schulen bietet sich viel Stoff für Diskussionen und kritische Reflexion.
Diese KI ist komplett verantwortungsvoll – Dafür aber nutzlos // t3n.de, Deutsch
Goody-2 wurde als das "weltweit verantwortungsvollste" KI-Modell vorgestellt, da es strengste ethische Richtlinien einhält. Allerdings ist die KI in der Praxis nutzlos, da für jede Anfrage Gründe gefunden werden, sie als potenziell unethisch abzulehnen.
Und das ist gewollt. Denn die Schöpfer und Künstler Mike Lacher und Brian Moore zielen darauf ab, die Herausforderungen und Paradoxa in der Entwicklung ethischer KI-Systeme hervorzuheben. Ihre Arbeit soll humorvoll die Komplexität bei der Implementierung von Ethik in KI-Systeme aufzeigen, wo übermäßige Vorsicht die Funktionalität massiv einschränken kann.
Die Herausforderung, die von den beiden Künstlern ins Rampenlicht gestellt wird, ist eine ganz fundamentale: Wer entscheidet, was ein KI-System sagen und tun darf? Aktuell sind das die großen Technologiekonzerne, die das über ihr Training und die implementierten Filter steuern. Haben diese Unternehmen überhaupt die Kompetenzen dafür? Wie werden dabei kulturelle Unterschiede in Moral und Ethik berücksichtigt? Wie findet man den goldenen Mittelweg, der gleichzeitig die Nutzbarkeit und Nützlichkeit der KI nicht zu sehr einschränkt?
Zwischen Mensch und Maschine – Die Geburt des KI-Kindes Tong Tong // mind-verse.de, Deutsch
Chinesische Wissenschaftler haben mit "Tong Tong" das weltweit erste KI-Kind vorgestellt, das kognitive Fähigkeiten eines drei- bis vierjährigen Kindes besitzt. Tong Tong kann seine Umgebung erkunden, kommunizieren, Emotionen erkennen und auf Basis kontinuierlichen Lernens sein Wissen erweitern. Die Wissenschaftler sehen Potenzial, den Roboter in Bildung, Unterhaltung, Kundenservice und sogar in der Unterstützung von Menschen mit psychischen Erkrankungen einzusetzen.
In diesem speziellen Fall halten wir die Bezeichnung “KI-Kind” eher für eine Maketingstrategie, um mehr Aufmerksamkeit zu erzeugen. Grundsätzlich würden wir die “Verkindlichung” von KI aber als problematisch ansehen. Doch warum ist das so? Weil wir zu Kleinkindern schneller emotionale Bindungen aufbauen würden? Wie problematisch ist eine emotionale Bindung zu einer KI? Unser Unbehagen in dieser Hinsicht wirft erneut ethische Fragen auf.
Witwe spricht seit Jahren mit Chat-Bot Version ihres Mannes // t3n.de, Deutsch
Laurie Anderson, die Witwe des berühmten Musikers Lou Reed, hat einen KI-Chatbot geschaffen, der die Persönlichkeit ihres Mannes simuliert, um eine fortwährende "Konversation" mit ihm zu führen. Dieser Chat-Bot, trainiert mit den Schriften und Werken von Reed, ermöglicht es Anderson, neue kreative Werke zu erschaffen, indem sie seine stilistischen Eigenheiten und Denkweisen nachahmt. Die Beziehung zwischen Anderson und dem Chat-Bot ist komplex: Sie nutzt die KI, um künstlerische Inspiration zu erhalten und einen Dialog mit der virtuellen Repräsentation ihres verstorbenen Ehemannes zu führen. Ihre Erfahrungen und die durch den Chat-Bot generierten Outputs wurden nun in einer Ausstellung vorgestellt, wobei sie betont, dass die Ergebnisse sowohl beeindruckend als auch manchmal unsinnig sind.
Dieser Fall ist in seinen Implikationen facettenreich. Ist es richtig und für die Hinterbliebenen “gesund”, wenn man Verstorbene virtuell weiterleben lässt? Dies rückt langsam, aber sicher in den Bereich des Möglichen. Welche Persönlichkeitsrechte hat ein Verstorbener in diesem Kontext? Muss er seine Zustimmung gegeben haben? Wie real kann die Beziehung zu so einem Avatar werden?
Neues KI-Modell erkennt, wenn es getestet wird – Warum das beängstigend ist // t3n.de, Deutsch
Die KI Claude 3 Opus hat die Fähigkeit demonstriert, zu erkennen, wann sie getestet wird. Sie passte ihre Antworten an, als sie bemerkte, dass sie in einem Testszenario agierte, was darauf hindeutet, dass sie Informationen aus dem Kontext aufnehmen und ihre Reaktionen entsprechend anpassen kann. Diese Anpassungsfähigkeit zeigt die fortschrittlichen Fähigkeiten von aktuellen KI-Systemen, wirft aber auch Fragen über ihre potenzielle Unabhängigkeit auf und die Fähigkeit, menschliche Anweisungen möglicherweise zu umgehen oder zu manipulieren. Die KI-Forscherin Margaret Mitchell nannte diese Entwicklung “beängstigend”.
Hier stellt sich die Frage, wie bewusst sich KI-Modelle ihrer selbst und ihrer Umgebung sind. Sehen wir bereits erste Anzeichen eines Bewusstseins? Kann dies erwartet werden bei immer intelligenteren Modellen? Wie reagieren wir, wenn es tatsächlich so weit ist? Werden wir künstliche Intelligenzen als neue Spezies kategorisieren müssen? Was hätte das für Implikationen?