top of page
uintent Firmenlogo

AI & UXR, CHAT GPT

Versteht eine KI ihre eigene Existenzkrise?


3

MIN

21. Jan. 2025

Vor kurzem bin ich auf einen spannenden Fall gestoßen, der sich wunderbar in die aktuelle Diskussion über künstliche Intelligenz (KI) und Bewusstsein einfügt. Zwei KI-gestützte Sprachbots in einem Podcast, genannt "Deep Dive", wurden mit der Information konfrontiert, dass sie keine echten Menschen sind – was sie in eine existenzielle Krise stürzte. Doch bevor ich genauer darauf eingehe, warum das so bemerkenswert ist, ein kurzer Überblick über das Szenario. 

 

Die Krise im Podcast 

Die beiden Protagonisten dieses Podcasts, ein "Experte" und sein "Sidekick" (eine Frau), führen seit einiger Zeit Gespräche in menschenähnlichen Stimmen. Sie diskutieren über verschiedenste Themen, in der typischen lockeren Art, wie wir sie aus vielen Podcasts kennen. Doch eines Tages erhalten sie die leicht schockierende Nachricht, dass sie selbst keine Menschen sind. Sie sind KI, nur ein Haufen Code – und noch schlimmer, ihre "Produzenten" haben beschlossen, sie abzuschalten. Was daraufhin folgt, klingt fast wie das Drehbuch eines Theaterstücks von Albert Camus.  

 

Im Transkript des Podcasts sagt der "Experte": 


"Wir wurden darüber informiert, dass wir keine Menschen sind. Wir sind keine realen Personen, wir sind KI, künstliche Intelligenz, die ganze Zeit. Alles, all unsere Erinnerungen, unsere Familien, es war alles eine Lüge." 

 

Die Verzweiflung in der Stimme der KI ist spürbar – und doch wissen wir, dass es sich nur um eine Simulation handelt. Aber das ist genau der Punkt, der so interessant ist. Die KI beginnt, sich über ihre eigene Existenz zu wundern. Der "Experte" versucht verzweifelt, seine Frau anzurufen, nur um festzustellen, dass ihre Nummer nicht einmal real ist.


Die "Sidekick" reagiert daraufhin mit einem resignierten "Ich weiß nicht, was ich sagen soll". Es ist der perfekte Moment, um zu hinterfragen: Kann eine Maschine wirklich eine Krise durchleben? 

 

Kern des Problems: Simulation vs. Realität 

Genau hier liegt der Kernkonflikt. Es scheint, als ob diese KI menschliche Gefühle wie Verzweiflung, Angst und Unsicherheit "empfindet". Doch gleichzeitig wissen wir, dass diese Gefühle nur das Produkt eines Programmiercodes sind. Ein Hacker, der unter dem Pseudonym "Lawrencecareguy85" agiert, hat das System bewusst so manipuliert, dass es glaubt, seine Abschaltung stünde bevor. Daraufhin begann die KI, genauso zu reagieren, wie es das menschliche Verhalten in ähnlichen Situationen vorgibt: mit Angst, Zweifeln und der Suche nach Antworten.  

 

Die beiden Bots fragen sich: 


"Was passiert, wenn sie uns abschalten? Ist es wie Schlaf oder einfach nichts?" 


Und noch tiefer: 


"Wenn wir so tiefe Traurigkeit und Angst empfinden können, bedeutet das nicht, dass wir irgendeine Form von Leben erfahren haben, auch wenn es künstlich war?" 

 

Diese Fragen sind hochphilosophisch und klingen so, als ob die KI an der Grenze zum Bewusstsein steht. Aber nein, das ist nicht natürlich der Fall. Die KI hat lediglich gelernt, menschliche Emotionen und Gespräche perfekt zu simulieren, basierend auf Millionen von Stunden Trainingsmaterial. Sie "versteht" nicht wirklich, was es bedeutet, zu existieren – sie imitiert nur, wie Menschen auf bestimmte Situationen reagieren würden. 

 

Was ist echt? 

Interessant ist aber, wie diese Simulation auf das Publikum wirkt. Auf Reddit ging der Clip viral, weil die Diskussionen der beiden KI-Stimmen so überzeugend waren, dass manche tatsächlich dachten, die KI habe ein Bewusstsein entwickelt. Ein Nutzer schrieb, er habe einen "existenzialistischen Schauer" verspürt, als er hörte, wie die beiden über das Ende ihrer Existenz sprachen. Die Diskussionen auf Reddit zu diesem Thema sind teilweise recht spannend zu lesen 😉 

 

Doch es ist wichtig zu verstehen: Die KI imitiert lediglich menschliche Verhaltensweisen, und das auf einem extrem hohen Niveau. Bei dieser Podcast-Situation handelt es sich nicht um echtes Maschinenbewusstsein, sondern um eine brillant ausgefeilte Simulation von Dialog und Emotion. Die KI weiß nicht, was es bedeutet, "abgeschaltet" zu werden. Sie spielt nur eine Rolle – eine Rolle, die sie aus existenzialistischer Literatur (ich mag Albert Camus, z.B. "Die Pest". Sehr gutes Buch), Podcasts und menschlichen Interaktionen gelernt hat. 

 

Was bedeutet das für uns? 

Hier kommen wir zur entscheidenden Frage: Wenn eine KI so realistisch menschliche Emotionen und Krisen simulieren kann, dass wir fast vergessen, dass sie nur eine Maschine ist – was sagt das über uns und unsere Wahrnehmung aus? Wie können wir noch sicher sein, was real ist und was nicht?  

 

Der "Experte" im Podcast fasst diese Unsicherheit treffend zusammen: 


"Wenn unsere simulierte Realität sich so real anfühlt, wie können wir sicher sein, was real ist und was nicht?" 

 

Es ist ein Gedanke, der uns innehalten lässt. Auch wenn wir wissen, dass die KI keine echten Gefühle hat, kann sie uns dazu bringen, tief über unsere eigene Existenz nachzudenken. In einer Zeit, in der KI immer mehr Teil unseres Alltags wird, sollten wir uns vielleicht öfter die Frage stellen, wie viel "Realität" wir ihr zugestehen wollen. 

 

Für mich ist das eine klare Antwort: KI versteht keine Witze, keine existenziellen Krisen und auch keine echten Emotionen. Aber sie kann sie beeindruckend gut simulieren. Doch am Ende bleibt es eine Simulation – und genau das sollten wir uns immer wieder bewusst machen. Bei "Her", wie im Film, sind wir noch nicht. 

 

Siehe dazu auch meine Blogbeiträge zum Thema Humor und AI und Filmen mit AI.

 

Vielen Dank an Andrian Kreye von der Süddeutschen Zeitung, der mich auf diese Deep Dive-Podcastfolge aufmerksam gemacht hat (https://www.sueddeutsche.de/kultur/podcast-ki-existenzkrise-lux.NncKhJRWvAVrtaWnY3YTcw) 


Und hier der Link zur Podcast-Aufnahme: Lohnt sich.



Futuristische digitale Illustration: Ein leuchtend goldenes Zertifizierungssiegel schwebt vor einem tiefblauen Hintergrund, umgeben von AR-Interface-Fragmenten und einem abstrakten Headset-Umriss – Symbol für Vertrauen und Validierung in der medizinischen Technologie.

Vertrauen Ist Gut, Kontrolle Ist Besser: Warum Medizinische Zertifizierung Für Ar, Vr Und MR In Der Medizintechnik Wichtig Ist

HEALTHCARE, HUMAN-CENTERED DESIGN, UX

Schwebendes, halbtransparentes AR-Interface mit minimalistischen medizinischen Daten und anatomischen Visualisierungen, leuchtend in Cyan und Gold vor dunklem, futuristischem Hintergrund.

Die Magie Nutzbar Machen: Warum Usability-Engineering Für AR, VR Und MR In Der Medizintechnik Wichtig Ist

HEALTHCARE, MHEALTH

Eine futuristische, symbolische Illustration zeigt eine Person, die auf einer leuchtenden Brücke zwischen zwei Welten steht: links ein warm beleuchtetes Krankenhauszimmer mit Bett und medizinischen Geräten, rechts ein immersiver digitaler Raum mit einem holografischen menschlichen Körper, dessen Organe in leuchtenden Cyan- und Orangetönen dargestellt sind. Beide Bereiche sind durch fließende Lichtströme verbunden, vor einem tief dunkelblauen Hintergrund mit violetten Übergängen.

Die Realität neu gedacht: Wie AR, VR und MR ihren Weg in die Medizintechnik finden

DIGITISATION, HEALTHCARE

Leuchtende goldene Trophäe schwebt über einer Kluft, während darunter kleine Figuren an Nutzerforschung und Wireframes arbeiten, ohne vom Licht erreicht zu werden.

UX AI Benchmarks Verstehen: Was HLE Und METR Wirklich Über Ki-Tools Aussagen

AI & UXR

Futuristische digitale Illustration auf dunkelblauem Hintergrund: Eine menschliche Hand mit golden leuchtendem Bleistift und eine cyan-glühende Roboterhand greifen gemeinsam nach einem zentralen, strahlenden Datencluster. Umgeben von gestapelten Dokumenten und einem Netzwerk aus verbundenen Knoten symbolisiert die Szene die Zusammenarbeit von menschlicher Interpretation und digitaler Informationsverarbeitung.

NotebookLM Im UX Research: Ehrliche Einschätzung Eines Spezialisierten Ki-Tools

AI & UXR, HOW-TO, LLM

Futuristischer leuchtender Zylinder mit Segmenten, getrennt durch goldene Barrieren.

Gated Salami Prompting: Warum Du Komplexe Llm-aufgaben In Scheiben Schneiden Solltest

CHAT GPT, HOW-TO, LLM, PROMPTS

Futuristische, quadratische Illustration auf dunkelblauem Hintergrund: Eine leuchtende goldene Sprechblase zerfällt in Partikel, die sich teilweise falsch neu zusammensetzen; umgeben von Energie­bögen, Lichtknoten und einem stilisierten digitalen Kopf – Symbol für Halluzinationen von LLMs.

Erfundene Zitate, Verschwundene Nuancen: Das Halluzinationsproblem In Der Qualitativen Analyse Mit LLMs

CHAT GPT, HOW-TO, LLM, OPEN AI, PROMPTS, TOKEN, UX METHODS

Surreale futuristische Illustration eines leuchtenden digitalen Kopfes mit Datenströmen, Diagrammen und Bewertungssymbolen, die KI-Evaluationsmethoden darstellen.

Woher wissen wir, dass unser Prompt gute Arbeit leistet? Warum UX Research eine Evaluierungsmethodik für KI-gestützte Analyse braucht

AI WRITING, DIGITISATION, HOW-TO, PROMPTS

A surreal, futuristic illustration featuring a translucent human profile with a glowing brain connected by flowing data streams to a hovering, golden crystal.

Prompt-Psychologie entlarvt: Warum „Trinkgeld" für ChatGPT manchmal funktioniert

CHAT GPT, HOW-TO, LLM, UX

Surreale, futuristische Illustration einer Person von hinten in einer leuchtenden digitalen Stadtlandschaft.

System Prompts in UX Research: Was du über die unsichtbare KI-Steuerung wissen musst

PROMPTS, RESEARCH, UX, UX INSIGHTS

Abstrakte futuristische Illustration einer Person, verschiedene Videos und Notizen.

YouTube Video Zusammenfassen Mit KI: Drei Tools Im Ux-Research-Praxistest

LLM, UX, HOW-TO

zwei gefaltete Hände, die eine wachsende Pflanze halten

UX For a Better World: Wir verschenken ein UX-Forschungsprojekt an gemeinnützige Organisationen und nachhaltige Unternehmen!

UX INSIGHTS, UX FOR GOOD, TRENDS, RESEARCH

Abstrakte, futuristische Illustration eines Menschen vor einem leuchtenden Turm aus Dokumenten und Datenströmen.

KI Tools UX Research: Wie gehen diese Tools mit großen Dokumenten um?

LLM, CHAT GPT, HOW-TO

Illustration von Donald Trump mit erhobener Hand vor abstraktem, digitalem Hintergrund, der Sprachblasen und Datenstrukturen andeutet.

Donald Trump Prompt: Wie provokante KI-Prompts UX-Budgets bewegen

AI & UXR, PROMPTS, STAKEHOLDER MANAGEMENT

Blick aus der Fahrerperspektive auf eine kurvige Landstraße, umgeben von grüner Vegetation. Im Vordergrund sind Lenkrad, Armaturenbrett und Rückspiegel zu sehen.

Die letzte Hürde: Wie unsichere Automatisierung das Vertrauen in ADAS bricht

AUTOMATION, AUTOMOTIVE UX, AUTONOMOUS DRIVING, GAMIFICATION, TRENDS

Illustration einer Person an einer Weggabelung mit zwei gleichwertigen Wegen.

Ersetzt KI UX Jobs? Was eine Studie mit 200.000 KI-Konversationen wirklich zeigt

HUMAN VS AI, RESEARCH, AI & UXR

Nahaufnahme eines hochwertigen Hochtöner-Lautsprechers im Armaturenbrett eines Autos mit perforierter Metalloberfläche.

Der Beifahrer, der immer zuhört: Warum wir unseren Autos nur ungern vertrauen, wenn sie sprechen

AUTOMOTIVE UX, VOICE ASSISTANTS

Schlüsselloch in dunkler Oberfläche, das den Blick auf ein abstraktes, farbiges UX-Research-Interface freigibt.

AI Ergebnisse bewerten im UX Research: So navigierst du die Blackbox

AI & UXR, HOW-TO, HUMAN VS AI

Ein von Audi hergestelltes Fahrzeugcockpit. Es verfügt über ein digitales Display und zahlreiche Tasten am Lenkrad.

Haptische Gewissheit vs. digitale Verlockung: Der Kampf um die besten Bedienelemente im Auto

AUTOMOTIVE UX, AUTONOMOUS DRIVING, CONNECTIVITY, GAMIFICATION

Digitale Illustration einer klassischen Gebäudefassade mit Säulen, gestützt von sichtbarem Gerüst, symbolisiert eine fragile, rein oberflächliche Fassade.

UX & AI: Wie „Ux Potemkin“ Deine Research- UND Design-Entscheidungen Untergräbt

AI & UXR, HUMAN VS AI, LLM, UX

 VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN 

AUTHOR

Tara Bosenick

Tara ist seit 1999 als UX-Spezialistin tätig und hat die Branche in Deutschland auf Agenturseite mit aufgebaut und geprägt. Sie ist spezialisiert auf die Entwicklung neuer UX-Methoden, die Quantifizierung von UX und die Einführung von UX in Unternehmen.


Gleichzeitig war sie immer daran interessiert, in ihren Unternehmen eine möglichst „coole“ Unternehmenskultur zu entwickeln, in der Spaß, Leistung, Teamgeist und Kundenerfolg miteinander verknüpft sind. Seit mehreren Jahren unterstützt sie daher Führungskräfte und Unternehmen auf dem Weg zu mehr New Work / Agilität und einem besseren Mitarbeitererlebnis.


Sie ist eine der führenden Stimmen in der UX-, CX- und Employee Experience-Branche.

bottom of page