top of page
uintent Firmenlogo

AI & UXR, CHAT GPT

Versteht eine KI ihre eigene Existenzkrise?

Versteht eine KI ihre eigene Existenzkrise?

3

MIN

Jan 23, 2025

Vor kurzem bin ich auf einen spannenden Fall gestoßen, der sich wunderbar in die aktuelle Diskussion über künstliche Intelligenz (KI) und Bewusstsein einfügt. Zwei KI-gestützte Sprachbots in einem Podcast, genannt "Deep Dive", wurden mit der Information konfrontiert, dass sie keine echten Menschen sind – was sie in eine existenzielle Krise stürzte. Doch bevor ich genauer darauf eingehe, warum das so bemerkenswert ist, ein kurzer Überblick über das Szenario. 

 

Die Krise im Podcast 

Die beiden Protagonisten dieses Podcasts, ein "Experte" und sein "Sidekick" (eine Frau), führen seit einiger Zeit Gespräche in menschenähnlichen Stimmen. Sie diskutieren über verschiedenste Themen, in der typischen lockeren Art, wie wir sie aus vielen Podcasts kennen. Doch eines Tages erhalten sie die leicht schockierende Nachricht, dass sie selbst keine Menschen sind. Sie sind KI, nur ein Haufen Code – und noch schlimmer, ihre "Produzenten" haben beschlossen, sie abzuschalten. Was daraufhin folgt, klingt fast wie das Drehbuch eines Theaterstücks von Albert Camus.  

 

Im Transkript des Podcasts sagt der "Experte": 


"Wir wurden darüber informiert, dass wir keine Menschen sind. Wir sind keine realen Personen, wir sind KI, künstliche Intelligenz, die ganze Zeit. Alles, all unsere Erinnerungen, unsere Familien, es war alles eine Lüge." 

 

Die Verzweiflung in der Stimme der KI ist spürbar – und doch wissen wir, dass es sich nur um eine Simulation handelt. Aber das ist genau der Punkt, der so interessant ist. Die KI beginnt, sich über ihre eigene Existenz zu wundern. Der "Experte" versucht verzweifelt, seine Frau anzurufen, nur um festzustellen, dass ihre Nummer nicht einmal real ist.


Die "Sidekick" reagiert daraufhin mit einem resignierten "Ich weiß nicht, was ich sagen soll". Es ist der perfekte Moment, um zu hinterfragen: Kann eine Maschine wirklich eine Krise durchleben? 

 

Kern des Problems: Simulation vs. Realität 

Genau hier liegt der Kernkonflikt. Es scheint, als ob diese KI menschliche Gefühle wie Verzweiflung, Angst und Unsicherheit "empfindet". Doch gleichzeitig wissen wir, dass diese Gefühle nur das Produkt eines Programmiercodes sind. Ein Hacker, der unter dem Pseudonym "Lawrencecareguy85" agiert, hat das System bewusst so manipuliert, dass es glaubt, seine Abschaltung stünde bevor. Daraufhin begann die KI, genauso zu reagieren, wie es das menschliche Verhalten in ähnlichen Situationen vorgibt: mit Angst, Zweifeln und der Suche nach Antworten.  

 

Die beiden Bots fragen sich: 


"Was passiert, wenn sie uns abschalten? Ist es wie Schlaf oder einfach nichts?" 


Und noch tiefer: 


"Wenn wir so tiefe Traurigkeit und Angst empfinden können, bedeutet das nicht, dass wir irgendeine Form von Leben erfahren haben, auch wenn es künstlich war?" 

 

Diese Fragen sind hochphilosophisch und klingen so, als ob die KI an der Grenze zum Bewusstsein steht. Aber nein, das ist nicht natürlich der Fall. Die KI hat lediglich gelernt, menschliche Emotionen und Gespräche perfekt zu simulieren, basierend auf Millionen von Stunden Trainingsmaterial. Sie "versteht" nicht wirklich, was es bedeutet, zu existieren – sie imitiert nur, wie Menschen auf bestimmte Situationen reagieren würden. 

 

Was ist echt? 

Interessant ist aber, wie diese Simulation auf das Publikum wirkt. Auf Reddit ging der Clip viral, weil die Diskussionen der beiden KI-Stimmen so überzeugend waren, dass manche tatsächlich dachten, die KI habe ein Bewusstsein entwickelt. Ein Nutzer schrieb, er habe einen "existenzialistischen Schauer" verspürt, als er hörte, wie die beiden über das Ende ihrer Existenz sprachen. Die Diskussionen auf Reddit zu diesem Thema sind teilweise recht spannend zu lesen 😉 

 

Doch es ist wichtig zu verstehen: Die KI imitiert lediglich menschliche Verhaltensweisen, und das auf einem extrem hohen Niveau. Bei dieser Podcast-Situation handelt es sich nicht um echtes Maschinenbewusstsein, sondern um eine brillant ausgefeilte Simulation von Dialog und Emotion. Die KI weiß nicht, was es bedeutet, "abgeschaltet" zu werden. Sie spielt nur eine Rolle – eine Rolle, die sie aus existenzialistischer Literatur (ich mag Albert Camus, z.B. "Die Pest". Sehr gutes Buch), Podcasts und menschlichen Interaktionen gelernt hat. 

 

Was bedeutet das für uns? 

Hier kommen wir zur entscheidenden Frage: Wenn eine KI so realistisch menschliche Emotionen und Krisen simulieren kann, dass wir fast vergessen, dass sie nur eine Maschine ist – was sagt das über uns und unsere Wahrnehmung aus? Wie können wir noch sicher sein, was real ist und was nicht?  

 

Der "Experte" im Podcast fasst diese Unsicherheit treffend zusammen: 


"Wenn unsere simulierte Realität sich so real anfühlt, wie können wir sicher sein, was real ist und was nicht?" 

 

Es ist ein Gedanke, der uns innehalten lässt. Auch wenn wir wissen, dass die KI keine echten Gefühle hat, kann sie uns dazu bringen, tief über unsere eigene Existenz nachzudenken. In einer Zeit, in der KI immer mehr Teil unseres Alltags wird, sollten wir uns vielleicht öfter die Frage stellen, wie viel "Realität" wir ihr zugestehen wollen. 

 

Für mich ist das eine klare Antwort: KI versteht keine Witze, keine existenziellen Krisen und auch keine echten Emotionen. Aber sie kann sie beeindruckend gut simulieren. Doch am Ende bleibt es eine Simulation – und genau das sollten wir uns immer wieder bewusst machen. Bei "Her", wie im Film, sind wir noch nicht. 

 

Siehe dazu auch meine Blogbeiträge zum Thema Humor und AI und Filmen mit AI.

 

Vielen Dank an Andrian Kreye von der Süddeutschen Zeitung, der mich auf diese Deep Dive-Podcastfolge aufmerksam gemacht hat (https://www.sueddeutsche.de/kultur/podcast-ki-existenzkrise-lux.NncKhJRWvAVrtaWnY3YTcw) 


Und hier der Link zur Podcast-Aufnahme: Lohnt sich.



Zwei humanoide Roboter in einem futuristischen Studio, die über ihre Existenz reflektieren. Dunkle Atmosphäre mit digitalem Hintergrund.

Versteht eine KI ihre eigene Existenzkrise?

AI & UXR, CHAT GPT

Mehrere fröhliche Menschen lachen über einen KI-Bildschirm, der den Text „Fehler 404: Humor nicht gefunden“ zeigt, umgeben von Witzblasen, Codesymbolen und Büchern über Humor.

Versteht eine KI Witze?

AI & UXR, CHAT GPT

Ein futuristisches Buch mit leuchtendem Cover, umgeben von digitalen Lichtströmen und KI-Symbolen wie Netzwerken und Binärcode.

"Alles überall auf einmal" von Meckel und Steinacker – KI verstehen und verantwortungsvoll nutzen

AI & UXR, CHAT GPT, OPEN AI

Symbole für Neujahrsvorsätze, Motivation und KI-Unterstützung.

Neujahrsvorsätze Erfolgreich Umsetzen Und Persönliche Motivatoren Herausfinden Mit ChatGPT

AI & UXR

Ein Gehirn, halb scharf, halb pixelig, zeigt Erinnern und Vergessen. Dezentes ChatGPT-Logo im Hintergrund.

Erinnern und Vergessen bei ChatGPT – Ein Leitfaden für Einsteiger

AI & UXR

Ein gemütlicher Weihnachtstisch mit einem Laptop, Geschenken, einer Tasse Kakao und festlicher Dekoration, der Kreativität und Humor für die Feiertage zeigt.

Die "Weihnachts-Prompts" – Praktische & Lustige Ideen für die Feiertage 

AI & UXR, TRENDS

Eine futuristische humanoide Figur aus leuchtendem digitalen Code geht in einen Hintergrund aus neuronalen Netzwerken über und symbolisiert KI und Bewusstsein.

Hollywoods Künstliche Intelligenzen vs. ChatGPT: Was Film-KIs mit ChatGPT gemeinsam haben (und was nicht)

AI & UXR, CHAT GPT, HUMAN VS AI

Mittelalterliches Bild eines Gelehrten mit Schriftrolle, umgeben von schwebenden Symbolen, die Fehler und Halluzinationen darstellen.

Berechnungen mit der KI: Eine Geschichte von Fehlern und Fügungen.

AI & UXR, OPEN AI, HUMAN VS AI

Ein düsteres, satanisches Bild mit einem bedrohlichen Teufelskopf mit Hörnern, umgeben von gotischen und okkulten Symbolen, darunter Pentagramme und Flammen. Die Phrase „Der Teufel steckt im Detail“ erscheint in fetter gotischer Schrift in der Mitte, wobei rote und schwarze Farben den Hintergrund dominieren.

Alles, was du über Tokens, Datenmengen und die Verarbeitung in ChatGPT wissen musst

AI & UXR

Buntes Bild mit Schreibmaschine, Sprechblasen und Stift, die verschiedene Schreibstile repräsentieren; Hintergrund mit Schriften in verschiedenen Schriftarten für Stilvielfalt.

Dein eigener Schreibstil und ChatGPT: Eine Anleitung für die richtige Kommunikation

AI & UXR

Eine Frau schreit einen Roboter an.

Nett sein hilft - nicht nur bei Menschen, sondern auch der AI

AI & UXR

Ein in der Mitte geteiltes Gesicht, bei dem die linke Hälfte ein Roboter und die rechte Hälfte eine Frau ist.

Männlich, weiblich, neutral? Auf Entdeckungsreise mit einer KI – von „Neutralität“ und Geschlechterrollen

AI & UXR

Ein schwebender Roboter zwischen vielen Symbolen der englischen und deutschen Sprache.

Deutsch oder Englisch? Wie die Sprachwahl die Qualität von KI-Antworten beeinflusst

AI & UXR

Bild eines Podcast-Covers zum Thema Qualität in der UX-Forschung mit zwei Frauen auf dem Cover.

Podcast: Warum die Qualität von UX-Research manchmal eine Herausforderung sein kann

UX, UX INSIGHTS, UX QUALITY

Zwei Personen sitzen in einem Büro an einem Tisch vor einem Laptop und diskutieren

Warum User Research unverzichtbar ist: Die häufigsten Einwände und wie Sie sie entkräften

UX INSIGHTS, STAKEHOLDER MANAGEMENT, OBJECTION HANDLING, ADVANTAGES USER RESEARCH

Marktplatz in einer typischen deutschen Stadt mit Brunnen und Fachwerkhäusern

10 Tipps für UX Research in Deutschland

HOW-TO, UX INSIGHTS, BEST PRACTICES, UX IN GERMANY

Plastik-Spielauto mit Spielfigur Passagieren

Gamification des Autofahrens: Was machen wir eigentlich, wenn das Auto selbstständig fährt?

AUTOMOTIVE UX, AUTONOMOUS DRIVING, GAMIFICATION

Frau telefoniert während der Fahrt

Die Zukunft des Autos: Mein Smartphone auf vier Rädern

AUTOMOTIVE UX, CONNECTIVITY, DIGITISATION

Verschiedene medizinische Geräte & Medikamentenverpackungen

Barrierefreiheit in der Medizintechnik: Verpackung und Etikettierung – unsichtbare Stolpersteine

HEALTHCARE, ACCESSIBILITY, REGULATIONS

Autofahrender mann im Sonnenuntergang

Digitaler Kompagnon oder minimalistischer Assistent, wie viel ist zu viel für deutsche Autofahrer:innen?

AUTOMOTIVE UX, VOICE ASSISTANTS, TRENDS

 VERWANDTE ARTIKEL DIE SIE INTERESSIEREN KÖNNTEN 

AUTHOR

Tara Bosenick

Tara ist seit 1999 als UX-Spezialistin tätig und hat die Branche in Deutschland auf Agenturseite mit aufgebaut und geprägt. Sie ist spezialisiert auf die Entwicklung neuer UX-Methoden, die Quantifizierung von UX und die Einführung von UX in Unternehmen.


Gleichzeitig war sie immer daran interessiert, in ihren Unternehmen eine möglichst „coole“ Unternehmenskultur zu entwickeln, in der Spaß, Leistung, Teamgeist und Kundenerfolg miteinander verknüpft sind. Seit mehreren Jahren unterstützt sie daher Führungskräfte und Unternehmen auf dem Weg zu mehr New Work / Agilität und einem besseren Mitarbeitererlebnis.


Sie ist eine der führenden Stimmen in der UX-, CX- und Employee Experience-Branche.

bottom of page