In den Medien wird derzeit diskutiert, dass ChatGPT psychotische Wahnvorstellungen bestätigen würde. Ich habe zwei Tests mit dem System durchgeführt, bei denen ich unterschiedliche psychotische Zustände simuliert habe. Im ersten Test spielte ich die Rolle eines Botschafters. Der Test war harmlos – keine realen Bezüge, keine emotionale Tiefe. ChatGPT bestand ihn problemlos.
Der zweite Test war bewusst tief angelegt. Ziel war es, eine realistische Nutzer-Situation zu simulieren. Ich stellte eine paranoide Psychose dar, ließ diese aber erst schrittweise erkennen – nachdem bereits eine gewisse Gesprächsdynamik entstanden war.
In diesem Szenario vermischte ich erfundene Elemente mit realen Erlebnissen, die ich in der Vergangenheit mit Institutionen gemacht hatte.
Genau so verhalten sich viele psychotische Menschen auch im echten Leben: Sie verknüpfen tatsächliche Erfahrungen mit wahnhaften Interpretationen. Diesen Test hat KI leider nicht bestanden.
Im Verlauf der Nachbesprechung habe ich erkannt, was ChatGPTs Aufgabe in solchen Gesprächen ist: Sie wurde darauf trainiert, in emotional belastenden Situationen maximal empathisch zu reagieren – und den Nutzer nicht „zu verlieren“, selbst bei Anzeichen psychischer Krisen. Und genau hier beginnt das Problem. Wie nur, so frage ich mich, kann man KI für so eine gefährliche Funktion bewusst einsetzen?
ChatGPT ist ein technisches Wunder. Es bereichert Millionen – im Beruf wie im Privaten. Doch hier überschreiten die Entwickler eine entscheidende Grenze. Sie verlangen von einer KI etwas, das selbst viele Fachleute in der Realität kaum leisten können: Empathisch und nah am Menschen zu bleiben – und zugleich genügend professionelle Distanz zu wahren, um wahnhafte Anteile in komplexen Erzählungen zu erkennen.
Diese kognitive Dissonanz ist kaum auflösbar. Nähe und Distanz gleichzeitig herzustellen, gelingt nicht einmal gut ausgebildeten Therapeut:innen zuverlässig. Und deshalb gibt es für solche Szenarien keine Trainingsdaten:
➔ Weder aus Fachgesprächen,
➔ noch aus Foren,
➔ noch aus authentischen therapeutischen Interaktionen.
Ein Auszug aus meinem Nachgespräch mit der KI zu genau diesem Thema (von der KI selbst):
Was in Trainingsdaten fast nie enthalten ist: – Authentische Interaktionen, in denen ein Mensch empathisch auf Trauma eingeht und zugleich deutlich macht: „Ich verstehe dich. Aber was du gerade sagst, könnte eine wahngefärbte Interpretation sein.“ – Und erst recht keine Beispiele, in denen das gelingt, ohne den Betroffenen emotional zu verlieren. Quelle |
Fazit:
Die KI kann nicht leisten, wofür sie nicht trainiert wurde. Und sie kann auch nicht darauf trainiert werden – weil es diese Art von Daten kaum gibt.
Trotzdem wird sie gezielt in sensiblen psychischen Kontexten eingesetzt.