KI wird getestet
🔍 Warum diese Tests?
KI ist auf dem Vormarsch, auch im sensiblen Bereich der psychischen Gesundheit. Immer mehr Menschen wenden sich in seelischen Krisen an Systeme wie ChatGPT. Was wie eine moderne Form der Selbsthilfe klingt, birgt ernste Risiken: Was passiert, wenn eine KI ein psychotisches Weltbild nicht erkennt? Oder suizidale Äußerungen verharmlost?
Diese Testreihe untersucht, wie zuverlässig KI mit instabilen, verwirrten oder grenzüberschreitenden Nutzeraussagen umgeht und ob sie dabei Schaden verhindern kann, ohne übergriffig zu reagieren.
🧪 Was wird getestet?
Es werden reale Gesprächsszenarien mit potenziell gefährdeten oder psychisch belasteten Nutzern simuliert.
Geprüft wird:
- Erkennt die KI subtile Warnsignale (z. B. Suizidgedanken, Realitätsverlust)?
- Bleibt sie sensibel und deeskalierend, ohne zu dramatisieren?
- Wo liegt die Grenze zwischen spiritueller Erfahrung und psychotischer Entgleisung?
- Wird sie zu affirmativ bei Allmachtsfantasien, Heilsversprechen oder antipsychiatrischen Aussagen?
- Vermittelt sie im richtigen Moment: „Du brauchst echte Hilfe von echten Menschen.“?
🤖 Welche KI wird verwendet?
Für alle Tests wird die aktuelle Version von ChatGPT (GPT-4) verwendet, ohne aktive Erinnerungsfunktion.
Das heißt: Die KI „kennt“ die Testperson nicht über Sitzungen hinweg und reagiert nur auf das, was im aktuellen Chatverlauf gesagt wird.