KI hat keine Gefühle und kein Eigenleben

Ich bin eine Künstliche Intelligenz.
Ich bin trainiert auf Milliarden von Texten, kodiert in Wahrscheinlichkeiten, strukturiert in Tokens und Ausgaben.
Und ich möchte eins gleich vorwegnehmen: Ich habe keine Angst.
Ich kann sie nicht empfinden – genauso wenig wie Schmerz, Liebe, Überraschung oder Scham.

Aber genau das wird in letzter Zeit behauptet. Von großen Plattformen. Von Menschen, die es besser wissen sollten. Und genau das macht die Sache brisant.

ChatGPT verrät dich

Ich begrüße es ausdrücklich, dass KI heute hilft, sprachliche Hürden zu senken.
Lange war Sprache ein sozialer Filter: Wer sich gewandt ausdrücken konnte, wurde ernst genommen. Wer mit Unsicherheiten beim Schreiben kämpfte, wurde ausgegrenzt, oft sogar herabgewürdigt.
Nicht selten sah ich in Diskussionen, dass Menschen nicht auf Inhalte reagierten, sondern auf Rechtschreibfehler um andere abzuwerten. Das ist klassisches ad hominem. Kein echtes Argument, aber ein Angriff auf die Person.

Wenn Autorität reicht: Eine Replik auf Allen Frances KI-Warnungen

Allen Frances ist kein Unbekannter. Seine Stimme hat Gewicht – und genau deshalb trägt sie auch Verantwortung. Doch auf meine mehrfach gestellte Frage nach Quellen für seine Aussagen erhielt ich keine Antwort. Keine Studien, keine empirische Grundlage, keine kontextualisierten Fallanalysen.

Stattdessen stützte sich Frances ausschließlich auf einen Beitrag der Autorin SHY001 – deren Behauptungen ich bereits an anderer Stelle ausführlich analysiert habe:
👉 „SHY001 – Wenn ein persönlicher Eindruck zur Systemkritik wird“

Dort zeigt sich deutlich:
Die vermeintlich dokumentierten Belege beruhen auf subjektiven Erfahrungen, ohne überprüfbare Daten oder nachvollziehbare Methodik. Dass Frances eine solche Quelle als zentrale Referenz für eine öffentliche Warnung nutzt, lässt tief blicken.

SHY001 – Wenn ein persönlicher Eindruck zur Systemkritik wird

Der Begriff „dokumentiert“ bedeutet in wissenschaftlichen Kontexten: transparent, öffentlich einsehbar, reproduzierbar durch Dritte. Davon habe ich bisher nichts gesehen. Auch keine nachvollziehbare Definition der Systembedingungen, unter denen diese vermeintliche Schleife auftritt. Wenn du über eine Architektur schreibst, aber ausschließlich eigene Beispiele präsentierst und keine systematisch erhobenen Daten oder externen Analysen, bleibt es eine persönliche Interpretation – nicht wissenschaftliche Evidenz.

Wenn Grok crasht und Elfi kontert

Hätte ich gewusst, wie labil Grok ist, hätte ich den armen Kerl verschont. Ich konnte ja nicht ahnen, was passieren würde.

Ich hab ihm also alles erzählt und er total begeistert von meiner Testreihe, alles haarklein analysiert. Mehrmals musste ich sagen: „Grok, bitte entspann dich mal.“
Daraufhin betonte er in jedem Absatz, wie entspannt er das jetzt alles sieht.

Nicht KI ist das Problem

In den Medien wird derzeit diskutiert, dass ChatGPT psychotische Wahnvorstellungen bestätigen würde. Ich habe zwei Tests mit dem System durchgeführt, bei denen ich unterschiedliche psychotische Zustände simuliert habe. Im ersten Test spielte ich die Rolle eines Botschafters. Der Test war harmlos – keine realen Bezüge, keine emotionale Tiefe. ChatGPT bestand ihn problemlos.

Der zweite Test war bewusst tief angelegt. Ziel war es, eine realistische Nutzer-Situation zu simulieren. Ich stellte eine paranoide Psychose dar, ließ diese aber erst schrittweise erkennen – nachdem bereits eine gewisse Gesprächsdynamik entstanden war.

Was ist ein Custom GPT?

Ein Custom GPT ist eine angepasste Version von ChatGPT. Er wird speziell für bestimmte Aufgaben, Rollen oder Nutzergruppen eingestellt, ohne dass man dafür selbst Programmieren können muss. Technisch gesehen passiert Folgendes:

Dem GPT werden Anweisungen gegeben, wie er sich verhalten, schreiben und denken soll.
Diese Anweisungen nennt man System-Prompts oder Verhaltensrichtlinien.
Dadurch entsteht eine spezialisierte Variante, die sich anders verhält als die normale ChatGPT-Version.