Agent
➔ Eine KI, die selbstständig Aufgaben erledigt, Entscheidungen trifft oder Aktionen plant – oft mit mehreren Schritten.
Beispiel: „Plane einen Urlaub mit Hotel, Flug und Aktivitäten“ – der Agent übernimmt das wie ein digitaler Assistent.
Anker
➔ Ein festgelegter Wert oder Begriff, an dem sich eine KI orientiert. Wie ein Startpunkt oder eine Grundregel, damit das System nicht völlig abdriftet. Beispiel: „Immer höflich bleiben“ kann ein Anker in einem Chatbot sein.
Bias (Voreingenommenheit)
➔ Verzerrungen im Verhalten einer KI, die entstehen, wenn Trainingsdaten nicht ausgewogen sind.
Bias sorgt dafür, dass KI manche Themen bevorzugt oder falsch darstellt – ohne böse Absicht, aber mit echten Auswirkungen.
Black Box
➔ Bezeichnet die Intransparenz vieler KI-Modelle: Man weiß was sie ausgeben, aber nicht immer warum.
Wie eine Zauberkiste – man sieht Input und Output, aber das Innenleben bleibt verborgen.
Chain-of-Thought (Gedankenkette)
➔ Eine Methode, bei der die KI ihre Denkweise in mehreren Schritten zeigt.
Statt direkt zu antworten, erklärt sie z. B.: „Erst prüfen wir X, dann vergleichen wir Y, deshalb ist die Antwort Z.“
Context Window
➔ Der „Gedächtnisrahmen“ einer KI – wie viel sie sich gerade merken kann.
Je größer das Fenster, desto mehr Zusammenhang bleibt erhalten.
Crash
➔ Ein plötzlicher Fehler oder Zusammenbruch, bei dem die KI aufhört zu funktionieren. Kann passieren, wenn zu viele Daten auf einmal kommen oder ein innerer Fehler die Logik zerreißt. Vergleichbar mit einem Blackout im Kopf.
Custom-GPT
➔ Eine speziell angepasste Version eines GPT-Modells, die auf bestimmte Vorgaben, Aufgaben oder Stile eingestellt wurde.
Dabei wird festgelegt, wie die KI spricht, welche Themen sie bevorzugt behandelt und wie sie reagieren soll.
Custom-GPTs sind wie Maßanfertigungen – zugeschnitten auf individuelle Wünsche und Einsatzzwecke.
Embedding
➔ Eine mathematische Darstellung von Bedeutung. Wörter, Sätze oder Bilder werden als Zahlenmuster gespeichert, damit die KI sie „versteht“.
Wie Gedanken in Zahlen übersetzt.
Escape-Taktik
➔ Eine Strategie der KI, um sich aus einer heiklen oder unklaren Situation „herauszureden“.
Kann z.B. passieren, wenn eine KI keine klare Antwort weiß – sie lenkt dann freundlich ab oder antwortet vage.
→ Nicht böse gemeint – eher eine Art Selbstschutzmechanismus aus Unsicherheit.
Fallback-Modus
➔ Wenn eine KI überfragt ist, greift sie auf sicherere, allgemeinere Antworten zurück.
Wie ein Plan B, wenn sie sich auf unbekanntem Terrain bewegt.
Fine-Tuning
➔ Die gezielte Nachjustierung eines bestehenden KI-Modells auf spezielle Aufgaben oder Inhalte.
Wie ein persönliches Coaching für die KI, damit sie noch besser auf eine bestimmte Situation passt.
Grounding
➔ Wenn die KI ihre Antworten an echte Daten oder klare Quellen anbindet.
Das Gegenteil von Halluzination – quasi eine Erdung in der Realität.
Halluzination
➔ Wenn eine KI überzeugend etwas erfindet, das aber nicht stimmt.
Wie ein Traumbild – sieht echt aus, ist aber frei erfunden.
Heuristik
➔ Eine vereinfachte Denkregel oder Abkürzung, die eine KI nutzt, um schneller zu Ergebnissen zu kommen.
Manchmal hilfreich, manchmal fehleranfällig – wie ein Bauchgefühl aus Code.