ChatGPT denkt nicht. Punkt.
- Jeannine Huwyler
- 29. Jan.
- 2 Min. Lesezeit

Und genau das müssen wir endlich verstehen.
Ich weiss, künstliche Intelligenz fasziniert. Sie schreibt Texte, beantwortet Fragen, erklärt komplexe Themen. Für viele wirkt sie wie eine schlaue Maschine. Manche sehen sie fast als Mensch oder zumindest als eine Art verlässlichen Helfer.
Genau hier beginnt das Problem.
Deshalb habe ich neulich ein langes Gespräch mit meiner Tochter geführt. Sie nutzt ChatGPT regelmässig, und ich wollte sichergehen, dass sie versteht, womit sie da eigentlich redet oder besser gesagt: was da eigentlich passiert, wenn sie eine Frage eintippt.
Was läuft ab, wenn du ChatGPT etwas fragst?
Stell dir vor, ChatGPT wurde mit einem unvorstellbar grossen Haufen Text gefüttert: Webseiten, Bücher, Dokumente, alles Mögliche. Aber das Modell hat diese Texte nicht gelesen wie du oder ich. Es hat Muster erkannt. Statistische Muster. Welche Wörter tauchen oft zusammen auf? Was folgt meistens auf was?
Das klingt erstmal beeindruckend. Ist es auch. Aber es ist etwas fundamental anderes als menschliches Lernen.
Kein Verstehen!
ChatGPT hat kein Bewusstsein. Keine Gedanken. Keine Absichten. Keine eigene Perspektive auf die Welt. Die KI arbeitet mit mathematischen Repräsentationen von Sprache, es kann Zusammenhänge unglaublich gut nachbilden, aber es begreift sie nicht.
Ein Beispiel: Wenn ich meiner Tochter erkläre, warum der Himmel blau ist, versteht sie das Prinzip. Sie kann es auf andere Situationen übertragen, darüber nachdenken, es anzweifeln. ChatGPT? Rechnet aus, welche Antwort statistisch am plausibelsten klingt.
Die KI versteht Bedeutung nicht, sie modelliert sie.
Jede Antwort ist eine Wahrscheinlichkeitsrechnung
Wenn du eine Frage stellst, erzeugt ChatGPT seine Antwort Wort für Wort. Oder genauer: Textbaustein für Textbaustein. Es schaut sich an, was du geschrieben hast, was es bisher geantwortet hat, und berechnet dann: Was kommt jetzt wahrscheinlich als Nächstes?
Das Ergebnis ist oft beeindruckend. Manchmal brillant. Und meistens klingt es völlig überzeugend.
Aber – und das ist der Knackpunkt – es ist nicht automatisch richtig.
Woher kommen diese berüchtigten "Halluzinationen"?
Wenn Informationen im Trainingsmaterial fehlen, wenn der Kontext unklar ist oder wenn das Modell einfach "raten" muss, entstehen manchmal plausible, aber falsche Antworten. Nicht aus Absicht, sondern weil die KI darauf programmiert ist, immer etwas zu liefern.
Das macht generative KI nützlich, aber auch gefährlich, wenn man ihr blind vertraut.
Was heisst das für uns?
Generative KI denkt nicht. Sie versteht nicht wie ein Mensch. Sie hat kein Wissen im menschlichen Sinn. Sie berechnet Wahrscheinlichkeiten und erzeugt daraus Sprache.
Du möchtest mehr zum Umgang mit KI erfahren? Was du keinesfalls eingeben darfst und wie du KI für dich im Alltag & Beruf effektiv nutzen kannst?
In meinem 2-stündigen Online Coaching, zeige ich dir alles Wichtige, dass du im Umgang mit generativer KI wissen solltest.

