Ein Chatbot wie ChatGPT, Claude oder Gemini tut im Kern nur eine einzige Sache: Er sagt vorher, welches Wort als Nächstes am wahrscheinlichsten kommt.
Stell dir vor, ich fange einen Satz an:
„Sein oder nicht sein, das ist hier die …“
Dir fällt vermutlich sofort das Wort „Frage“ ein, oder? Das ist nämlich das nächste Wort, das in diesem berühmten Zitat vorkommt (es stammt übrigens aus dem Theaterstück „Hamlet“ von Shakespeare). Genau das macht ein Sprachmodell — nur hat es nicht nur Shakespeare gelesen, sondern riesige Teile des Internets, Milliarden von Sätzen. Deshalb kann es nicht nur berühmte Zitate ergänzen, sondern auch Gedichte schreiben, Matheaufgaben lösen und in einem Dialog passend antworten.
Das ist wirklich alles. Wort für Wort wird vorhergesagt, welches Wort am besten passt — und dann das nächste, und das nächste. So lange, bis die Antwort fertig ist.
Fachbegriff: Was ein Chatbot tut, nennt man Wortvorhersage oder auf Englisch next token prediction. Das Modell dahinter heißt Large Language Model (kurz LLM), also „großes Sprachmodell“.
Niemand hat ChatGPT gesagt: „Wenn jemand fragt, was die Hauptstadt von Frankreich ist, antworte Paris.“ Stattdessen hat das Modell in einer Trainingsphase gigantische Mengen an Text gelesen — Bücher, Wikipedia, Webseiten, Foren, Code. Dabei hat es Muster erkannt: Welche Wörter stehen oft zusammen? Welche Satzstrukturen sind üblich? Welche Fakten werden wiederholt erwähnt?
Dieses Training dauert Wochen oder Monate, kostet Millionen und braucht Tausende spezieller Computer. Erst wenn das Training abgeschlossen ist, kann das Modell genutzt werden. Wenn du heute etwas in ChatGPT eingibst, lernt das Modell in diesem Moment nichts dazu — es wendet nur an, was es vorher gelernt hat.
Weil die KI auf Milliarden von Sätzen trainiert wurde, die von Menschen geschrieben wurden. Sie ahmt deren Sprache, Stil und Struktur nach — extrem überzeugend. Wenn du nach einer Erklärung zur Französischen Revolution fragst, bekommst du einen Text, der klingt wie aus einem Geschichtsbuch. Nicht, weil die KI Geschichte versteht, sondern weil sie Tausende Texte über die Französische Revolution gesehen hat und weiß, wie solche Texte aussehen.
Das ist auch der Grund, warum ein Chatbot manchmal sehr selbstbewusst Dinge behauptet, die einfach falsch sind. Er klingt überzeugend — aber er weiß nicht, ob das, was er schreibt, wahr ist. Er weiß nur, dass es plausibel klingt.
Das ist der wichtigste Satz auf dieser Seite:
Ein Chatbot optimiert darauf, dass seine Antwort plausibel klingt — nicht darauf, dass sie wahr ist. Das erklärt, warum KI-Antworten so oft gut klingen und trotzdem Fehler enthalten (sogenannte „Halluzinationen“).
Probiere mal Folgendes in einem Chatbot aus:
Manche Modelle liefern hier erstaunlich unsinnige Antworten — etwa, dass du den Nagel unten hinlegen sollst, weil er „stabil“ sei. Das zeigt: Die KI hat nie einen Nagel in der Hand gehabt, sie weiß nicht, wie schwer ein Laptop ist, sie hat keine Vorstellung von Physik. Sie hat nur Texte gelesen, in denen Wörter wie „stabil“ und „Nagel“ oft zusammen vorkamen.
Wenn du verstanden hast, wie ein Chatbot funktioniert, ergeben sich ein paar Konsequenzen von selbst:
Teste dich selbst:
INHALT