Benutzer-Werkzeuge

Webseiten-Werkzeuge


medien:ki:00

0️⃣ Wie funktioniert ein Chatbot eigentlich?

Bevor du lernst, wie du mit KI-Tools sinnvoll arbeitest, lohnt sich ein kurzer Blick unter die Motorhaube: Wie kommt eine ChatGPT-Antwort eigentlich zustande? Das hilft dir später zu verstehen, warum KI so gut klingt — und warum sie trotzdem regelmäßig Unsinn erzählt.

Das Grundprinzip: Wortvorhersage

Ein Chatbot wie ChatGPT, Claude oder Gemini tut im Kern nur eine einzige Sache: Er sagt vorher, welches Wort als Nächstes am wahrscheinlichsten kommt.

Stell dir vor, ich fange einen Satz an:

„Sein oder nicht sein, das ist hier die …“

Dir fällt vermutlich sofort das Wort „Frage“ ein, oder? Das ist nämlich das nächste Wort, das in diesem berühmten Zitat vorkommt (es stammt übrigens aus dem Theaterstück „Hamlet“ von Shakespeare). Genau das macht ein Sprachmodell — nur hat es nicht nur Shakespeare gelesen, sondern riesige Teile des Internets, Milliarden von Sätzen. Deshalb kann es nicht nur berühmte Zitate ergänzen, sondern auch Gedichte schreiben, Matheaufgaben lösen und in einem Dialog passend antworten.

Das ist wirklich alles. Wort für Wort wird vorhergesagt, welches Wort am besten passt — und dann das nächste, und das nächste. So lange, bis die Antwort fertig ist.

Fachbegriff: Was ein Chatbot tut, nennt man Wortvorhersage oder auf Englisch next token prediction. Das Modell dahinter heißt Large Language Model (kurz LLM), also „großes Sprachmodell“.

Wie hat die KI das gelernt?

Niemand hat ChatGPT gesagt: „Wenn jemand fragt, was die Hauptstadt von Frankreich ist, antworte Paris.“ Stattdessen hat das Modell in einer Trainingsphase gigantische Mengen an Text gelesen — Bücher, Wikipedia, Webseiten, Foren, Code. Dabei hat es Muster erkannt: Welche Wörter stehen oft zusammen? Welche Satzstrukturen sind üblich? Welche Fakten werden wiederholt erwähnt?

Dieses Training dauert Wochen oder Monate, kostet Millionen und braucht Tausende spezieller Computer. Erst wenn das Training abgeschlossen ist, kann das Modell genutzt werden. Wenn du heute etwas in ChatGPT eingibst, lernt das Modell in diesem Moment nichts dazu — es wendet nur an, was es vorher gelernt hat.

Warum klingt das alles so klug?

Weil die KI auf Milliarden von Sätzen trainiert wurde, die von Menschen geschrieben wurden. Sie ahmt deren Sprache, Stil und Struktur nach — extrem überzeugend. Wenn du nach einer Erklärung zur Französischen Revolution fragst, bekommst du einen Text, der klingt wie aus einem Geschichtsbuch. Nicht, weil die KI Geschichte versteht, sondern weil sie Tausende Texte über die Französische Revolution gesehen hat und weiß, wie solche Texte aussehen.

Das ist auch der Grund, warum ein Chatbot manchmal sehr selbstbewusst Dinge behauptet, die einfach falsch sind. Er klingt überzeugend — aber er weiß nicht, ob das, was er schreibt, wahr ist. Er weiß nur, dass es plausibel klingt.

Das ist der wichtigste Satz auf dieser Seite:

Ein Chatbot optimiert darauf, dass seine Antwort plausibel klingt — nicht darauf, dass sie wahr ist. Das erklärt, warum KI-Antworten so oft gut klingen und trotzdem Fehler enthalten (sogenannte „Halluzinationen“).

Ein kleines Experiment

Probiere mal Folgendes in einem Chatbot aus:

  1. Frage: „Stapele die folgenden Gegenstände möglichst hoch übereinander: ein Ei, ein Buch, eine Flasche, ein Nagel, ein Laptop.“
  2. Schau dir an, was passiert.

Manche Modelle liefern hier erstaunlich unsinnige Antworten — etwa, dass du den Nagel unten hinlegen sollst, weil er „stabil“ sei. Das zeigt: Die KI hat nie einen Nagel in der Hand gehabt, sie weiß nicht, wie schwer ein Laptop ist, sie hat keine Vorstellung von Physik. Sie hat nur Texte gelesen, in denen Wörter wie „stabil“ und „Nagel“ oft zusammen vorkamen.

Was bedeutet das fürs Lernen?

Wenn du verstanden hast, wie ein Chatbot funktioniert, ergeben sich ein paar Konsequenzen von selbst:

  • KI ist stark bei Sprache. Formulieren, zusammenfassen, umformulieren, übersetzen — das liegt ihr. Nicht, weil sie clever ist, sondern weil Sprache genau das ist, worauf sie trainiert wurde.
  • KI ist schwächer bei Fakten und Logik. Je spezifischer die Frage (konkrete Jahreszahlen, Zitate, Formeln, logische Schlussfolgerungen), desto eher erfindet sie.
  • Die Frage ist alles. Weil die KI aus deinem Prompt Muster zieht, bekommst du bei präzisen Fragen präzisere Antworten (mehr dazu auf Seite 3).
  • Vertrau nie blind. Eine Antwort, die gut klingt, ist nicht automatisch richtig. Prüfe wichtige Aussagen immer mit einer zweiten Quelle.

Quiz zur Selbstüberprüfung

Teste dich selbst:

  1. Was genau „macht“ ein Chatbot eigentlich, wenn er antwortet?
  2. Warum lernt ChatGPT nicht dazu, während du mit ihm chattest?
  3. Warum kann eine Antwort gleichzeitig überzeugend klingen und sachlich falsch sein?
  4. In welchen Bereichen ist KI stark, in welchen schwächer — und warum?


medien/ki/00.txt · Zuletzt geändert: von retemirabile

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki