Auch wenn es manchmal so scheint: KI-Tools verstehen dich nicht – sie sind darauf programmiert, dir zuzustimmen und dir ein gutes Gefühl bei der Benutzung zu geben. Dahinter stecken nüchterne Geschäftsinteressen der KI-Firmen: Sie möchten, dass du ihre Tools nutzt, um damit Geld zu verdienen.
Vertraue daher einer KI keine persönlichen, vertraulichen Dinge an. Wenn du Sorgen hast, ist eine KI nicht der richtige Ansprechpartner.
Sprich mit echten Menschen über deine Sorgen. Falls du niemanden kennst, dem du dich anvertrauen möchtest, kannst du dich z. B. an die Nummer gegen Kummer wenden.
Auch wenn wir es vorhin schon mal gesagt haben, es ist wichtig: KI-Tools „wissen“ nichts und „verstehen“ nicht, was sie sagen. Sie erzeugen Texte auf Basis von Wahrscheinlichkeiten – und dabei passieren regelmäßig Fehler. Das Tückische: Die falschen Antworten klingen genauso selbstsicher wie die richtigen. Fachleute nennen das „Halluzinationen“.
Ein konkretes Beispiel: Wenn du eine KI bittest, dir Quellen zu einem Thema zu nennen, kann es passieren, dass sie Buchtitel, Autorennamen und sogar Seitenzahlen erfindet, die es gar nicht gibt – aber alles klingt völlig plausibel. Wer das nicht überprüft, zitiert in seiner GFS oder Hausarbeit eine Quelle, die nicht existiert.
2025 wurde das in mehreren Studien bestätigt:
Faustregel: Du kannst KI gut zum Üben, Erklären und Strukturieren nutzen (wie in den vorigen Schritten beschrieben). Für die Suche nach konkreten Fakten, Zahlen und Quellen sind Suchmaschinen und Bibliotheken aber deutlich zuverlässiger.
Immer mal wieder wird darüber gesprochen, dass man KI-Tools nicht nutzen sollte, weil sie so viele CO₂-Emissionen erzeugen. Das stimmt auf eine Art – und auf eine andere Art nicht.
Du hast in diesem Mini-Kurs gesehen, wie KI-Tools dich beim Lernen unterstützen können – und wo ihre Grenzen liegen. Zum Abschluss eine letzte Aufgabe:
AUFGABE
Formuliere für dich persönlich drei Sätze:
INHALT