Glossar
Halluzination
Wenn ein KI-System überzeugend klingende, aber falsche Informationen erzeugt. Das ist keine Bosheit, sondern eine strukturelle Eigenschaft generativer Systeme.
Praxisbeispiele
Falsche Quellenangabe
Ein Sprachmodell erfindet einen wissenschaftlichen Artikel mit plausiblem Titel, korrektem Zeitschriftennamen und einem real existierenden Autorennamen — der Artikel selbst existiert nie. Das System zitiert mit hoher Sicherheit, obwohl die Ausgabe frei erfunden ist.
Detailveränderung in Fakten
Fragt man ein KI-System nach dem Ergebnis einer Bundestagswahl, kann es korrekte Parteien nennen — aber falsche Prozentzahlen, ein falsches Datum oder einen falschen Bundeskanzler. Der Gesamtkontext klingt stimmig, einzelne Fakten sind jedoch schlicht falsch.
Quellen
Verwandte Begriffe
Weiter von hier: Im Wissens-Hub finden Sie den Überblick, in Aktuelles die laufenden Debatten und auf der Themenseite KI die größere Einordnung.