Im Zusammenhang mit künstlicher Intelligenz taucht der Begriff »Halluzinationen« auf, das soll bedeuten: Die KI weiß etwas nicht, will das aber nicht zugeben, sondern gibt eine Antwort, die plausibel wirkt, tatsächlich aber falsch ist. Der Grund liegt in der Lückenhaftigkeit ihres Wissens und auch darin, dass sie solche Lücken zwar manchmal erkennt, aber nicht immer. Dann halluziniert sie. Inzwischen ist das ein Fachterminus.
Aber er ist falsch. Nachdem ich ihn in einer Kolumne erwähnt hatte, schrieb mir der Leser R.,
