Die KI halluziniert doch nicht

Wenn, habe sie eine andere Erkrankung, schreibt Psychiater R. an Axel Hacke. Über den Umgang mit dem Patienten KI.

Illustration: Dirk Schmidt

Im Zusammenhang mit künstlicher Intelligenz taucht der Begriff »Halluzinationen« auf, das soll bedeuten: Die KI weiß etwas nicht, will das aber nicht zugeben, sondern gibt eine Antwort, die plausibel wirkt, tatsächlich aber falsch ist. Der Grund liegt in der Lückenhaftigkeit ihres Wissens und auch darin, dass sie solche Lücken zwar manchmal erkennt, aber nicht immer. Dann halluziniert sie. Inzwischen ist das ein Fachterminus.

Aber er ist falsch. Nachdem ich ihn in einer Kolumne erwähnt hatte, schrieb mir der Leser R.,