Künstliche Intelligenz (KI) liegt manchmal daneben und gibt falsche Antworten. Sie erfindet Fakten, Bücher und Webseiten. Oft wird dann gesagt, dass die KI „halluziniert“. Doch Aljoscha Burchardt, Research Fellow am DFKI und Xenia Kersting, Oberärztin in der Universitätsmedizin Mainz halten diesen Begriff für irreführend und schlagen eine präzisere Alternative vor.
Es ist mittlerweile üblich geworden, den Begriff „Halluzinieren“ zu verwenden, wenn große Sprachmodelle wie ChatGPT falsche Informationen generieren. Burchardt und Kersting halten diesen Begriff für unspezifisch und stigmatisierend. Sie argumentieren, dass er die Realität der Funktionsweise dieser Modelle nicht korrekt widerspiegelt und somit missverstanden werden kann.
Warum „Halluzinieren“ der falsche Begriff ist
Der Begriff „Halluzinieren“ warnt zwar Nutzer davor, den Ausgaben von Sprachmodellen blind zu vertrauen, da diese lediglich auf statistischen Vorhersagen basieren und keine garantierten Wahrheiten liefern. Sprachmodelle erzeugen ihren Output durch das Vorhersagen des nächsten wahrscheinlichen Wortes, ohne die Fähigkeit, die generierten Informationen zu überprüfen oder zu revidieren.
Der Begriff suggeriert jedoch, dass das System in einem Ausnahmezustand ist, ähnlich wie Menschen, die aufgrund von psychischen Erkrankungen, Drogen oder Extremsituationen halluzinieren. Dies könnte zu dem Irrglauben führen, dass Sprachmodelle „repariert“ werden können, um diese „Halluzinationen“ zu vermeiden. Tatsächlich gehört das Erfinden von Informationen jedoch zum Wirkprinzip dieser Modelle und macht sie gleichzeitig so leistungsfähig.
Ein Blick in die Psychiatrie
Im psychiatrischen Kontext bedeutet „Halluzinieren“ das Erleben von Sinnestäuschungen, wie das Sehen oder Hören von nicht existierenden Dingen. Sprachmodelle haben jedoch keine Wahrnehmung und ihre falschen Aussagen sind einfach nur das Ergebnis fehlerhafter statistischer Vorhersagen.
Stattdessen könnte man den Begriff „Konfabulieren“ verwenden, um das Verhalten von Sprachmodellen genauer zu beschreiben. In der Psychiatrie bedeutet Konfabulieren das Ausfüllen von Erinnerungslücken mit fiktiven Inhalten. Ähnlich füllen KI-Modelle ihre Wissenslücken spontan mit plausibel klingenden, aber falschen Informationen.
Mir persönlich gefällt dieser Begriff ausserordentlich, denn er schafft eine deutlich bessere Analogie.
Daneben plädieren die Autoren für einen präziseren und weniger stigmatisierenden Sprachgebrauch. Sie hoffen, dass dadurch nicht nur die Kommunikation über KI-Modelle verbessert, sondern auch Missverständnisse und Stigmatisierungen vermieden werden können.
Anstatt von „Halluzinationen“ zu sprechen, könnten wir sagen, dass das Modell den Text statistisch generiert hat. Durch eine verbesserte Aufklärung könnten Nutzer besser verstehen, dass die Inhalte zwar plausibel klingen, aber nicht immer korrekt sind. Zudem könnten die Schnittstellen der Systeme optimiert werden, indem sie Selbstzweifel ausdrücken, wie „ich glaube“, „ich meine“ oder „meines Erachtens“.
Abonniere das kostenlose KI-Update
Bleib auf dem Laufenden in Sachen Künstliche Intelligenz!
Melde Dich jetzt mit Deiner E-Mail-Adresse an und ich versorge Dich kostenlos mit News-Updates, Tools, Tipps und Empfehlungen aus den Bereichen Künstliche Intelligenz für dein Online Business, WordPress, SEO, Online-Marketing und vieles mehr.
Keine Sorge, ich mag Spam genauso wenig wie Du und gebe Deine Daten niemals weiter! Du bekommst höchstens einmal pro Woche eine E-Mail von mir. Versprochen.