Skip to content

Konfabulieren statt Halluzinieren – Wissenschaftler schlagen präzisere Sprache für Fehler der KI vor

Künstliche Intelligenz (KI) liegt manchmal daneben und gibt falsche Antworten. Sie erfindet Fakten, Bücher und Webseiten. Oft wird dann gesagt, dass die KI „halluziniert“. Doch Aljoscha Burchardt, Research Fellow am DFKI und Xenia Kersting, Oberärztin in der Universitätsmedizin Mainz halten diesen Begriff für irreführend und schlagen eine präzisere Alternative vor.

Es ist mittlerweile üblich geworden, den Begriff „Halluzinieren“ zu verwenden, wenn große Sprachmodelle wie ChatGPT falsche Informationen generieren. Burchardt und Kersting halten diesen Begriff für unspezifisch und stigmatisierend. Sie argumentieren, dass er die Realität der Funktionsweise dieser Modelle nicht korrekt widerspiegelt und somit missverstanden werden kann.

Warum „Halluzinieren“ der falsche Begriff ist

Der Begriff „Halluzinieren“ warnt zwar Nutzer davor, den Ausgaben von Sprachmodellen blind zu vertrauen, da diese lediglich auf statistischen Vorhersagen basieren und keine garantierten Wahrheiten liefern. Sprachmodelle erzeugen ihren Output durch das Vorhersagen des nächsten wahrscheinlichen Wortes, ohne die Fähigkeit, die generierten Informationen zu überprüfen oder zu revidieren.

Der Begriff suggeriert jedoch, dass das System in einem Ausnahmezustand ist, ähnlich wie Menschen, die aufgrund von psychischen Erkrankungen, Drogen oder Extremsituationen halluzinieren. Dies könnte zu dem Irrglauben führen, dass Sprachmodelle „repariert“ werden können, um diese „Halluzinationen“ zu vermeiden. Tatsächlich gehört das Erfinden von Informationen jedoch zum Wirkprinzip dieser Modelle und macht sie gleichzeitig so leistungsfähig.

Ein Blick in die Psychiatrie

Im psychiatrischen Kontext bedeutet „Halluzinieren“ das Erleben von Sinnestäuschungen, wie das Sehen oder Hören von nicht existierenden Dingen. Sprachmodelle haben jedoch keine Wahrnehmung und ihre falschen Aussagen sind einfach nur das Ergebnis fehlerhafter statistischer Vorhersagen.

Stattdessen könnte man den Begriff „Konfabulieren“ verwenden, um das Verhalten von Sprachmodellen genauer zu beschreiben. In der Psychiatrie bedeutet Konfabulieren das Ausfüllen von Erinnerungslücken mit fiktiven Inhalten. Ähnlich füllen KI-Modelle ihre Wissenslücken spontan mit plausibel klingenden, aber falschen Informationen.

Mir persönlich gefällt dieser Begriff ausserordentlich, denn er schafft eine deutlich bessere Analogie.

Daneben plädieren die Autoren für einen präziseren und weniger stigmatisierenden Sprachgebrauch. Sie hoffen, dass dadurch nicht nur die Kommunikation über KI-Modelle verbessert, sondern auch Missverständnisse und Stigmatisierungen vermieden werden können.

Anstatt von „Halluzinationen“ zu sprechen, könnten wir sagen, dass das Modell den Text statistisch generiert hat. Durch eine verbesserte Aufklärung könnten Nutzer besser verstehen, dass die Inhalte zwar plausibel klingen, aber nicht immer korrekt sind. Zudem könnten die Schnittstellen der Systeme optimiert werden, indem sie Selbstzweifel ausdrücken, wie „ich glaube“, „ich meine“ oder „meines Erachtens“.

Quelle

Abonniere das kostenlose KI-Update

Bleib auf dem Laufenden in Sachen Künstliche Intelligenz!

Melde Dich jetzt mit Deiner E-Mail-Adresse an und ich versorge Dich kostenlos mit News-Updates, Tools, Tipps und Empfehlungen aus den Bereichen Künstliche Intelligenz für dein Online Business, WordPress, SEO, Online-Marketing und vieles mehr.

Keine Sorge, ich mag Spam genauso wenig wie Du und gebe Deine Daten niemals weiter! Du bekommst höchstens einmal pro Woche eine E-Mail von mir. Versprochen.

Kai Spriestersbach

Kai Spriestersbach

Kai Spriestersbach ist erfolgreicher Unternehmer und digitaler Stratege mit einem Master-Abschluss in Web Science. Er ist Inhaber von AFAIK und verfügt über mehr als 20 Jahre Erfahrung im Aufbau und der Optimierung von webbasierten Geschäftsmodellen. Als einer der erfahrensten Search Marketing Experten im deutschsprachigen Raum hat er mehr als 25 Vorträge auf SEO- und Online-Marketing-Konferenzen in Deutschland und Österreich gehalten. In den letzten Jahren hat er sich intensiv mit Large Language Models beschäftigt und sich als Experte für die Textgenerierung mit Hilfe künstlicher Intelligenz etabliert. Seine Karriere begann er mit einer Ausbildung zum Mediengestalter (IHK), bevor er den Bachelor of Science (B.Sc) in E-Commerce absolvierte. Anschließend erwarb er den Master of Science (M.Sc) in Web Science und forschte an der RPTU im Bereich angewandter generativer KI.

×