Freitag, 27. März 2026

1.4. Halluzinationen und Bullshit

 Dieser Eintrag ist Teil eines Portfolioprojekts namens Mensch, Maschine und Sprache. Wenn ihr mehr darüber wissen wollt, schaut mal rechts bei der Seite "Mensch, Maschine und Sprache" vorbei!

                                                                 ─────𓅪─────

Manchmal passiert es, dass LLMs wie ChatGPT oder DeepSeek falsche Antworten geben, Befehle missachten oder sich sogar Fakten ausdenken. Sowohl in der Forschung als auch in populärwissenschaftlichen Artikeln wird dann häufig davon gesprochen, dass die Sprachmodelle „halluzinieren — sie generieren Antworten, die faktisch falsch oder widersprüchlich sind. Huang et al. haben sich mit diesen Fehlleistungen der LLMs, den Ursachen und den möglichen Lösungen auseinandergesetzt. Sie definieren Halluzinationen von LLMs als „generated content that is either nonsensical or unfaithful to the provided source content“, wobei zwischen den zwei Kategorien „factuality hallucination“ (faktische Unstimmigkeiten) und „faithfulness hallucination“ (Abweichung von Befehlen oder fehlende Kohärenz) unterschieden wird (Huang et al. 2024: 2). Dadurch, dass die generierten Texte der Sprachmodelle so menschlich und plausibel klingen, ist es schwierig, diese Fehler zu erfassen, sodass Fehlinformationen verbreitet werden können und sogar Schaden angerichtet werden kann (vgl. Huang et al. 2024: 2).

Trotz der wichtigen Forschung rund um die Ursachensuche, Fehlerbehebung und -vorbeugung ist es grundlegend zu kritisieren, die Fehler der Sprachmodelle als „Halluzinationen“ zu bezeichnen. Eine Halluzination ist „the perception of an entity or event that is absent in reality“ (Macpherson & Platchias, 2013 – in Huang et al. 2024: 5). Damit eine Halluzination entstehen kann, müssen also die Außenwelt bzw. Realität, Sinne und das Gehirn involviert sein; etwas, das Maschinen nicht haben. LLMs können nichts wahrnehmen, es besteht keine Verbindung zwischen einem LLM-Kern und der Realität. Anders als menschliche Halluzinationen, die nicht auf der Realität basieren, basieren die LLM-„Halluzinationen“, also die Fehler, auf etwas Echtem, Existierenden, seien es fehlerhafte Daten oder Fehler beim Training des Systems (vgl. Huang et al. 2024: 2). Ebenfalls verstehen die LLMs den generierten Output nicht, anders als Menschen, wie in Kapitel 2.2. erläutert wurde. Wenn wir sagen, dass LLMs halluzinieren, sprechen wir ihnen menschliche Fähigkeiten zu, anders gesagt, anthropomorphisieren sie. Wir geraten in Gefahr, ihnen Verständnis und Empathie zu zeigen, obwohl es nichts anderes als Maschinen sind, die Fehler begehen.

Obwohl Menschen häufig dazu tendieren, nicht lebendige Objekte zu anthropomorphisieren (z.B. der sture Laptop, der fleißige Staubsauger, das brave Auto), ist es gerade in der Welt des AI-Hypes und der LLMs, dass diese Vermenschlichung instrumentalisiert wird, um die Produkte besser verkäuflich zu machen und ein verzerrtes Bild von LLMs und ihren Fähigkeiten zu schaffen. Gerade in der Forschung sollte daher Wert auf eine vorsichtige Wortwahl gelegt werden.

Hicks et al. (2024) kritisieren in ihrem Artikel „ChatGPT is bullshit“ genau diese Wortwahl und schlagen eine Alternative vor. Laut ihnen tragen anthropomorphisierende Metaphern wie „Halluzinationen“ zur Gefahr bei, die Fähigkeiten der LLMs falsch einzuschätzen und dadurch die Meinung der Öffentlichkeit und der politischen Entscheidungsträger:innen zu beeinflussen (vgl. Hicks et al. 2024: 1) — und dadurch u.a. zum überdimensionierten AI-Hype beizutragen oder den Hersteller:innen einen Weg zu bereiten, Verantwortung für falsche Outputs von sich zu weisen (vgl. Hicks et al. 2024: 8–9).

Als Alternative schlagen sie den Begriff „Bullshit“ vor, ein Konzept, das von Harry Frankfurt entwickelt wurde. Neben Wahrheiten und Lügen gibt es noch Bullshit: Aussagen, die durch eine rücksichtslose Missachtung für die Wahrheit charakterisiert sind, statt, wie bei Lügen,  durch einen aktiven Täuschungsversuch (Hicks et al. 2024: 4). Dabei kann Bullshit sowohl wahr als auch falsch sein; wichtig ist das Missachten des tatsächlichen Wahrheitsgehalts. Da LLMs die generierte Sprache nicht verstehen und sich nicht mit dem Wahrheitsgehalt ihrer Outputs beschäftigen können, aber trotzdem dazu entwickelt wurden, wahrheitsgetreu erscheinende Texte zu produzieren, ist der Output laut Hicks et al. demnach stets Bullshit (vgl. Hicks et al. 2024: 1).

Gunkel & Coghlan (2025) fordern wiederum eine nuanciertere Verwendung vom Bullshit-Begriff. Sie sind dem Begriff prinzipiell nicht entgegengestimmt, doch die kompromisslose Bezeichnung von allen Outputs als Bullshit, egal ob sie tatsächlich wahr oder falsch sind, könne zu Verwirrung führen (Gunkel & Coghlan 2025: 5). LLMs produzieren mehrheitlich korrekte, nuancierte, und detaillierte Antworten, weswegen „even if those utterances are bullshit in one sense, they are decidedly not bullshit in another“ (Gunkel & Coghlan 2025: 5). Bullshit auf einer Hand, weil die LLMs keinen Wahrheits- oder Lügenwunsch haben können, aber gleichzeitig nicht Bullshit, da die Mehrheit der Aussagen objektiv wahr sind und es sich intuitiv falsch anfühlt, auch diese Aussagen konsequent Bullshit zu nennen. Obwohl dies durchaus eine valide Kritik ist, kann dennoch mit dem kompromisslosen Bullshit-Begriff argumentiert werden, da genau durch diese Kompromisslosigkeit auf die Funktionsweise der LLMs hingewiesen wird und somit die Nutzer:innen und die Öffentlichkeit immer wieder darauf aufmerksam gemacht werden, dass LLMs trotz der sehr überzeugenden Sprachgenerierung Maschinen sind, die wahrscheinlichkeitsbasiert funktionieren und man sich trotz der menschenähnlichen Sprache nicht blind auf sie verlassen sollte.

Ob Halluzination, Bullshit oder Konfabulation: Die Wortwahl hat in Diskursen schon immer eine große Rolle gespielt und die Richtung und Meinungen beeinflusst, weswegen es sich in jedem Fall lohnt, darüber nachzudenken, was wie kommuniziert werden soll.


                                                                      ─────𓅪─────

Ein Beitrag von Daphne Glinzig

Keine Kommentare:

Kommentar veröffentlichen

1.4. Halluzinationen und Bullshit

  Dieser Eintrag ist Teil eines Portfolioprojekts namens Mensch, Maschine und Sprache. Wenn ihr mehr darüber wissen wollt, schaut mal rechts...