Dieser Eintrag ist Teil eines Portfolioprojekts namens Mensch, Maschine und Sprache. Wenn ihr mehr darüber wissen wollt, schaut mal rechts bei der Seite "Mensch, Maschine und Sprache" vorbei!
─────𓅪─────
Manchmal passiert es, dass LLMs wie ChatGPT oder DeepSeek falsche Antworten geben, Befehle missachten oder sich sogar Fakten ausdenken. Sowohl in der Forschung als auch in populärwissenschaftlichen Artikeln wird dann häufig davon gesprochen, dass die Sprachmodelle „halluzinieren“ — sie generieren Antworten, die faktisch falsch oder widersprüchlich sind. Huang et al. haben sich mit diesen Fehlleistungen der LLMs, den Ursachen und den möglichen Lösungen auseinandergesetzt. Sie definieren Halluzinationen von LLMs als „generated content that is either nonsensical or unfaithful to the provided source content“, wobei zwischen den zwei Kategorien „factuality hallucination“ (faktische Unstimmigkeiten) und „faithfulness hallucination“ (Abweichung von Befehlen oder fehlende Kohärenz) unterschieden wird (Huang et al. 2024: 2). Dadurch, dass die generierten Texte der Sprachmodelle so menschlich und plausibel klingen, ist es schwierig, diese Fehler zu erfassen, sodass Fehlinformationen verbreitet werden können und sogar Schaden angerichtet werden kann (vgl. Huang et al. 2024: 2).
Trotz der wichtigen Forschung rund um die Ursachensuche, Fehlerbehebung und -vorbeugung ist es grundlegend zu kritisieren, die Fehler der Sprachmodelle als „Halluzinationen“ zu bezeichnen. Eine Halluzination ist „the perception of an entity or event that is absent in reality“ (Macpherson & Platchias, 2013 – in Huang et al. 2024: 5). Damit eine Halluzination entstehen kann, müssen also die Außenwelt bzw. Realität, Sinne und das Gehirn involviert sein; etwas, das Maschinen nicht haben. LLMs können nichts wahrnehmen, es besteht keine Verbindung zwischen einem LLM-Kern und der Realität. Anders als menschliche Halluzinationen, die nicht auf der Realität basieren, basieren die LLM-„Halluzinationen“, also die Fehler, auf etwas Echtem, Existierenden, seien es fehlerhafte Daten oder Fehler beim Training des Systems (vgl. Huang et al. 2024: 2). Ebenfalls verstehen die LLMs den generierten Output nicht, anders als Menschen, wie in Kapitel 2.2. erläutert wurde. Wenn wir sagen, dass LLMs halluzinieren, sprechen wir ihnen menschliche Fähigkeiten zu, anders gesagt, anthropomorphisieren sie. Wir geraten in Gefahr, ihnen Verständnis und Empathie zu zeigen, obwohl es nichts anderes als Maschinen sind, die Fehler begehen.
Obwohl
Menschen häufig dazu tendieren, nicht lebendige Objekte zu anthropomorphisieren
(z.B. der sture Laptop, der fleißige Staubsauger, das brave Auto), ist es
gerade in der Welt des AI-Hypes und der LLMs, dass diese Vermenschlichung
instrumentalisiert wird, um die Produkte besser verkäuflich zu machen und ein
verzerrtes Bild von LLMs und ihren Fähigkeiten zu schaffen. Gerade in der
Forschung sollte daher Wert auf eine vorsichtige Wortwahl gelegt werden.
Hicks et al. (2024) kritisieren in ihrem Artikel „ChatGPT is
bullshit“ genau diese Wortwahl und schlagen eine Alternative vor. Laut ihnen
tragen anthropomorphisierende Metaphern wie „Halluzinationen“ zur Gefahr bei,
die Fähigkeiten der LLMs falsch einzuschätzen und dadurch die Meinung der
Öffentlichkeit und der politischen Entscheidungsträger:innen zu beeinflussen
(vgl. Hicks et al. 2024: 1) — und dadurch u.a. zum überdimensionierten AI-Hype
beizutragen oder den Hersteller:innen einen Weg zu bereiten, Verantwortung für
falsche Outputs von sich zu weisen (vgl. Hicks et al. 2024: 8–9).
Als Alternative schlagen sie den Begriff „Bullshit“ vor, ein
Konzept, das von Harry Frankfurt entwickelt wurde. Neben Wahrheiten und Lügen
gibt es noch Bullshit: Aussagen, die
durch eine rücksichtslose Missachtung für die Wahrheit charakterisiert sind,
statt, wie bei Lügen, durch einen
aktiven Täuschungsversuch (Hicks et al. 2024: 4). Dabei kann Bullshit sowohl
wahr als auch falsch sein; wichtig ist das Missachten des tatsächlichen
Wahrheitsgehalts. Da LLMs die generierte Sprache nicht verstehen und sich nicht
mit dem Wahrheitsgehalt ihrer Outputs beschäftigen können, aber trotzdem dazu entwickelt
wurden, wahrheitsgetreu erscheinende Texte zu produzieren, ist der Output laut
Hicks et al. demnach stets Bullshit (vgl. Hicks et al. 2024: 1).
Gunkel & Coghlan (2025) fordern wiederum eine
nuanciertere Verwendung vom Bullshit-Begriff. Sie sind dem Begriff prinzipiell
nicht entgegengestimmt, doch die kompromisslose Bezeichnung von allen Outputs
als Bullshit, egal ob sie tatsächlich wahr oder falsch sind, könne zu
Verwirrung führen (Gunkel & Coghlan 2025: 5). LLMs produzieren mehrheitlich
korrekte, nuancierte, und detaillierte Antworten, weswegen „even if those
utterances are bullshit in one sense, they are decidedly not bullshit in
another“ (Gunkel & Coghlan 2025: 5). Bullshit auf einer Hand, weil die LLMs
keinen Wahrheits- oder Lügenwunsch haben können, aber gleichzeitig nicht
Bullshit, da die Mehrheit der Aussagen objektiv wahr sind und es sich intuitiv
falsch anfühlt, auch diese Aussagen konsequent Bullshit zu nennen. Obwohl dies
durchaus eine valide Kritik ist, kann dennoch mit dem kompromisslosen Bullshit-Begriff
argumentiert werden, da genau durch diese Kompromisslosigkeit auf die
Funktionsweise der LLMs hingewiesen wird und somit die Nutzer:innen und die
Öffentlichkeit immer wieder darauf aufmerksam gemacht werden, dass LLMs trotz
der sehr überzeugenden Sprachgenerierung Maschinen sind, die
wahrscheinlichkeitsbasiert funktionieren und man sich trotz der
menschenähnlichen Sprache nicht blind auf sie verlassen sollte.
Ob Halluzination, Bullshit oder Konfabulation: Die Wortwahl
hat in Diskursen schon immer eine große Rolle gespielt und die Richtung und
Meinungen beeinflusst, weswegen es sich in jedem Fall lohnt, darüber
nachzudenken, was wie kommuniziert werden soll.
─────𓅪─────
Ein Beitrag von Daphne Glinzig
Keine Kommentare:
Kommentar veröffentlichen