Freitag, 13. März 2026

1.2. Bedeutung in Sprache

 Dieser Eintrag ist Teil eines Portfolioprojekts namens Mensch, Maschine und Sprache. Wenn ihr mehr darüber wissen wollt, schaut mal rechts bei der Seite "Mensch, Maschine und Sprache" vorbei!

                                                                 ─────𓅪─────

Mit der zentralen Frage, ob große Sprachmodelle Sprache verstehen können und ob sie die Bedeutung der Wörter, die sie generieren, kennen, haben sich Emily Bender und Alexander Koller beschäftigt. An einem Gedankenexperiment illustrieren sie ihre These, dass ein System, das ausschließlich mit der Form von Sprache trainiert wurde, Bedeutung nicht lernen kann (vgl. Bender & Koller 2020: 5187). Obwohl der Artikel für des Feld der LLM-Recherche relativ alt ist und einige Postulate anfechtbar sind, ist es dennoch wertvoll, ihren Gedanken zu folgen.

Bender und Koller definieren die Form von Sprache als „any observable realization of language“, also u.a. geschriebene Wörter oder die Bewegungen beim Artikulieren; Bedeutung hingegen ist für sie „the relation between the form and something external to language“ (Bender & Koller 2020: 5186–5187). Communicative intent (das, was Menschen gerne kommunizieren möchten) ist Teil von Bedeutung, da es mit der äußeren Welt verbunden ist und ein LLM keine kommunikative Absicht haben kann. Damit die generierten Antworten von LLMs akkurat und menschlicher Sprache so nah wie möglich kommen, bräuchten die LLMs also entweder die Fähigkeit, Bedeutung zu verstehen, oder sie müssten die Ergebnisse anderweitig so verfeinern, dass Bedeutung nicht mehr nötig ist. Dabei ist der Aspekt von Bedeutung besonders spannend: Wenn Bedeutung etwas Menschliches ist, wie lernen wir dann Bedeutung, und wie ist sie in unseren Gehirnen verankert? Könnte ein LLM dies simulieren?

Das semiotische Dreieck von Ogden und Richards illustriert die Beziehung zwischen Ausdruck, Bedeutung und Realität. Das Symbol (die Form eines Wortes), ist direkt mit der Bedeutung (unserer Vorstellung) verbunden; die Bedeutung ist mit dem Referenten (der Realität) direkt verbunden, weil wir auf ihn verweisen; nur das Symbol und die Realität sind nicht direkt verbunden (vgl. Ogden & Richards 1923: 10–12). Der Referent ist außerhalb der Sprache, wie Bender & Koller in ihrer Definition feststellen. LLMs haben diesen Bezug zur Realität nicht, können also Bedeutung in dem Sinne nicht konstruieren. Wenn Babys Wörter für die Dinge um sie herum lernen, tun sie dies in Interaktion mit der Bezugsperson, mit joint attention (vgl. Bender & Koller 2020: 5190), in dem beispielsweise die Bezugsperson auf einen Gegenstand zeigt und ihn benennt. Sie erraten durch diese Intersubjektivität die kommunikative Absicht der Bezugsperson; sie könnten aber nicht die Bedeutung des Gegenstands lernen, wenn die Bezugsperson nicht mit Absicht auf dem Gegenstand verweist (Bender & Koller 2020: 5190). Genauso wenig können LLMs die Bedeutung der Wörter nur durch ihre Form lernen.

Obwohl der Bezug zur Realität nur ein Teil von Bedeutung ist und daher die These anfechtbar ist, ist es dennoch interessant und wichtig klarzustellen, dass Menschen und Maschinen Sprache anders verarbeiten, und dass das Ziel von Maschinen nicht ein menschliches Verständnis von Sprache sein muss.


                                                                     ─────𓅪─────

Ein Beitrag von Daphne Glinzig


Keine Kommentare:

Kommentar veröffentlichen

1.4. Halluzinationen und Bullshit

  Dieser Eintrag ist Teil eines Portfolioprojekts namens Mensch, Maschine und Sprache. Wenn ihr mehr darüber wissen wollt, schaut mal rechts...