Dieser Eintrag ist Teil eines Portfolioprojekts namens Mensch, Maschine und Sprache. Wenn ihr mehr darüber wissen wollt, schaut mal rechts bei der Seite "Mensch, Maschine und Sprache" vorbei!
─────𓅪─────
Mit der zentralen Frage, ob große Sprachmodelle Sprache
verstehen können und ob sie die Bedeutung der Wörter, die sie generieren,
kennen, haben sich Emily Bender und Alexander Koller beschäftigt. An einem
Gedankenexperiment illustrieren sie ihre These, dass ein System, das
ausschließlich mit der Form von Sprache trainiert wurde, Bedeutung nicht lernen
kann (vgl. Bender & Koller 2020: 5187). Obwohl der Artikel für des Feld der
LLM-Recherche relativ alt ist und einige Postulate anfechtbar sind, ist es dennoch
wertvoll, ihren Gedanken zu folgen.
Bender und Koller definieren die Form von Sprache als „any observable realization of language“, also u.a. geschriebene Wörter oder die Bewegungen beim Artikulieren; Bedeutung hingegen ist für sie „the relation between the form and something external to language“ (Bender & Koller 2020: 5186–5187). Communicative intent (das, was Menschen gerne kommunizieren möchten) ist Teil von Bedeutung, da es mit der äußeren Welt verbunden ist und ein LLM keine kommunikative Absicht haben kann. Damit die generierten Antworten von LLMs akkurat und menschlicher Sprache so nah wie möglich kommen, bräuchten die LLMs also entweder die Fähigkeit, Bedeutung zu verstehen, oder sie müssten die Ergebnisse anderweitig so verfeinern, dass Bedeutung nicht mehr nötig ist. Dabei ist der Aspekt von Bedeutung besonders spannend: Wenn Bedeutung etwas Menschliches ist, wie lernen wir dann Bedeutung, und wie ist sie in unseren Gehirnen verankert? Könnte ein LLM dies simulieren?
Das semiotische Dreieck von Ogden und Richards illustriert die
Beziehung zwischen Ausdruck, Bedeutung und Realität. Das Symbol (die Form eines
Wortes), ist direkt mit der Bedeutung (unserer Vorstellung) verbunden; die
Bedeutung ist mit dem Referenten (der Realität) direkt verbunden, weil wir auf
ihn verweisen; nur das Symbol und die Realität sind nicht direkt verbunden
(vgl. Ogden & Richards 1923: 10–12). Der Referent ist außerhalb der
Sprache, wie Bender & Koller in ihrer Definition feststellen. LLMs haben
diesen Bezug zur Realität nicht, können also Bedeutung in dem Sinne nicht
konstruieren. Wenn Babys Wörter für die Dinge um sie herum lernen, tun sie dies
in Interaktion mit der Bezugsperson, mit joint
attention (vgl. Bender & Koller 2020: 5190), in dem beispielsweise die
Bezugsperson auf einen Gegenstand zeigt und ihn benennt. Sie erraten durch
diese Intersubjektivität die kommunikative Absicht der Bezugsperson; sie
könnten aber nicht die Bedeutung des Gegenstands lernen, wenn die Bezugsperson
nicht mit Absicht auf dem Gegenstand verweist (Bender & Koller 2020: 5190).
Genauso wenig können LLMs die Bedeutung der Wörter nur durch ihre Form lernen.
Obwohl der Bezug zur Realität nur ein Teil von Bedeutung ist
und daher die These anfechtbar ist, ist es dennoch interessant und wichtig
klarzustellen, dass Menschen und Maschinen Sprache anders verarbeiten, und dass
das Ziel von Maschinen nicht ein menschliches Verständnis von Sprache sein
muss.
─────𓅪─────
Ein Beitrag von Daphne Glinzig
Keine Kommentare:
Kommentar veröffentlichen