Plausibilität und Wahrheit – Anmerkung zum Missverständnis von ChatGPT

In einem kürzlich erschienen Artikel problematisiert Paola Lopez, dass in der öffentlichen Diskussion um ChatGPT zumeist verkannt wird, was ChatGPT überhaupt ist. So wird nicht zuletzt im akademischen und journalistischen Kontext kritisiert, dass die Chatbot-App Quellen erfindet. Lopez wendet zurecht ein, dass dies genau ist, was von einem Sprachmodell zu erwarten ist.

„Auch Literaturangaben, mitsamt passender Zeitschriften und DOI-Nummern, werden simuliert und erfunden. Das ist jedoch kein ‚Fehler‘ in ChatGPT, sondern genau das, was das Modell leisten soll: automatisiert überzeugend wirkenden Text simulieren. Es ist bloß vielleicht nicht genau das, was man in jeder Situation haben möchte.“ (Lopez 2023, 24)

In ähnlicher Weise müsste man ein Verkennen dessen, was ChatGPT ist, auch konstatieren, wenn etwa kritisiert wird, dass ChatGPT „lügt“, „halluziniert“, „irrt“ etc. All das unterstellt, dass ChatGPT einen Zugriff auf Wahrheit habe. Aber der Maßstab, der an ChatGPT angelegt wird, ist gerade nicht Wahrheit, sondern Plausibilität.

Dass diese beiden Kategorien durcheinander gehen ist allerdings vermutlich ein tiefer liegendes Problem. Nur allzu oft hören Erklärungsversuche dann auf, wenn eine plausible Antwort gefunden ist. Dies ist in vielen Alltagssituationen vermutlich ein adäquates Vorgehen. Denn hier dienen Erklärungen eher zur Legitimierung und zur sozialen Orientierung, als das man unmittelbar von ihrer kausalen Richtigkeit abhinge.

Allerdings kann man Wissenschaft ganz wesentlich als eine Instanz verstehen, die Wahrheit von Plausibilität scheidet. Wissenschaft strahlt ja gerade dann am hellsten, wenn sie nicht nur bestärkt, was wir uns eh über die Welt denken, sondern wenn sie uns zeigt, dass die naheliegende Erklärung falsch ist und das Unplausible wahr (wie etwa, dass die Erde sich um die Sonne dreht, dass Xenophobie in einer Region steigt, wenn besonders wenige vermeintliche Ausländer und Fremde dort leben). Aber zu häufig bleibt auch in der Wissenschaft (und, wie ich selbstkritisch anmerken muss: vermehrt wohl in den Geistes- und Sozialwissenschaften) die Frage nach der Wahrheit ungefragt, sobald eine plausible Erzählung über den Gegenstand hervorgebracht wurde (auch wenn diese plausiblen Erklärungen für den Alltagsverstand zunächst hochgradig unplausibel klingen mögen, weil sie auf den eigendynamischen Diskursen der Disziplin aufruhen). Dies hat nicht zuletzt mit der Neigung zu tun, theoretische Konzepte autoritativ herbei zu zitieren, und diese mit einem empirischen Beleg zu verwechseln.

Vielleicht würde der aufgeklärte Umgang mit ChatGPT und anderen AI-Modellen davon profitieren, auch in diesen Bereichen wieder eine größere Sensibilität für die Differenz von Plausibilität und Wahrheit auszubilden.

Literatur

Lopez, Paola 2023: ChatGPT und der Unterschied zwischen Form und Inhalt, Merkur, 77, 891, S. 15–27.

Eine Antwort auf „Plausibilität und Wahrheit – Anmerkung zum Missverständnis von ChatGPT“

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.