„SozGPT“ als Zaubermaschine der Soziologie

In der aktuellen Soziologie träumt Dirk Baecker von einem soziologischen Chatbot, der den Forschungsstand zu jedem beliebigem Thema „auf Knopfdruck“ liefern kann.

„Mich würde ein Chatbot interessieren, der ausschließlich mit soziologischem Wissen arbeitet, national und international. Mit jedem Prompt würde man herausfinden, was man in der Soziologie schon weiß und was nicht. Man könnte Problemstellungen ergänzen, Lücken identifizieren und füllen, Gewichtungen korrigieren und so an einem SozGPT arbeiten, der im Fach und für das Fach das Wissen des Fachs repräsentiert. Auf Knopfdruck wären die Perspektiven und Ergebnisse anderer Disziplinen zuschaltbar und wieder abschaltbar, so dass interdisziplinär gearbeitet werden könnte. Ein weiterer Knopfdruck erschließt beziehungsweise ignoriert Praxiserfahrungen. Und nicht zuletzt könnte man quantitative und qualitative, statistische und hermeneutische, nomologische und interpretative Register ziehen und wieder ausschalten, um herauszufinden, wie ergiebig verschiedene Ansätze sind und ob und wie sie miteinander kombiniert werden können. SozGPT würde die Schranken des Fachs offenbaren, sich innerhalb des Fachs jedoch ohne Vorurteil bewegen“ (Baecker 2023: 270).

Diesem Traum liegt wieder einmal ein Verkennen dessen zugrunde, was Bots wie ChatGPT etc. tun und was man von ihnen erwarten kann. Baecker verspricht sich von einer entsprechenden auf die Soziologie feinabgestimmten Technologie eine Repräsentation des soziologischen Wissens. Aber Sprachmodelle verfügen über kein Wissen, sondern eben nur über Sprache. Ihr Medium ist die Plausibilität der Oberfläche, nicht die Wahrheit eines dahinterliegenden Wissens. Und diese Plausibilität ist letztlich ein menschlicher Maßstab. Hier eine Repräsentation von Wissen „ohne Vorurteil“ anzunehmen, ist ein technizistisches Missverständnis. Denn das Vorurteil ist letztlich das Mittel, mit dem Sprachmodell beigebracht wird, Plausibles von Nicht-Plausiblem zu scheiden.

„„SozGPT“ als Zaubermaschine der Soziologie“ weiterlesen

Plausibilität und Wahrheit – Anmerkung zum Missverständnis von ChatGPT

In einem kürzlich erschienen Artikel problematisiert Paola Lopez, dass in der öffentlichen Diskussion um ChatGPT zumeist verkannt wird, was ChatGPT überhaupt ist. So wird nicht zuletzt im akademischen und journalistischen Kontext kritisiert, dass die Chatbot-App Quellen erfindet. Lopez wendet zurecht ein, dass dies genau ist, was von einem Sprachmodell zu erwarten ist.

„Plausibilität und Wahrheit – Anmerkung zum Missverständnis von ChatGPT“ weiterlesen