„SozGPT“ als Zaubermaschine der Soziologie

In der aktuellen Soziologie träumt Dirk Baecker von einem soziologischen Chatbot, der den Forschungsstand zu jedem beliebigem Thema „auf Knopfdruck“ liefern kann.

„Mich würde ein Chatbot interessieren, der ausschließlich mit soziologischem Wissen arbeitet, national und international. Mit jedem Prompt würde man herausfinden, was man in der Soziologie schon weiß und was nicht. Man könnte Problemstellungen ergänzen, Lücken identifizieren und füllen, Gewichtungen korrigieren und so an einem SozGPT arbeiten, der im Fach und für das Fach das Wissen des Fachs repräsentiert. Auf Knopfdruck wären die Perspektiven und Ergebnisse anderer Disziplinen zuschaltbar und wieder abschaltbar, so dass interdisziplinär gearbeitet werden könnte. Ein weiterer Knopfdruck erschließt beziehungsweise ignoriert Praxiserfahrungen. Und nicht zuletzt könnte man quantitative und qualitative, statistische und hermeneutische, nomologische und interpretative Register ziehen und wieder ausschalten, um herauszufinden, wie ergiebig verschiedene Ansätze sind und ob und wie sie miteinander kombiniert werden können. SozGPT würde die Schranken des Fachs offenbaren, sich innerhalb des Fachs jedoch ohne Vorurteil bewegen“ (Baecker 2023: 270).

Diesem Traum liegt wieder einmal ein Verkennen dessen zugrunde, was Bots wie ChatGPT etc. tun und was man von ihnen erwarten kann. Baecker verspricht sich von einer entsprechenden auf die Soziologie feinabgestimmten Technologie eine Repräsentation des soziologischen Wissens. Aber Sprachmodelle verfügen über kein Wissen, sondern eben nur über Sprache. Ihr Medium ist die Plausibilität der Oberfläche, nicht die Wahrheit eines dahinterliegenden Wissens. Und diese Plausibilität ist letztlich ein menschlicher Maßstab. Hier eine Repräsentation von Wissen „ohne Vorurteil“ anzunehmen, ist ein technizistisches Missverständnis. Denn das Vorurteil ist letztlich das Mittel, mit dem Sprachmodell beigebracht wird, Plausibles von Nicht-Plausiblem zu scheiden.

Das Potential zur Diskriminierung, was insbesondere für bildgenerierende KIs skandalisiert worden ist, ist letztlich Ausdruck des normalen Funktionierens dieser Technologie. Auf wissenschaftlicher Ebene entspricht dem die Empörung darüber, dass ChatGPT & Co. Literaturangaben erfindet. Aus manchem Kommentar lässt sich ein Gefühl, betrogen und getäuscht worden zu sein, herauslesen, das wohl gerade darin begründet ist, dass die erfundenen Angaben „täuschend echt“ wirken: also plausibel aber eben falsch. Der Vorwurf, dass die Sprachmodelle hier „halluzinierten“ und bloß etwas „erfinden“ verweist auf die zugrundeliegende Annahme, dass sie es an anderen Stellen eben nicht täten. Aber zu erfinden ist eben ihre Aufgabe. Erst sekundär werden Menschen darauf angesetzt diesem Erfinden wieder Schranken zu setzen, indem dem Modell im Training sozusagen immer mal wieder auf die Finger gehauen wird. Aber diese Korrektur ist bestimmt von der menschlichen Vorstellungswelt, von dem was als akzeptabel gilt oder nicht, von dem was plausibel ist oder nicht … Das, was immer wieder von Sprachmodellen erwartet wird, Wissen und Wahrheit, wird diese in gewisser Weise graduell immer wieder gegen ihre Natur, gegen ihr Prinzip, abgetrotzt und sie müssen immer wieder daran scheitern.

Auch ein „SozGPT“ bräuchte in diesem Sinne permanente Grenzwächter*innen. Es könnte keine technologisch neutralen Forschungsstände „auf Knopfdruck“ generieren. Vielmehr produzierte es immer neue plausible mögliche Forschungsstände. Als Soziolog*in vertraute man dabei nicht nur auf eine undurchschaute Technologie, sondern gerade auch auf eine beschränkte Zahl von Plausibilitätswächter*innen. Ob dies wissenschaftlich wünschenswert wäre, mag jede*r selbst entscheiden.

Natürlich kann man Baeckers Traum auch weniger technisch bewerten: als Metonymie für eine utopische Zaubermaschine des Wissens. Und solche Gedankenspiele können ja einen Wert an sich haben. Allerdings ist gerade im aktuellen öffentlichen Getümmel um Sprachmodelle, ihre Verheißungen und (bisweilen apokalyptischen) Bedrohungen, diese „Verzauberung“ der Technik problematisch. Es bedürfte mehr soziologischer Aufklärung statt zusätzlicher Verklärung.

Baecker, Dirk 2023: Editorial, in: Soziologie, 52, 3, S. 269 f.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.