Mensch-Maschine-Wahrnehmung

Der Mensch sucht sich selbst in nicht-menschlichen Lebewesen und in unbelebten Artefakten. Affen, die „nächsten Verwandten“, oder Hunde, die „treuesten Begleiter“ sind für ersteres, Roboter sind für letzteres gute Beispiele: Eine menschenähnliche Gestaltung der Roboter-Körper und eine vermenschlichende sprachliche Rahmung ihrer Fähigkeiten unterstützt, so die Hypothese, die Anthropomorphisierung dieser Maschinen und in der Folge auch die Herausbildung von empathischem Verhalten gegenüber Robotern. Die Neigung zur Anthropomorphisierung variiert dabei von Mensch zu Mensch; es gibt „stable individual differences in the tendency to attribute human-like attributes to nonhuman agents“.

Large Language Models (LLMs) werden (bislang) nicht mit menschenähnlichen Körperformen assoziiert. Das heißt aber nicht, dass sie der menschlichen Neigung zur Anthropomorphisierung nicht unterliegen. Schon ein wohl formulierter Satz kann uns zu der fälschlichen Annahme verleiten, dass er von einem rationalen Agenten gesprochen wurde. LLMs sind mittlerweile in der Lage, menschliche Sprache hervorragend nachzubilden. Sie wurden auf sprachliche Regeln und Muster trainiert und beherrschen diese ausgezeichnet. Die Kenntnis statistischer Regelmäßigkeiten der Sprache ermöglicht aber kein „Verstehen“. Auch die Fähigkeit, Sprache adäquat im sozialen Kontext anzuwenden, ist bei LLMs noch lückenhaft ausgebildet. Dafür fehlt ihnen das notwendige Weltwissen, der sensorische Zugang zur Welt und jenes Wissen, das wir als „gesunden Menschenverstand“ beschreiben. Dass wir dennoch dazu neigen, den von generativen vortrainierten Sprachmodellen (generative pretrained transformers, GPTs) produzierten Text als menschliche Äußerungen zu verstehen, liegt zum einen daran, dass diese Sprachmodelle auf sehr großen Textmengen des 21. Jahrhunderts trainiert wurden und daher unseren zeitgenössischen Diskurs perfekt nachbilden können. Entspricht die Art und Weise, wie über Sprache Bedeutung hergestellt wird, unseren alltäglichen Gewohnheiten, dann kann es nicht überraschen, dass wir dem Produzenten eines gut gemachten Textes „Intelligenz“, „Intentionalität“ oder sogar „Identität“ zuschreiben. Insofern bestätigen LLMs die strukturalistischen Theorien der zweiten Hälfte des 20. Jahrhunderts, dass Sprache ein System ist, das den Rahmen dessen, was artikuliert und damit letzten Endes auch gedacht werden kann, festlegt und begrenzt. Und insofern scheinen LLMs auch Roland Barthes‘ These vom „Tod des Autors“ zu bekräftigen. Die unendliche Rekombination des vorhandenen Wortmaterials und die Ergänzung der wahrscheinlichsten Wörter und Sätze scheinen zu genügen, dass wir uns im Textoutput wiedererkennen.

Zum anderen unterstützt die spezifische Bauart von Chatbots die Anthropomorphisierung. ChatGPT etwa wurde auf zehntausenden von Frage-Antwort-Paaren trainiert. Das sogenannte „Instruction Fine-tuning“ sorgt dafür, dass das Modell Textsequenzen in einem bestimmten Format generiert. Das LLM interpretiert den Prompt als Instruktion, unterscheidet die Eingabe der Gesprächspartner:in oder Fragesteller:in von dem Text des Sprachmodells und zieht Rückschlüsse auf die menschlichen Teilnehmer:innen. Das hat zum einen zur Folge, dass das Sprachmodell in der Lage ist, den generierten Text an das menschliche Gegenüber anzupassen und Soziolekte zu imitieren, zum anderen entsteht beim Menschen die kognitive Illusion eines Dialogs. Das Interface solcher Apps wie ChatGPT unterstützt diese Illusion noch; es ist wie all die anderen Interfaces gestaltet, die für menschliche Konversationen benutzt werden. Wir Menschen folgen dann unseren Gewohnheiten und ergänzen im Dialog mit dem Chatbot jenen sozialen Kontext, der für eine Unterhaltung charakteristisch ist, und unterstellen der anderen Seite Intentionalität. ChatGPT schließlich wurde als fiktionale Figur trainiert, die Antworten in der Ich-Form gibt. Daher produziert das Sprachmodell Aussagen über sich selbst, etwa über sein ethisch-moralisches Verhalten, über seine Leistungsfähigkeit, Datenschutz und die verwendeten Trainingsdaten. Fragt ein/e NutzerIn nach unangemessenem Output, lehnt das Sprachmodell höflich ab. Diese Aussagen können daher am ehesten als Echo des vorgenommenen Trainings verstanden werden, als das, was OpenAI uns über diese Technologie weismachen möchte. Die Dialogform und die in der Ich-Form berichtende fiktionale Figur stellen die einzigen Möglichkeiten dar, wie OpenAI den Output des Sprachmodells kontrollieren kann.

Das alles lässt sich zusammengefasst „anthropomorphism by design“ nennen. Kein Wunder also, dass wir Menschen dazu neigen, auch einem körperlosen Sprachmodell menschliche Eigenschaften zuzuschreiben. Während wir den Umgang mit derartigen Chatbots erlernen, dürfen wir aber nicht der Illusion erliegen, es mit einem menschlichen Gegenüber zu tun zu haben. Empathische Aussagen oder ausformulierte Emotionen des Bots sind Simulationen, die äußerst problematisch werden können, wenn wir beispielsweise den Bot mit einer Therapeut:in verwechseln. Auch die Annahme, ein Sprachmodell könnte geeignet sein, Entscheidungen zu treffen und daher die Rolle von Rechtsanwält:innen, Ärzt:innen oder Lehrer:innen übernehmen, ist irreführend: Die Verantwortung für solche Entscheidungen übernehmen letzten Endes immer noch Menschen. Daher dürfen wir uns vom anthropomorphisierenden Design nicht täuschen lassen. Die Wahrnehmung, der Mensch habe etwas anderes als eine Maschine gegenüber, ist trügerisch: Da ist niemand.

0 Kommentare

Hinterlasse einen Kommentar

An der Diskussion beteiligen?
Hinterlasse uns deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert