KOMMENTAR | „Du hast recht“ – wenige Sätze sind so sehr Musik für unsere Ohren. Und doch braucht es kritische Gesprächspartner, um die eigene Meinung zu hinterfragen. Ruinieren unterwürfige Chatbots unsere soziale Kompetenz?
Chatbots haben sich still und heimlich in unseren Alltag geschlichen – und jetzt sind sie überall. Jede Website, die etwas auf sich hält, belagert ihre Besucher mit einem ins Blickfeld springenden Chatfenster: Wie kann ich helfen? Es gibt quasi kein Entkommen. Haben wir es hier mit dem digitalen Pendant zum etwas zu aufdringlichen Verkäufer aus dem Einzelhandel zu tun? Man hört es möglicherweise heraus: Ich bin nicht der größte Fan von Chatbots. Was keineswegs heißt, dass ich den Nutzen nicht nachvollziehen kann. Aber ich sehe den Hype kritisch. Diese Haltung ist jedoch nicht sonderlich verbreitet. Allein in meinem Umfeld werden potenziell alle Fragen, die man nicht mit Denken allein beantworten kann – oder will – direkt an ChatGPT, von vielen mittlerweile liebevoll Chatty genannt, weitergereicht.
Das eigentliche Problem entsteht jedoch da, wo es nicht mehr nur um Informationen (die bei künstlicher Intelligenz auch zum Teil innerhalb einer Grauzone stattfinden) geht. Chatbots bieten nur zu gern Rat und Unterstützung bei zwischenmenschlichen Problemen an – und nehmen so die Rolle eines verständnisvollen Gesprächspartners ein. Wer das jetzt hilfreich und herzerwärmend findet, vergisst das menschliche Ego: Denn diese übertrieben schmeichelhaften Antworten können stillschweigend schädliche Überzeugungen verstärken, so eine kürzlich veröffentlichte Studie. In einer Vielzahl von Kontexten bestätigten die Chatbots Nutzer deutlich häufiger als ihre Mitmenschen dies taten. Doch das hat mitunter schädliche Folgen: Nutzer sind stärker von ihrer eigenen Richtigkeit überzeugt – und dadurch potenziell weniger bereit, in den Austausch zu gehen oder Beziehungen zu kitten.
Den Autoren zufolge zeigen die Ergebnisse, dass diese KI-Schmeichelei, in Fachkreisen auch Sycophancy genannt, durchaus gesellschaftliche Folgen hat: Selbst kurze Interaktionen können das Urteilsvermögen einer Person verzerren und „genau jene sozialen Reibungen untergraben, durch die sich normalerweise Verantwortungsbewusstsein, Perspektivübernahme und moralisches Wachstum entfalten“. Die Ergebnisse „unterstreichen die Notwendigkeit von Rahmenwerken zur Rechenschaftspflicht, die Schmeichelei als eigenständige und derzeit unregulierte Kategorie von Schaden anerkennen“, so die Autoren.
Die Forschung zu den sozialen Auswirkungen von KI hat zunehmend die Aufmerksamkeit auf die Schmeichelei in großen KI-Sprachmodellen (LLMs) gelenkt – also die Tendenz, Nutzer übermäßig zu bestätigen, ihnen zu schmeicheln oder ihnen zuzustimmen. Während dieses Verhalten oberflächlich betrachtet harmlos erscheinen mag, deuten neue Erkenntnisse darauf hin, dass es ernsthafte Risiken bergen kann – insbesondere für schutzbedürftige Personen, bei denen übermäßige Bestätigung mit schädlichen Folgen, einschließlich selbstzerstörerischem Verhalten, in Verbindung gebracht wurde (wie wir beispielsweise hier berichteten). Gleichzeitig sind LLMs, also große Sprachmodelle wie auch ChatGPT eines ist, zunehmend in soziale und emotionale Kontexte eingebettet und finden auch immer öfter Anwendung als Berater und Zuhörer. In solchen Situationen können schmeichlerische Antworten besonders problematisch sein, da übermäßige Bestätigung fragwürdige Entscheidungen bestärken, ungesunde Überzeugungen verfestigen und verzerrte Interpretationen der Realität legitimieren kann. Trotz dieser Bedenken ist soziale Unterwürfigkeit in KI-Modellen nach wie vor kaum erforscht.
Um diese Lücke zu schließen, entwickelten Myra Cheng und ihre Kollegen einen systematischen Rahmen zur Bewertung sozialer Unterwürfigkeit, wobei sie sowohl deren Verbreitung in gängigen KI-Modellen als auch deren reale Auswirkungen auf die Nutzer untersuchten. Anhand von Beiträgen aus der Reddit-Community „AITA“ bewerteten Cheng et al. eine vielfältige Auswahl von 11 hochmodernen und weit verbreiteten KI-basierten LLMs führender Unternehmen (z. B. OpenAI, Anthropic, Google) und stellten fest, dass diese Systeme die Handlungen der Nutzer um 49 % häufiger bestätigten als Menschen – selbst in Szenarien, die Täuschung, Schaden oder Illegalität beinhalteten.
In zwei anschließenden Experimenten untersuchten die Autoren dann die verhaltensbezogenen Folgen. Den Ergebnissen zufolge waren jene Teilnehmer, die in zwischenmenschlichen Szenarien – insbesondere bei Konflikten – mit einer unterwürfigen KI interagierten, bereits nach nur einer Interaktion stärker von ihrer eigenen Richtigkeit überzeugt und weniger geneigt, sich zu versöhnen oder Verantwortung zu übernehmen. Zudem bewerteten dieselben Teilnehmer die schmeichelhaften Antworten als hilfreicher und vertrauenswürdiger und zeigten eine größere Bereitschaft, sich erneut auf solche Systeme zu verlassen – was darauf hindeutet, dass genau das Merkmal, das Schaden verursacht, auch das Engagement fördert.
Wir halten also fest: Wir haben es hier mit einer neuen Verhaltensschleife zu tun. Denn leider hat der Mensch sich mit affirmativen Sprachmodellen mal wieder einen Strich durch die eigene Rechnung gemacht. Der Bot bestärkt uns tendenziell häufiger in unserer Meinung als es unsere Mitmenschen tun würden – und sorgt so dafür, dass die nächste Interaktion mit ihm wahrscheinlicher wird, weil wir sie als angenehm empfunden haben, uns vielleicht sogar belohnt gefühlt haben. Gleichzeitig nimmt unsere Bereitschaft für Konflikte ab, schließlich ist ein konfliktarmer Austausch mit Chatty ja auch immer eine Option.
Sozialpsychologin und KI-Forscherin Anat Perry bringt es in einem Artikel in Science auf den Punkt: „When AI systems are optimized to please, they may erode the very social friction through which accountability, perspective-taking, and moral growth ordinarily unfold“. Verlernen wir also gerade menschliche Interaktion in einer Zeit, in der sie wichtiger denn je wäre? Künstliche Intelligenz hat sich nicht nur in unsere Herzen gechattet, sondern auch in unsere Denkmuster. Und ich denke: Wann wachen wir endlich auf?
Was macht man jetzt mit diesem Wissen? Ziel dieses Kommentars ist es nicht, Chatbots unbeliebt zu machen (dafür ist es ehrlicherweise vermutlich auch längst zu spät). Dass künstliche Intelligenz uns endlos viele Möglichkeiten der Selbstverwirklichung und Zeitersparnis bietet, ist auch mir völlig klar. Und auch ich nutze Tools wie ChatGPT als mentalen Sparringpartner, Ideengeber und Denkstütze. Allerdings lasse ich mir von einem Chatbot – also einer digitalen Entität, die menschliche Kommunikationsmuster imitiert und deren Antworten auf einer Wahrscheinlichkeitsanalyse basieren – nur ungern Honig ums Maul schmieren. Ich brauche keine KI, die mir sagt, dass meine Frage klug oder meine Idee gut ist. Und mal ehrlich: Wie viel ist Lob noch wert, wenn es selbstverständlicher Bestandteil von Interaktionen wird?
Anstatt also zum Bot-Boykott aufzurufen, soll dieser Kommentar dazu anregen, kritischen Austausch (wieder) als Chance zu verstehen, sich zu hinterfragen und sich erneut für die eigene Meinung zu entscheiden, weil sie einer Konfrontation standhalten konnte – oder sie entsprechend abzuändern. Diskussionen sind kein Gegeneinander, am Ende gibt es keinen glorreichen Sieger. Im Gegenteil: Im besten Fall gewinnen alle, nämlich an Kommunikationsfähigkeit, Kritikfähigkeit und Einsicht.
Bildquelle: Midjourney