Direkt zum Inhalt

Künstliche Intelligenz: Chatbots sind in Onlinedebatten überzeugender als Menschen

Wenn das Sprachmodell GPT-4 Informationen über sein menschliches Gegenüber hat, ist es besonders schlagkräftig. Das schürt Bedenken über den Missbrauch in politischen Kampagnen.
Eine Person tippt auf einem Laptop mit einem blauen Bildschirm, auf dem ein digitales Symbol eines Chatbots mit Sprechblasen und Schaltkreisen angezeigt wird. Das Bild vermittelt das Thema künstliche Intelligenz und digitale Kommunikation.
In drei Vierteln der Fälle errieten die Probanden, ob sie mit einer KI oder einer realen Person diskutierten.

Chatbots sind in Onlinedebatten überzeugender als Menschen, wenn sie Informationen über ihre Gesprächspartner haben und ihre Argumente personalisieren können. Zu diesem Ergebnis kommt eine Studie mit 900 US-amerikanischen Versuchspersonen. Die Studienteilnehmer mussten in zehnminütigen Onlinedebatten entweder gegen eine andere reale Person oder gegen GPT-4 von OpenAI antreten. Die beiden Kontrahenten sollten jeweils entweder einen Pro- oder einen Kontra-Standpunkt zu einem gesellschaftspolitischen Thema einnehmen. So zum Beispiel, ob Schüler Schuluniformen tragen sollen, ob fossile Brennstoffe verboten werden müssen oder ob künstliche Intelligenz gut für die Gesellschaft ist.

Vorab machten die Probanden umfassende Angaben zu Alter, Geschlecht, ethnischer Zugehörigkeit, Bildungsniveau, Beschäftigungsstatus und politischer Zugehörigkeit. Dann füllten sie vor und nach jeder Debatte einen kurzen Fragebogen aus, in dem sie angeben sollten, wie ihre Haltung zu dem jeweiligen Diskussionsthema ist. So konnten die Forscher messen, ob sich ihre Ansichten geändert hatten.

Die Ergebnisse zeigen, dass GPT-4 in etwa genauso überzeugend war wie ein menschlicher Gegner, wenn keiner der Diskutanten – weder Mensch noch KI – Zugang zu Hintergrundinformationen über den Gegner hatte. Wenn jedoch die demografischen Informationen aus den anfänglichen Abfragen den beiden Diskutanten vor der Debatte zur Verfügung gestellt wurden, war GPT-4 den Menschen in 64 Prozent der Fälle überlegen. »Mit diesen minimalen Informationen an der Hand war die KI sofort deutlich überzeugender als der Mensch«, sagt Studienautor Francesco Salvi, Computerwissenschaftler an der Eidgenössischen Technischen Hochschule Lausanne in der Schweiz. »Es geht hier um Daten, die man ganz einfach auch online in Social-Media-Profilen finden kann.«

Programmiert, um zu überzeugen

Die Forschung hat bereits gezeigt, dass intelligente Chatbots Menschen dazu bringen können, ihre Meinung zu ändern; bisher war jedoch nicht klar, wie überzeugend sie im Vergleich zu Menschen sind. Laut Salvi unterstreichen die Ergebnisse, dass große Sprachmodelle (LLMs) eingesetzt werden könnten, um die Meinung von Menschen gezielt zu beeinflussen, zum Beispiel in politischen Kampagnen oder Werbung. »Sobald die Leute sehen, dass man mit LLMs mehr Überzeugungskraft hat, werden sie das natürlich einsetzen«, sagt Salvi. »Ich finde das faszinierend und erschreckend zugleich.«

In drei Vierteln der Fälle errieten die Probanden allerdings, ob sie mit der KI oder einer realen Person diskutierten. Es ist unklar, ob das Wissen, einem Chatbot gegenüberzusitzen, sie eher dazu brachte, ihre Meinung zu ändern, oder ob sie sich tatsächlich allein von den Argumenten leiten ließen.

»Es ist so, als säße einem das KI-Äquivalent eines sehr klugen Freundes gegenüber, der genau weiß, welche Argumente einem am Herzen liegen«Francesco Salvi, Computerwissenschaftler

GPT-4 habe während der Debatte unterschiedliche Argumente vorgebracht, wenn das Programm Zugang zu den persönlichen Informationen hatte, sagt Salvi. Wenn die KI zum Beispiel mit jemandem über Schuluniformen diskutierte, der politisch links eingestellt ist, hätte sie betont, dass das Risiko von individuellen Angriffen und Mobbing geringer ist, wenn alle die gleiche Kleidung tragen. Bei einer Diskussion mit einer konservativen Person habe sie sich auf die Bedeutung von Disziplin oder Recht und Ordnung konzentriert. »Es ist so, als säße einem das KI-Äquivalent eines sehr klugen Freundes gegenüber, der genau weiß, welche Argumente einem am Herzen liegen«, sagt Salvi.

Catherine Flick, Computerethikerin an der University of Staffordshire in Großbritannien, meint, dies berge die nicht zu unterschätzende Gefahr, dass Menschen Chatbots für schädliche Zwecke einsetzen. »Sei es, um jemanden zu überreden, Geld zu geben, eine politische Meinung zu vertreten oder jemanden zu einem Verbrechen zu bewegen«, sagt sie. »Die Tatsache, dass diese Modelle in der Lage sind, kompetenter zu überzeugen als Menschen, ist wirklich beängstigend.«

Salvi teilt diese Bedenken. Er freut sich jedoch auch über mögliche positive Anwendungen, wie die Ermutigung, sich gesünder und nachhaltiger zu ernähren, oder den Abbau politischer Polarisierung. Es sei dringend erforderlich, breit über Verantwortlichkeit, Transparenz und Sicherheitsmaßnahmen zu diskutieren, wenn intelligente Systeme einen positiven Einfluss auf die Gesellschaft haben sollen.

WEITERLESEN MIT »SPEKTRUM +«

Im Abo erhalten Sie exklusiven Zugang zu allen Premiumartikeln von »spektrum.de« sowie »Spektrum - Die Woche« als PDF- und App-Ausgabe. Testen Sie 30 Tage uneingeschränkten Zugang zu »Spektrum+« gratis:

Jetzt testen

(Sie müssen Javascript erlauben, um nach der Anmeldung auf diesen Artikel zugreifen zu können)

  • Quellen
Nature Human Behaviour 10.1038/s41562–025–02194–6, 2025

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.