Meldungen aus der UDE

Illustration eines Menschen mit Denkblasen, in denen steht: Agree? Human. Disagree? Robot.
© UDE/Sozialpsychologie

Umgang mit Softwarerobotern

Andere Meinung? Du bist ein Bot!

Schreibt hier ein Mensch oder steckt Künstliche Intelligenz dahinter? Wer auf Twitter, Instagram oder TikTok surft, ist – bewusst oder nicht – bereits auf Social Bots gestoßen: Automatisierte Profile, die kommentieren, liken oder Nachrichten schreiben. Sozialpsycholog:innen der UDE haben in mehreren Studien untersucht, wie wir damit umgehen. Erkennen wir die künstliche Intelligenz? Akzeptieren wir sie? Das hängt vom Thema ab – und von der Meinung des Bots.

Bots an sich sind praktisch: Sie erinnern uns ans Trinken oder geben Wetter-Updates. Doch Social Bots werden auch eingesetzt, um bestimmte Meinungen im Netz zu unterstützen oder gar gezielt Fake News – Falschinformationen – zu streuen.

Das Team aus der Sozialpsychologie hat untersucht, ob wir manipulative Social Bots als solche wahrnehmen, wann wir misstrauisch werden und sogar prüfen, ob ein Profil zu einem echten Menschen gehört: Für die drei online durchgeführten Befragungen haben sich insgesamt rund 600 Proband:innen aus den USA verschiedene Twitter-Profile angesehen. Diese Profile waren entweder stark den Republikanern oder den Demokraten zugewandt und darüber hinaus unterschiedlich individuell oder automatisiert gestaltet.

„Aufgrund des politischen Systems in den USA konnten wir davon ausgehen, dass die Teilnehmenden entweder die eine oder die andere Partei klar favorisieren würden“, erklärt Doktorandin und eine der Studienleiterinnen Magdalena Wischnewski. „In wenigen anderen Lebensbereichen gibt es eine so klare Zweiteilung.“

Es zeigte sich, dass die Teilnehmenden misstrauisch wurden, wenn die Profile sehr automatisiert wirkten. Jedoch wurde das von den Proband:innen eher toleriert, wenn der fragliche Account die gleiche politische Meinung zur Schau stellte wie sie selbst. Anders bei gegenteiligen Positionen: Wer den demokratischen US-Präsidenten unterstützt, wurde bei republikanischen Inhalten eher misstrauisch – und umgekehrt. Software, um Bots zu identifizieren, nutzten die Proband:innen meist, um eine bereits gefasste Meinung zu bestätigen.

„Die Ergebnisse lassen sich nicht nur geographisch auf Deutschland, sondern auch inhaltlich auf alle Lebensbereiche übertragen, bei denen es unterschiedliche Positionen gibt“, so Wischnewski. „Damit wir mit Social Bots interagieren, müssen diese menschlich wirken und sie müssen unserer Meinung sein. Davon gibt es aber nur sehr wenige. Entsprechend unwahrscheinlich ist es daher, dass viele User im direkten Kontakt auf Bots hereinfallen. Social Bots dienen also eher dazu, Themen so oft aufzugreifen, dass es scheint, als lägen sie im Trend.“

 

* „Disagree? You Must be a Bot! How Beliefs Shape Twitter Profile Perceptions”
Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems,

https://doi.org/10.1145/3411764.3445109

Weitere Informationen:
Setup der Studien in Open Access: https://osf.io/36mkw/
Magdalena Wischnewski, Sozialpsychologie, Tel. 0203/37 9-2442, magdalena.wischnewski@uni-due.de

Redaktion: Birte Vierjahn, Tel. 0203/37 9-2427, birte.vierjahn@uni-due.de

Zurück