Social Bots und echte Nutzer auf Twitter nicht unterscheidbar
Automatisierte Softwareprogramme, auch Social Bots genannt, die in sozialen Netzwerken menschliche Verhaltensmuster simulieren und teilweise als „Fake-Account“ auftauchen, können in der direkten Kommunikation mit Usern nicht von Menschen unterschieden werden. Dies ist das Ergebnis einer aktuellen Studie der WissenschaftlerInnen Ema Kušen und Mark Strembeck an der Wirtschaftsuniversität Wien.
Automatisierte Softwareprogramme, auch Social Bots genannt, die in sozialen Netzwerken menschliche Verhaltensmuster simulieren und teilweise als „Fake-Account“ auftauchen, können in der direkten Kommunikation mit Usern nicht von Menschen unterschieden werden. Dies ist das Ergebnis einer aktuellen Studie der WissenschaftlerInnen Ema Kušen und Mark Strembeck an der Wirtschaftsuniversität Wien.
Social Bots lassen unter anderem für politische Stimmungsmache und Desinformation im Netz missbrauchen – insbesondere vor Wahlen oder anderen politischen Ereignissen. Hierbei handelt es sich um Softwareprogramme, die menschliche Präsenz im Netz vortäuschen. Wie gut sie dies tun, zeigt eine aktuelle Studie von Ema Kušen und Mark Strembeck, die am Institut für Wirtschaftsinformatik und Neue Medien der Wirtschaftsuniversität Wien (WU) tätig sind. Die beiden WissenschaftlerInnen untersuchten anhand von 4,4 Millionen Tweets, wie Social Bots die Stimmung im Netz beeinflussen und wie sie ihr Verhalten bei der Direktkommunikation mit anderen Nutzern ändern.
Gute Tarnung der Bots
Die Ergebnisse zeigen, dass menschliche BenutzerInnen in ihren Tweets generell eher der Grundstimmung einer Diskussion folgen, während Social Bots versuchen, die Stimmung durch entgegengesetzte Emotionen umzukehren. Zum Beispiel twitter ein Social Bot zum positiven Ereignis Thanksgiving Day: „Sissy Mitt Romney signed Massachusetts gun ban #thanksgiving #Trump #MAGA“. Bei kontrovers diskutierten Ereignissen wie Wahlen verschicken Social Bots insbesondere emotional polarisierende Nachrichten und versuchen so, die öffentliche Meinung zu beeinflussen. Im Kontext der US-Präsidentschaftswahl zum Beispiel: „ObamaFail I’ll be so happy to see this joke move out of the White House!! #VoteTrumpPence16“. Dabei wurde deutlich, dass Social Bots zu diesem Zweck sogar polarisierende Nachrichten in thematisch fremde Diskussionen einstreuen. In der Direktkommunikation mit menschlichen Benutzern ändert sich dieses Verhalten jedoch: Richten Social Bots ihre Nachrichten direkt an Twitter-Benutzer, mit der Adressierung @TwitterUser, passen sie sich ebenfalls der allgemeinen Grundstimmung an. „Social Bots sind in der Direktkommunikation anhand der Emotionen, die sie versenden, nicht mehr von Menschen zu unterscheiden“, erklärt Mark Strembeck.
Signifikante Muster erkennen
Strembeck und Kusen konnten bei ihrer Analyse auch zahlreiche statistisch signifikant Mustern, sogenannte „Emotion Exchange motifs“, identifizieren, die typisch für die Direktkommunikation mit menschlichen Usern sind. Die neuen Muster für acht verschiedene Emotionen stellen einen wichtigen Schritt in der Forschung dar. „Anlässlich der EU-Wahl im Mai 2019 gab es zum Beispiel Warnungen, dass verschiedene Interessensgruppen versuchen könnten, in sozialen Netzwerken die Wahl zu beeinflussen. Die Ergebnisse können dazu beitragen, Social Bots in Zukunft zuverlässiger zu identifizieren. In verschiedenen Folgestudien wird nun die Frage zu klären sein, warum sich das Verhalten von Social Bots beim Versand von Broadcast-Nachrichten vom Verhalten bei einer Direktkommunikation unterscheidet“, kommentiert Studienautor Strembeck.
Über die Methodik
Für ihre Studie analysierten Kusen und Strembeck 1,3 Millionen anonymisierte Twitteraccounts und deren 4,4 Millionen Tweets, die mit 24 systematisch ausgewählten Ereignissen (sowohl positiv als auch negativ diskutierte Ereignisse) in Beziehung standen. Die Analysen umfassen strukturelle Netzwerkanalysen wie auch temporale Analysen der Auswirkungen von acht verschiedenen Emotionen (Abscheu, Furcht, Traurigkeit, Wut sowie Erwartung, Freude, Vertrauen und Überraschung). Das besondere Interesse galt hierbei der Identifikation von Kommunikationsmustern, die sich durch den Austausch emotionaler Nachrichten ergeben. Hierfür wurde das von Ema Kušen und Mark Strembeck entwickelte Konzept der „Emotion-Exchange Motifs“ angewendet.
Teilen Sie die Meldung „Social Bots und echte Nutzer auf Twitter nicht unterscheidbar“ mit Ihren Kontakten: