Manipulation durch Social Bots

Autor:In: Teodora Mebus

  • Polarisierung
  • Dialoginhalte
  • Debattenkultur
  • Kurz erklärt

In Kürze: Das World Economic Forum hat in seinem „Global Risks Report“ 2024 Fehl- und Desinformation als eines der größten globalen Risiken erklärt. Das Netz kompromittiert unsere politische Meinungsbildung, die Stimmung und Debattenkultur. Besonders gefährlich sind dabei Desinformationskampagnen, mithilfe von Social Bots. Seit 2016 stehen ausländische Regierungen im Verdacht, solche Kampagnen zu steuern – belastbare Beweise sind aber rar. Mit generativer KI werden Bots zugleich glaubwürdiger und häufiger.

Was sind Social Bots?

Bots, wie „Robots“ sind Programme, die Aufgaben selbstständig ausführen. Verschiedene Bot-Arten erfüllen unterschiedliche Zwecke. Webcrawler indexieren Seiten für Suchmaschinen. Chat-Bots unterstützen den Kundenservice. Spam-Bots installieren Malware, hacken Systeme und Accounts oder sammeln persönliche Daten.
Social Bots imitieren menschliches Verhalten. Sie nutzen geklaute Bilder und Daten für Fake-Accounts. Die meisten Nutzer kennen Bot-Accounts durch Freundschaftsanfragen von gutaussehenden Frauen. Auch Accounts, die ein Comic-Bild als Profilbild haben, sind typisch für Social Bots. Sie werden zur Beeinflussung politischer Meinungen, für Spam und Werbung, oder für Stimmungsmache gegen Einzelpersonen eingesetzt.

Es gibt verschiedene Definitionen von Desinformation. Für diesen Artikel wird die in Deutschland und der EU gängige Definition verwendet: Desinformation verbreitet gezielt falsche oder irreführende Informationen. Der Absender hat dabei eine bewusste Täuschungsabsicht, um Einzelne oder Gruppen zu manipulieren.
Im Unterschied dazu verbreiten Fehlinformation Unwahrheiten ohne Absicht. Der Absender wurde selbst getäuscht, hat die Fakten nicht überprüft oder sonstige Fehler gemacht und ohne Agenda falsche Informationen verbreitet.

Wie funktionieren Social Bots?

Social Bots nutzen Plattform-Mechanismen aus und generieren künstlich Reichweite. Sie führen koordinierte Trigger-basierte Aktionen durch. Konkret durchsuchen sie Beiträge nach Schlüsselwörtern und reagieren: liken, kommentieren, teilen. Die Algorithmen der Plattformen belohnen hohe Interaktionswerte mit Reichweite. So kann ein einzelner Post künstlich zur gesellschaftlichen Debatte anwachsen – nicht organisch, sondern durch die Agenda bestimmter Akteure.

Hinzu kommt: Die Kommentare bedienen emotionalisierte Narrative. Emotionalisierung und Spaltung generieren mehr Interaktion als faktische Debatten. Künstlich erzeugte Debatten sind oft von Anfang an faktisch falsch oder spalten und feinden an. Das führt zu immer stärkerer Polarisierung – bis hin zu Hass, Anfeindungen und Gewalt in der Offline-Welt. Wenn Einzelpersonen das Ziel einer solche Kampagne sind, gibt es schnell negative Konsequenzen für sie, ihre Position und ihr privates Umfeld. Seit OpenAI 2022 ChatGPT vorstellte und generative KI verfügbar machte, verbessern sich Social Bots kontinuierlich. Sie können selbst Inhalte und Desinformation erstellen. Ihre Kommentare und Inhalte werden immer menschlicher und glaubwürdiger. KI macht technische Fachkenntnisse für die Bot-Erstellung überflüssig. Experten und Behörden warnen deswegen vor mehr und raffinierteren Social Bots.

Wer steckt dahinter?

Seit dem Brexit-Referendum und Trumps erster Präsidentschaftswahl 2016 steht der Verdacht im Raum, Social Bots manipulierten die öffentliche Meinung – bis heute ist die Beweislage jedoch dünn.

Informatikprofessor Florian Gallwitz (TH Nürnberg) bezweifelte jahrelang, dass Bot-Netzwerke koordiniert politische Meinungen manipulieren. Im Oktober 2024 entdeckte er eindeutig Bot-Netzwerke auf X – Hunderte deutsche Accounts. Die Inhalte waren politisch harmlos. Manche verhielten sich widersprüchlich – warben für Elektroautos und Verbrenner. Zwar war zu dem Zeitpunkt keine politische Agenda zu erkennen. Vermutlich würden sie aufgebaut, um später als Spam-Bots oder Bots, die politische Meinungen manipulieren sollen, verkauft zu werden. Profile, die bereits eine Followerschaft haben und seit einigen Jahren schon auf der Plattform aktiv sind, wirken glaubwürdig als neue Accounts ohne eigenem Content und Follower. Die Accounts, die 2016 für Donald Trump warben, hätten vorher Spam-Inhalte verbreitet: Pornos, Sport, süße Tiere. Hinter Bot-Netzwerke können also zu verschiedenen Zeitpunkten verschiedene Akteure stecken. Das erschwert die Suche nach ihrer Identität.

Auch wissen wir leider nicht, wie viele Bot-Accounts auf Plattformen aktiv sind. Laut Imperva Bad Bot Report machen Bots etwa 50 Prozent des gesamten Webtraffics aus. Über den Anteil von Social Bots gibt es nur Schätzungen.

Beispiele für politische Manipulation durch Desinformation

1. Potsdamer Treffen (November 2023)

Im Zuge der Correctiv-Enthüllungen über das Potsdamer Treffen Ende November 2023 sind auch konkrete Pläne einer Desinformationskampagne bekannt geworden. Zur Erinnerung: Beim Potsdamer Treffen kamen rechte und konservative Akteure zusammen, um verfassungsfeindliche Ausreise-Fantasien von Menschen mit Migrationshintergrund zu besprechen. Dabei ging es auch darum, wie die AfD mehr Einfluss und politische Macht bekommen könnte. Ein Vortrag handelte von den Plänen, eine neurechte Social-Media-Agentur zu gründen. Diese sollte durch manipulatives Agenta-Setting Positionen der AfD in der Öffentlichkeit stärken. Es ging darum Desinformation zu verbreiten, die Reichweite für rechtsextreme Positionen zu erhöhen und damit sogar in die Trends kommen. Dafür wollte der Referent mit rechten Influencern kooperieren.

Interessanterweise wurden Bots in dieser Präsentation nicht erwähnt. Was aber genannt wurde: Die Absicht, politische Meinungen und Wahlen zu manipulieren, untermauert mit einer konkreten Strategie. Der Referent hatte schon vor dem Vortrag im Social Media Bereich für die AfD gearbeitet und hatte zum Zeitpunkt der Enthüllungen einen laufenden Arbeitsvertrag mit der Partei.

2. Rumänische Präsidentschaftswahl (Ende 2024)

Eine ähnliche Vorgehensweise ist bei den vergangenen Präsidentschaftswahlen in Rumänien zutage getreten: Ende 2024 erklärte das rumänische Verfassungsgericht erstmals eine Wahl wegen einer Desinformationskampagne für ungültig. Der prorussische Kandidat lag Wochen vor der Wahl bei einem Prozent, kurz vor dem Urnengang bei sechs – und gewann überraschend.

Geheimdienste belegten, dass 25.000 TikTok-Accounts kurz vor der Wahl seine Kampagne in die weltweiten Trends pushten. Neben der Koordinierung von einem russischen Telegram-Kanal aus, seien auch Zahlungen an bereits etablierten TikTok-Influencer*innen geflossen. Diese hätten mit Hashtags und im Wortlaut der Wahlkampagne für Calin Georgescu geworben.

Das Gericht sah es als erwiesen an, dass diese Wahl von Akteuren aus dem In- und Ausland manipuliert wurde. Die Wahl musste einige Monate später wiederholt werden. Die Europäische Kommission hat ein Verfahren gegen die Videoplattform Tiktok eingeleitet. Es gebe „ernsthafte Hinweise darauf, dass sich ausländische Akteure mit Hilfe von Tiktok in die rumänischen Präsidentschaftswahlen eingemischt haben“, so EU-Kommissionspräsidentin Ursula von der Leyen.

3. Gescheiterte Richterwahl für das Bundesverfassungsgericht

Kurz vor der politischen Sommerpause im Jahr 2025 sollte im Bundestag über drei neue Richter*innen für das Bundesverfassungsgericht abgestimmt werden. Dazu kam es nicht. In der Presse und in Sozialen Netzwerken entflammte eine polarisierende Debatte über die Kandidatin Frauke Brosius-Gersdorf. Ein Post von Beatrix von Storch führte zu einer Petition mit 150.000 Unterschriften. Die Koalition entschied sich dazu, die Abstimmung zu verschieben. Brosius-Gersdorf zog später ihre Kandidatur zurück.

Was zeigen diese Beispiele? Bots sind nur ein Mittel der Desinformation. Kampagnen beinhalten mehrere Strategien, die koordiniert zusammenwirken. Dabei sind echte Menschen mit hoher Reichweite und Glaubwürdigkeit bei bestimmten Gruppen möglicherweise einflussreicher. Sie können Impulse setzen, bestimmte Narrative vorgeben, während Bots mit einem Reichweiten-Boost „nur“ nachhelfen.

Psychologische Faktoren

Desinformationen wirken stärker als differenzierte, neutrale Berichterstattung. Psychologische Faktoren und Plattform-Algorithmen verstärken diesen Effekt. Plattformen halten ihre Algorithmus-Funktionsweise geheim. Sie wollen aber Nutzer*innen möglichst lange auf der Plattform halten. Daraus ergibt sich ein komplexes Zusammenspiel, aus dem hier nur drei wichtige Beispiele genannt werden sollen.

Emotionalisierte oder polarisierende Inhalte erzielen mehr Interaktion. Algorithmen belohnen das – Reichweite schaukelt sich so schnell hoch.

Bestätigungs-Bias: Menschen neigen dazu, Positionen zu bevorzugen, die ihrem eigenen Weltbild und Überzeugungen entsprechen. Algorithmen sozialer Medien arbeiten mit diesem Bias, indem sie die Präferenzen der Nutzer erkennen und versuchen, möglichst passgenau die Inhalte auszuspielen. Auf diese Weise entstehen Filterblasen und Echokammern.

Wiederholungs-Effekt: Je öfter wir eine Information lesen, hören oder sehen, desto glaubwürdiger finden wir sie – auch wenn wir es eigentlich besser wissen.

Gegen Desinformation wehren und die Demokratie schützen

Wir können uns bis zu einem gewissen Punkt individuell gegen Desinformation schützen. Das Bewusstsein für die Mechanismen hilft. Genauso wichtig ist es, die Grenzen dieser individuellen Bemühung realistisch einzuschätzen.

  1. Soziale Netzwerke sind nicht dafür da, Bürger*innen zu informieren. Sie erfüllen keine demokratische Aufgabe als vierte Gewalt, sondern verfolgen Geschäftsmodelle – vor allem Werbe-Anzeigen, Abo-Modelle und Datensammlung. Ihre Algorithmen kuratieren Inhalte so, dass Nutzer gebunden werden; Filterblasen sind systemisch.
  2. Wir überschätzen unsere Fähigkeit, KI zu erkennen. Menschen unterscheiden KI-generierte Inhalte kaum noch von menschlichen Inhalten. Eine Studie hat diese Fähigkeit bei Texten, Audios und Bildern getestet. Auch verschiedene Altersstufen, Bildungshintergründe oder Medienkompetenz spielen dabei keine ausschlaggebende Rolle. Dabei schätzen wir unsere Fähigkeit,KI zu erkennen, viel höher ein, als sie tatsächlich ist.
  3. Bots werden immer raffinierter. Perspektivisch ist es unrealistisch, dass Einzelne sie zuverlässig erkennen können.
  4. „Check and re-check“. Bevor User*innen Beiträge teilen, können sie die Glaubwürdigkeit der Person, oder des Absender-Accounts hinterfragen. Welche Interessen verfolgt sie? Stimmt die Information? Die journalistische Faustregel für den Faktencheck ist: können mindestens zwei voneinander unabhängige Quellen die Information bestätigen?
  5. Psychologische Mechanismen machen uns anfällig für Desinformation – auch wenn wir offen sind und emotionalisierte Inhalte hinterfragen. Es kann und wird uns trotzdem passieren, dass kognitive Verzerrungen unsere Wahrnehmung und Informationsverarbeitung färben. Ein bekanntes Beispiel ist ein Foto, das im Zuge der Flut-Katastrophe im Ahrtal verbreitet wurde. Die Rede ist von einem im Hochwasser stehenden Auto, auf deren Heckscheibe ein „Fuck you Greta“-Aufkleber klebte. Faktenchecker konnten beweisen, dass das Foto durch Bildbearbeitung gefälscht war.

Auf politischer und gesellschaftlicher Ebene ist die Bekämpfung von Desinformation erfolgsversprechender als individuelle Bemühungen. Plattformen brauchen wirksame Detektionssoftware. Diese existiert bereits, muss aber mit KI und technischen Fortschritten mithalten. Dann sollten die Plattformen identifizierte Bot-Accounts entfernen oder ihre Reichweite durch algorithmische Maßnahmen beschränken – das ist die sogenannte Deplattformisierung. Ein wirksames Mittel, da glaubwürdige Bot-Accounts über Jahre aufgebaut werden, und gelöschte Accounts nicht so schnell ersetzt werden können.

Darüber hinaus könnten die Kennzeichnung von KI gesetzlich verpflichtend sein. Damit zum Beispiel KI-generierte Videos, die durch Schreckensszenarien Angst und Hass schüren, nicht nur ihre Glaubwürdigkeit, sondern auch ihren Schrecken verlieren.

Während eines Wahlkampfs sind journalistische Medien in Deutschland an Regeln verpflichtet. Zum Beispiel sollen sie Parteien je nach Wahlergebnis, Fraktionsstatus und Parteigröße mit Sendezeit gewichten. Sie sollen neutral berichten und allen Parteien unvoreingenommen gleiche Chancen einräumen. Journalist*innen haben dabei auch die Aufgabe, falsche Aussagen zu korrigieren und Informationen in den richtigen Kontext zu setzen.

Auf Sozialen Netzwerken gibt es so etwas (noch) nicht. Zum Teil aus gutem Grund. Sendezeit gibt es in non-linearen Medien wie Soziale Netzwerke nicht. Dafür können sich die Parteien und Plattformen zumindest während eines Wahlkampfs zu Transparenz- und einem Verhaltenskodex verpflichten.

Medien sollten die Themenrecherche in Sozialen Medien einschränken. Redaktionen nutzen sogar Tools dafür, hitzige Diskussionen in Sozialen Netzwerken zu erkennen. Sie nutzen sie, um ihre Sendungen mit Themen zu füllen, die die Menschen vermeintlich beschäftigen. Diese Annahme ist aber fraglich, da Interaktion durch Spam und Social Bots künstlich erzeugt werden kann. Unhinterfragte Übernahme von Themen macht Medien zu Komplizen der Desinformation.

Die Eindämmung von Desinformation auf Sozialen Netzwerken bleibt eine sehr wichtige und komplexe Aufgabe. Es braucht internationale Kooperationen, Expert*innen auf verschiedenen Gebieten und Stakeholder mit unterschiedlichen Zuständigkeiten, um wirksame Maßnahmen zu finden. Eine wehrhafte Demokratie sollte die realen Gefahren durch Desinformationskampagnen und Social Bots ernst nehmen und sich mit entsprechenden Bemühungen davor schützen.

Quellen