Kalter Krieg im Cyberspace
Serie Europawahl 2004: Desinformation (Teil 8)
Kalter Krieg im Cyberspace
Social Media und künstliche Intelligenz bedrohen die Europäische Union – In- und ausländische Netzwerke setzen auf Verbreitungsalgorithmen
Von Stephan Lorz, Frankfurt
Einflussversuche auf den Verlauf und das Ergebnis der Europawahl gibt es innen- wie außenpolitisch zuhauf. Eine neue Dimension haben sie erreicht durch die Bedeutung von Sozialen Medien und ihren Algorithmen sowie neue Möglichkeiten durch künstliche Intelligenz. Die Herausforderung für Politik und Gesellschaft ist groß.
Irritation und Desinformation von Wählern, um demokratische Akte zu verunglimpfen, gibt es schon seit jeher. So machten schon vor Jahren Gerüchte die Runde, dass Stimmen ungültig würden, wenn das Wahlkreuz über den dafür vorgesehenen Platz im Kreis hinausgeht, an der Ecke des Wahlzettels ein Loch vorgestanzt oder sie abgerissen ist, und dass der Wahlzettel erst unterschrieben werden muss, um überhaupt gewertet zu werden. Neu ist seit einiger Zeit aber, dass derlei Behauptungen tief und breit in die digitalen Timelines der Nutzer von Social Media vordringen und nicht mehr auf kleinere aktivistische und verschwörerische Gemeinschaften beschränkt sind.
Algorithmen ohne Rechtskompass
Dank Facebook, „X“ (Twitter), Youtube, Instagram und Tiktok werden diese Falschmeldungen inzwischen republikweit gesendet und entfalten dank der eingesetzten Verbreitungsalgorithmen größere Wirkung, als sie der öffentlich-rechtliche Rundfunk jemals hatte. Zumal immer mehr Digitalnutzer die Informationsangebote von Social Media als Hauptinformationsquelle nutzen. Das Recherche-Netzwerk Correctiv informiert daher auf einer Seite über aktuelle Fake News in Social Media und findet dort auch immer neue Fälle offensichtlicher Desinformation. Der Bundeswahlleiter hat ebenfalls mit einer Informationsseite auf diese Herausforderung reagiert.
Viel schlimmer aber ist eine andere digitale Gefahr: Gerüchte, Verschwörungstheorien, Desinformation, gefälschte Nachrichten, Bilder und Videos, die nicht auf den ersten Blick als solche zu erkennen sind, kommen in der Regel ohne Kontext daher. Will man sich über die Echtheit und die dahinterstehenden Fakten informieren, wird das nicht wie bei seriösen Medien mitgeliefert, zumindest die Quelle genannt oder auf alternative Einschätzungen verwiesen. Sie müssen mit einigen Klicks erst anderswo im Netz abgeholt werden. Das aber erfordert Aufwand und Zeit für den Nutzer, eben den Extraklick, den die Social-Media-Tools aber anderswo haben wollen. Denn die Algorithmen präsentieren lieber den „nächsten heißen Scheiß“, der angeklickt werden soll und ihnen Werbegelder verspricht.
Mehr Raum für „alternative" Weltanschauungen
Obendrein verbreiten sich derlei Gerüchte, Unwahrheiten und Halbwahrheiten auf Social-Media-Plattformen so schnell, dass sie sich in einem breiten Bevölkerungsmix manifestieren, bevor überhaupt darauf reagiert werden kann. Was die Europawahl angeht, so sieht die europäische Agentur für Cybersicherheit (Enisa) die EU gegenwärtig als Hauptziel von Desinformationsattacken. Ziel der Akteure sei es, Zwietracht zu sähen und demokratische Institutionen zu desavouieren. Extremere Parteien bekommen damit mehr Raum, um ihre „alternativen“ Weltanschauungen unter die Menschen zu bringen.
Insgesamt geht es den Desinformanten in- und ausländischer Herkunft laut Enisa um die Deutungshoheit bei besonders kritischen und sensiblen Themen wie Ukraine, Klima, Migration, Energiepreisen und Gender. Denn sie sind leicht in einer Schwarz-Weiß-Methodik darzustellen, lassen sich leichter mit Glaubenssätzen und Behauptungen verbinden als etwa wirtschaftspolitische Themen, bei denen kaum eindimensionale Antworten möglich sind. Und für die in Social Media auch die Aufmerksamkeitsspanne des Publikums zu kurz ist.
Netzwerke lahmgelegt
Inzwischen wird auch künstliche Intelligenz (KI) für Desinformationsstrategien hergenommen, weil Fake News damit zielgenauer, unauffälliger, schneller und masssenhafter produziert werden können. Politische Abwehrmauern werden schier niedergewalzt. Zuletzt hatte der KI-Konzern Open AI (ChatGPT) fünf Netzwerke identifiziert und gestoppt, die mit KI Fake-Accounts angelegt und darüber Kampagnen gestartet hatten. Aufgedeckt wurde etwa das prorussische Netzwerk „Doppelganger“, das prochinesische „Spamouflage“ und eine iranische Operation, bekannt als „International Union of Virtual Media (IUVM)“.
Schon im Vorfeld hatte EU-Kommissionsvize Vera Jourova gewarnt, dass die Führung in Moskau Einfluss auf die Wahl nehmen will, um Europa zu spalten. Beim diplomatischen Dienst der EU wurde zwar schon vor Jahren eine Taskforce eingerichtet, um schneller reagieren zu können. Doch das verspricht allenfalls Einzelerfolge, weil die Reaktionszeit immer noch zu lange dauert, ein Löschen der entsprechenden Meldungen umständlich und die Welle der Desinformationskampagnen dann längst durch alle Timelines geschwappt ist.
Tiktok als Fake-News-Schleuder
Als durchaus scharfes Schwert wird indes der Digital Services Act (DSA) begriffen, mit dem die EU die großen Betreiber von Interneplattformen verpflichtet, schneller und rigoroser auf Desinformationskampagnen zu reagieren. Allerdings hat die Umsetzung des Gesetzeswerks bisher erst begonnen, so dass noch keine Erfahrungswerte vorliegen. Zudem scheinen die Betreiber unterschiedlich sensibel gegenüber Fake-Botschaften vorzugehen. Aber sollte eine Demokratie tatsächlich akzeptieren, dass staatsgefährdende Inhalte von privaten Unternehmen selektiert und gestoppt werden? Ist das nicht Aufgabe des Staates? Denn womöglich werden dabei auch Äußerungen unterdrückt, die eigentlich durch den Verfassungsgrundsatz der Meinungsfreiheit geschützt sind. Muss der Staat hier nicht selbst digital aufrüsten und etwa Schnittstellen zu Social-Media-Netzwerken einfordern, um direkt eingreifen zu können?
So wurden laut der Transparenz-Datenbank des DSA am 1. Juni europaweit 58.082 Fälle von Desinformation im Hinblick auf „negative Effekte für den politischen Diskurs und Wahlen“ von den Plattformbetreibern geahndet. Der Löwenanteil lag bei Tiktok mit 56.525 Fällen. Das sagt etwas aus über das Umfeld, das bei Tiktok aktiv ist. Allerdings kann es auch daran liegen, dass andere Plattformbetreiber wie Facebook, die täglich diesbezüglich nur ein- bis zweistellige Eingriffe vornehmen, noch zu nachlässig sind. Auf Tiktok wird der größte Teil der politischen Desinformation zudem mit automatischen Techniken aussortiert – Fehlerquoten unbekannt. Angesichts von rund 53 Millionen Meldungen von Verstößen über alle Bereiche und Plattformen hinweg an einem Tag ist das aber wohl auch nicht anders zu machen.
Twitter hat seit der Übernahme das Engagement eingestellt
Meta (Facebook und Instagram) sowie Google bekunden trotz ihrer geringen Eingriffszahlen bei politisch beeinflussenden Posts gleichwohl, Konsequenzen aus dem US-Wahlbetrugsdebakel gezogen zu haben. Vor knapp vier Jahren ist die Verunglimpfung des Ergebnisses der US-Präsidentenwahl noch ungebremst durch die Timelines der Social-Media-Nutzer geschwappt. Sie hätten inzwischen eigene Richtlinien zur „Wahlintegrität“ entwickelt, heißt es. Gefälschte Konten würden schneller identifiziert und entfernt. Bei „X“ (früher Twitter) scheint man seit der Übernahme durch Tesla-Gründer Elon Musk indes gar kein Engagement mehr an den Tag zu legen. Die Grünen-Politikerin Terry Reintke etwa kritisiert, dass dort nach wie vor „hetzerische Reden viel zu lange stehen bleiben“.
Politische Einflussnahme
Tiktok ist ein besonderer Fall, weil die politische Haltung ja auch durch Weglassen beeinflusst wird: So bekommen die 1,6 Milliarden Nutzer (davon 20 Millionen in Deutschland) kaum Postings zum Thema Uiguren, obwohl das Netzwerk darauf schwört, keine Zensur zu betreiben. Videos, in denen es um die unterdrückte Ethnie in China geht, sind aus dem Netzwerk verschwunden. Und wer will schon wissen, ob der Algorithmus (oder die Zensur?) nicht allen Nutzern schon durch die Auswahl und Häufigkeit von Videos über bestimmte politische Themen eine Welt suggeriert, die so nicht existiert? Denn auch so können Meinungen und Haltungen zu Politik und Wirtschaft beeinflusst werden.
FBI-Direktor Christopher A. Wray zeigt sich denn auch besorgt, dass die Chinesen die Möglichkeit haben, den Empfehlungsalgorithmus der Tiktok-App zu kontrollieren. Das ermögliche es ihnen, Inhalte zu manipulieren und diese bei Bedarf für Einflussnahme zu nutzen. Das allerdings ist nicht nur auf Tiktok beschränkt, sondern gilt im Hinblick auf die Algorithmen auf den Plattformen insgesamt. Denn diese bevorzugen grundsätzlich eher kurze Statements vor länglich differenzierte Erklärungen, eher krawallige und schrille als moderierende Posts und eher trendige statt hintergründige Themen, damit sie in die 30-Sekunden-Entertainment-Logik der Plattformen passen.
Social Media prägt Meinungsbild
Insofern prägen die Sozialen Medien gerade das Meinungsbild der jungen Menschen über Politik, Wirtschaft und Außenpolitik. Selbst dann, wenn es nicht um offensive Desinformation, sondern um die Darstellung ihrer gefühlten Realität geht, samt den Themen, auf die es aus Sicht der Plattformen für sie besonders ankommt. Immerhin scheinen rund 65% der 14- bis 29-Jährigen Umfragen zufolge ihren Nachrichtenkonsum bevorzugt über Social Media zu befriedigen. Und wie sich die Lage entwickelt, wenn in immer stärkeren Maße KI als Quell-Tool für Desinformation und gleichzeitig als Tool zur Erkennung und für Gegenmaßnahmen hergenommen wird, wird sich noch zeigen. Leichte, kaum merkliche Änderungen in der Sprache von Politikern in Videos, minimale Korrekturen des Gesichtsausdrucks oder eine Verdrehung von Worten können ja schon den Eindruck verändern, den diese Person auf die Zuschauer und -hörer macht. Gleichzeitig taugt KI aber auch zur Erkennung von Desinformation. Ein kalter Krieg im Cyberspace.
Zuletzt erschienen: Leitartikel: Die Vermessung der Mitte (4. Juni) Mehr Geld und Kompetenzen für Brüssel? (31. Mai) Weichenstellung für eine EU der 36 (28. Mai)