Kampf gegen digitale Windmühlenflügel
Serie zur Bundestagswahl (9): Digitale Desinformation
Kampf gegen Windmühlenflügel
Politischer Gegenwind aus den USA öffnet Desinformation und Manipulationen in der Politik Tür und Tor – Bewährungsprobe für den Digital Service Act
Von Stephan Lorz, Frankfurt
Unter dem Deckmantel der „freien Meinungsäußerung“ segeln Schmähungen, Manipulationen, Desinformationen und Lügen durchs Internet. Die Plattformbetreiber zeigen sich wenig kooperativ, zumal die neue US-Administration sie im Kampf gegen die EU-Regulierung bestärkt. Demokratie und Wahlen befinden sich in einem Stresstest.
Europa muss sich längst einer Invasion erwehren: einer Armee aus digitalen, teilautomatisierten Bots, die über Internet und soziale Netze für Verunsicherung sorgen und die freie Meinungsäußerung etwa bei Wahlen beeinflussen wollen. Über Fake-News-Seiten und Schläferkonten werden Desinformationen verbreitet, einzelne Politiker oder die politische Ordnung insgesamt mit KI-generierten Bildern diskreditiert und geschmäht. Die Sorge ist groß, dass damit auch ganze Wahlen erschüttert und die politische Haltung der Bürger beeinflusst wird, weil sie darauf reinfallen. Das rumänische Verfassungsgericht sah sich im Dezember schon gezwungen, die erste Runde der Präsidentschaftswahl wegen eines „aggressiven russischen hybriden Angriffs“ für ungültig zu erklären.
Tatsächlich zeigen sich nach einer Umfrage des Digitalverbands Bitkom 88% der Wähler in Sorge, dass „fremde Regierungen versuchen, die Bundestagswahl über soziale Medien zu manipulieren“. 45% meinen, dass Russland diesbezüglich aktiv ist, 42% halten aber auch die USA für einen Täter. Trumps Berater, der Tech-Milliardär Elon Musk, hatte sich zuletzt immer wieder offensiv für die rechtspopulistische Partei Alternative für Deutschland (AfD) starkgemacht. Nur 26% sehen China im Hintergrund am Wirken.
Soziale Medien dominieren
Das Problem ist auch, dass sich von den Befragten 56% nach eigenem Bekunden über Politik hauptsächlich über Facebook informieren, 25% über LinkedIn und 18% über Instagram. Zumal sich in einer Sonderauswertung der Pisa-Studie mehr als die Hälfte der Schüler in Deutschland dazu bekennen, Probleme zu haben, Falschnachrichten im Netz zu erkennen. Obendrein überprüft etwa ein Drittel der deutschen Jugendlichen nicht, ob Informationen korrekt sind, bevor sie diese digital weiterverbreiten.
Die Rolle der sozialen Medien ist also entscheidend. Und hier kommt dann der Digital-Service-Act (DSA) der EU ins Spiel. Nach dem Plattform-Gesetz müssen Dienste mit über 45 Millionen aktiven europäischen Nutzern u.a. systemische Online-Risiken rund um die Integrität von Wahlen analysieren und blockieren.
Zahnlose „Leitlinien“?
Davon betroffen sind Google (Youtube), Microsoft (LinkedIn), Facebook (Meta und Instagram) sowie Tiktok und „X“, das ehemalige „Twitter“. Laut den Leitlinien müssen die Betreiber die Grundrechte wahren, samt dem Recht auf freie Meinungsäußerung. Künstliche und manipulierte Bilder, Audios und Videos müssen eindeutig gekennzeichnet oder auf andere auffällige Weise markiert werden.
Die Bundesnetzagentur hatte die Plattformbetreiber hierzu im Januar an einen runden Tisch gebeten. Über die Ergebnisse verlautete allerdings nichts. Dass US-Vizepräsident JD Vance nun vor wenigen Tagen auf der Münchner Sicherheitskonferenz die EU rüffelte, weil sie seiner Meinung nach mit ihrer digitalen Regulierung die „freie Meinungsäußerung“ auf den Plattformen der Digitalkonzerne unterdrücke, zeigt aber, von welchem Freiheitsbegriff die neue US-Administration ausgeht. Die Digitalkonzerne werden mittelbar zum Widerstand aufgefordert. Und das kommt ihnen durchaus entgegen, binden Moderation, Filterung und Löschung auf den Plattformen doch große Ressourcen.
Faktenchecker überfordert
In den USA wurden die Faktenchecker bereits weitgehend entlassen, auf den europäischen Plätzen gibt es sie noch. Aber auch sie können Verstöße nicht umgehend aus dem Verkehr ziehen oder markieren, wie Experten rügen. Mit Leichtigkeit seien solche Posts auffindbar. Doch oftmals sind die Plattformbetreiber allein aufgrund der schieren Masse der Posts dazu gar nicht in der Lage. Viele echte und künstliche Accounts (Bots) verbreiten ihre Posts abgestimmt und KI-gestützt in vielen Wellen. Zudem stammen die verbreiteten „Informationen“ von Websites, die scheinbar echte Nachrichten anbieten. Das macht die Erkennung schwierig. Und oft werden sogar Seiten von realen Medien dafür geklont, wie „Spiegel“ und „FAZ“ schon erfahren mussten.
Vor einigen Wochen hat eine Recherchegruppe um die Faktenprüforganisation Correctiv nach eigener Aussage ein Desinformationsnetzwerk aus 102 Webseiten enttarnt, das versucht haben soll, die Bundestagswahl zu beeinflussen. So sei behauptet worden, die Bundeswehr mobilisiere 500.000 Männer für einen Einsatz in Osteuropa. Weiter sei dem FDP-Politiker Marcus Faber unterstellt worden, er sei ein russischer Agent. Und auf der scheinbar echten Nachrichtenseite „Neue Presse“ wurde verkündet, dass Deutschland den „Import“ von 1,9 Millionen kenianischen Arbeitskräften plant. „Eine neue Migrationskrise am Horizont?“, fragen die Autoren in der Überschrift.
Forensische Werkzeuge
Auf Telegram bedienen sich die Desinformanten nach Erkenntnissen des Fraunhofer-Instituts für Sichere Informationstechnologie (SIT) eigener Creator-Channels und separater Spreader-Channels, um die Massenwirkung zu steigern. Mit dem in Darmstadt entwickelten Tool Dynamo wird die Dynamik von Desinformationskampagnen optisch aufbereitet und damit verständlicher, werden die Hauptakteure sichtbar und können Instrumente entwickelt werden, um der Verbreitung von Fake News entgegenzutreten. Außerdem wird an Mitteln und Wegen geforscht, wie man Fake-News und Manipulationen maschinell vorfiltern und sichtbar machen kann. Martin Steinebach, Leiter der Abteilung Media Security und IT Forensics am SIT, hat etwa Werkzeuge entwickelt, um die Nachmanipulation von Fotos erkennbar zu machen.
Aber mehr Aufklärung kommt dann an Grenzen, wenn sich die Menschen der Entwicklung gar nicht bewusst sind, oder – wie das Beispiel in den USA zeigt – allein die schiere Masse an Desinformation den Blick auf die Welt verändert. Wenn „Fake“ immer mehr einsickert und immer mehr für „Facts“ gehalten werden. Das zeigt ein Blick in die USA, wo JD Vance und die Republikanerin Marjorie Taylor Green keine Probleme damit hatten, erkennbare Falschbehauptungen über den politischen Gegner weiterzuverbreiten.
Druck auf Plattformbetreiber
Regulierung bleibe unverzichtbar, betonte denn auch die Chefin des Bundesamtes für Sicherheit in der Informationstechnik (BSI), Claudia Plattner, auf der Münchner Sicherheitskonferenz und machte drei konkrete Vorschläge: kein Account für Bots, Kennzeichnung von KI-generierten Inhalten, sowie das Angebot, Inhalte digital zu signieren, um ihre Authentizität überprüfen zu können. Technisch-kryptografisch seien das Peanuts. Zwar müssten die Plattformbetreiber kooperieren, doch die Implementation sei weitgehend kostenfrei und es gebe mehr Transparenz für die Nutzer.
Kürzlich machten neue Fake-News die Runde, die – ganz im Sinne von US-Präsident Trump – die jüngsten politischen Entscheidungen stützen sollen: Die US-Behörde USAID habe 20 Mill. Dollar für Schauspielerin Angelina Jolie, fünf Mill. Dollar für Schauspieler Sean Penn, vier Mill. Dollar für Schauspieler Ben Stiller ausgegeben, um das Image des ukrainischen Präsidenten Wolodymyr Selenskyj aufzupolieren. Trump-Berater Elon Musk re-tweetete diese „Nachricht“ sofort – wohl, weil sie seinen Mittelstopp für USAID zu rechtfertigen scheint.
Hier finden Sie alle Teile der Serie zur Bundestagswahl 2025.
Zuletzt erschienen: Weniger Planungsrecht und Steuern, mehr privates Kapital (15.2.) Kapitalmarkt als Schlüssel für Investitionen (13.2.)