Was Staaten gegen Desinformationskampagnen tun
Wie Staaten gegen Desinformation vorgehen können
KĂŒnstliche Intelligenz und immer bessere Algorithmen treiben die Verbreitung von falschen Nachrichten im Superwahljahr 2024 voran
Von Gesche WĂŒpper, Paris
Ein manipuliertes Video der Tagesschau, in dem ein willkĂŒrlich zusammengeschnittenes Interview den Eindruck vermittelt, öffentlich-rechtliche Medien in Deutschland hetzten gegen Opposition und Minderheiten. Eine mithilfe von kĂŒnstlicher Intelligenz erstellte Aufnahme, die die Stimme eines proeuropĂ€ischen slowakischen Politikers nachahmt und ihm Aussagen in den Mund legt, wie er die Stimmen von WĂ€hlern manipulieren will.
KI und immer bessere Algorithmen verĂ€ndern nicht nur die Art, wie Informationen produziert, geteilt und konsumiert werden. Sie machen es auch immer schwieriger, authentische Inhalte von gefĂ€lschten zu unterscheiden. Im Superwahljahr 2024, in dem die HĂ€lfte der globalen Bevölkerung wĂ€hlen soll, ist das von entscheidender Bedeutung â zumal inzwischen Soziale Medien die am stĂ€rksten genutzte Informationsquelle sind. Gezielte Desinformationskampagnen können nicht nur weitreichende Konsequenzen fĂŒr Wahlen, sondern auch fĂŒr viele andere Bereiche haben, von der nationalen Sicherheit ĂŒber das Gesundheitswesen bis zur Privatwirtschaft.
Bots geben Takt vor
Institutionen und Regierungen, aber auch Unternehmen wie Google beschĂ€ftigen sich deshalb verstĂ€rkt mit dem Thema. Die Organisation fĂŒr wirtschaftliche Zusammenarbeit und Entwicklung (OECD) hat kĂŒrzlich einen 141 Seiten langen Bericht veröffentlicht, wie Gesellschaften mit Desinformationen umgehen und die InformationsintegritĂ€t stĂ€rken können. Darin analysiert sie auch, welche MaĂnahmen einzelne LĂ€nder bereits ergriffen haben â damit andere Staaten davon lernen können.
âKeine Demokratie kann das Problem des Anstieges von Desinformationen allein lösenâ, ist OECD-GeneralsekretĂ€r Mathias Cormann ĂŒberzeugt. Deshalb plĂ€diert er fĂŒr eine stĂ€rkere internationale Zusammenarbeit auf dem Gebiet. Gleichzeitig warnt er davor, aus Angst vor Desinformationskampagnen Medien immer stĂ€rker regulieren zu wollen. âDer Kampf gegen Desinformationen darf niemals die Form einer Kontrolle der Informationen annehmenâ, sagt er.

Allerdings wird die Wirkung von Desinformationen, die mittels generativer KI erzeugt wurden, mittlerweile durch den Einsatz von Algorithmen und Robotern, den sogenannten Bots, zusĂ€tzlich verstĂ€rkt. Damit können falsche Nachrichten zu geringen Kosten schnell unter sehr vielen Nutzern verbreitet werden. Wichtig sei deshalb, ĂŒber die von traditionellen Medien in der Regel angewandte Selbstkontrolle hinauszugehen, rĂ€t Elsa Pilichowski, die Direktorin fĂŒr Public Governance bei der OECD. Das gelte vor allem fĂŒr Soziale Medien. Alle Plattformen, die Informationen verbreiten, mĂŒssten dafĂŒr mehr Verantwortung ĂŒbernehmen, empfiehlt sie. Damit ihre kommerziellen Interessen nicht zur massiven Verbreitung von Fake News beitragen, hĂ€lt die OECD neben mehr Verantwortung mehr Transparenz fĂŒr notwendig.

Ein Beispiel, wie das gehen kann, ist ein 2019 in Kalifornien in Kraft getretenes Gesetz, der Bolstering Online Transparency Act. Dieser verpflichtet Bots, ihre IdentitĂ€t im Netz offenzulegen. Um Fake News besser bekĂ€mpfen zu können, sei es zudem wichtig zu verstehen, wie Algorithmen erstellt werden, meinen Experten. Denn bis heute sei nicht bekannt, welchen Effekt diese hĂ€tten, erklĂ€rt Oana Goga. Sie leitet fĂŒr das französische Forschungszentrum Centre national de la recherche scientifique (CNRS) das Informatiklabor an der Ăcole Polytechnique und erforscht dort die Risiken von Online-Plattformen und KI fĂŒr Individuen und Gesellschaften. âWir mĂŒssen uns eher auf den Prozess der Herstellung von falschen Informationen konzentrieren als auf ihren Inhaltâ, sagt sie.
Helfen, sich gegen auslĂ€ndische digitale Einflussnahmen zu schĂŒtzen, soll auch der 2021 in Frankreich ins Leben gerufene staatliche Dienst Viginum. Er analysiert öffentliche Online-Inhalte. Erst jĂŒngst hatte er herausgefunden, dass ein Netz von mindestens 193 Informationsportalen in europĂ€ischen LĂ€ndern sowie den USA prorussische, irrefĂŒhrende oder unrichtige Informationen verbreitet. Diese werden von den Portalen nicht selber erstellt, sondern von Konten auf Sozialen Medien, russischen Presseagenturen und offiziellen Stellen bezogen.
Riesiges Bot-Netz ausgehoben
Quasi als Folge dieser Erkenntnisse debattiert die französische Nationalversammlung jetzt einen Gesetzentwurf, der vom amerikanischen Foreign Agents Registration Act (FARA) inspiriert ist. Damit sollen auslÀndische Akteure, die das öffentliche Leben in Frankreich beeinflussen, gezwungen werden, sich zu registrieren und Ethikregeln einzuhalten. Die linkspopulistische Oppositionspartei La France Insoumise will das Gesetz jedoch verhindern.
David Colon vom Institut des Sciences Politiques empfiehlt, vor allem die Bevölkerung zu sensibilisieren. Obwohl gerade die junge Generation Vertrauen in offizielle Institutionen verliere, sei Medienerziehung unterfinanziert, unterbewertet und zu wenig verbreitet, kritisiert er. Colon rĂ€t, sich an Finnland zu orientieren, wo Medienbildung seit den fĂŒnfziger Jahren auf dem Stundenplan steht. Im Rahmen des Pflichtfachs beschĂ€ftigen sich finnische SchĂŒler inzwischen intensiv mit Desinformationskampagnen.
Um das VerstĂ€ndnis zu erhöhen, wie Desinformationen verbreitet werden, haben Forscher des Social Decision-Making Laboratory der University of Cambridge mit dem MĂ©dialab von Sciences Po, unterstĂŒtzt von GroĂbritannien und der Weltgesundheitsorganisation, das Online-Spiel âGo Viral!â entwickelt. Es simuliert ein Umfeld in Sozialen Medien und setzt die Spieler gĂ€ngigen Manipulationstechniken aus. Schweden wiederum hat 2022 die Swedish Psychological Defence Agen-
cy gegrĂŒndet. Sie identifiziert, analysiert und kontert auslĂ€ndische Beeinflussungskampagnen, die sich gegen die Landesinteressen richten. Auch das soll die SensibilitĂ€t der Bevölkerung steigern.