Gefälschte Videos streuen Zweifel und Unsicherheit
Von Tobias Fischer, FrankfurtAngenommen, der Vorstandschef einer großen Bank verkündet vor der Kamera desaströse Geschäftszahlen. Oder berichtet von der Aufdeckung eines Geldwäscheskandals seines Instituts. Ergeht sich in rassistischen oder sexistischen Beschimpfungen. Oder wird bei der Annahme von Bestechungsgeldern erwischt. Die Folgen wären verheerend. Experten warnen, dass Kriminelle oder Agenten sich künstliche Intelligenz (KI) zunutze machen können, um sich mit täuschend echt wirkenden, aber gefälschten Videos, Bildern und Tonaufnahmen mit solchen oder ähnlich schädlichen Inhalten zu bereichern, Menschen und Unternehmen zu diskreditieren, Gräben in Gesellschaften zu vertiefen und Konflikte zu schüren.Deep Fakes heißen diese KI-generierten Darstellungen, eine Wortzusammensetzung aus Deep Learning und Fake. Einen Schadensfall durch eine KI-gestützte Stimmenimitation, die einen Vorstandschef nachahmte, hat am Mittwoch Euler Hermes gemeldet (siehe eingeblockter Bericht). Bislang ein Einzelfall. Videoqualität noch schlecht Dass Führungskräften beispielsweise in gefälschten Videos oder Tonaufnahmen Worte in den Mund gelegt werden, die zu Kursreaktionen oder einem gewünschten Verhalten der Nutzer führen, etwa zu Aktienkäufen oder -verkäufen oder auch zu ungelegenen Reaktionen der Mitarbeiter, sieht der Deutschlandchef von Oliver Wyman, Kai Bender, hier zurzeit noch nicht als Bedrohung an. “Das kann zwar alles passieren, aber wir haben es noch nicht im großen Maßstab bei uns beobachten können”, sagt er. Dass Deep Fakes noch keine größere Verbreitung gefunden haben, führt Claus Herbolzheimer, Partner und Cyberexperte bei der Beratungsgesellschaft, auf zweierlei zurück: “Aufgrund der Tatsache, dass die Qualität noch relativ schlecht ist und es genug andere Einfallstore gibt, besteht noch gar nicht die Notwendigkeit, auf Deep Fake zurückzugreifen.”Das werde sich ändern, glauben Analysten der Ratingagentur Moody’s. Auch wenn Fälschungen und Fake News keine neuen Phänomene sind, so bringt der technologische Fortschritt immer hochwertigere Plagiate hervor, die mit bloßem Auge nicht mehr als Manipulationen erkannt werden können. Die Weiterentwicklung der KI werde wahrscheinlich häufiger als bisher zu Desinformationskampagnen gegen Unternehmen führen, erwartet Moody’s und weist auf die Kreditrisiken für attackierte Gesellschaften durch mögliche Auswirkungen auf die Reputation und auf entgangene Geschäfte hin. Angesichts der beschleunigten technologischen Entwicklung könne es irgendwann “menschlich unmöglich” werden, Fälschungen zu entlarven, schreibt Moody’s. “Wenn böswillige Akteure Deep-Fake-Desinformationstechniken nutzen, um dem Ruf eines Unternehmens derart zu schaden, dass Kunden sich von ihm abwenden, Investoren die Kapitalkosten erhöhen und Nachwuchstalente ihre Arbeitsmöglichkeiten überdenken, kann eine Desinformationskampagne schwerwiegende Auswirkungen auf das Kreditrating haben.” Und selbst wenn es gelingt, könnten Vorwürfe gegen ein Unternehmen dauerhafte Unsicherheit und Zweifel hervorbringen.Zu den ersten aufsehenerregenden Deep Fakes zählt ein gut zwei Jahre altes Video von Ex-Präsident Barack Obama, in dem er seinen Nachfolger Donald Trump als “kompletten Vollidioten” bezeichnet. Regisseur Jordan Peele wollte nach eigenem Bekunden darauf aufmerksam machen, wie einfach es ist, solche Fälschungen unters Volk zu bringen und welche Gefahren ihnen innewohnen. Viral ging in diesem Juli auch ein Video von Mark Zuckerberg, in dem der Facebook-Chef sich mit selbstkritischen Worten an die Zuschauer wendet: “Stellt euch das mal eine Sekunde lang vor: Ein Mann mit totaler Kontrolle über Milliarden gestohlener Daten von Menschen, all ihre Geheimnisse, ihre Leben, ihre Zukunft.”Die Clips sind zwar auch für den Laien bei genauerem Hinsehen und Hinhören als frisiert erkennbar, geben aber einen Vorgeschmack auf das, was noch kommen mag, zumal es keiner besonderen technologischen Fertigkeiten und Accessoires bedarf, um Deep Fakes herzustellen. Die lassen sich mittlerweile, wenngleich noch in bescheidener Qualität, von jedem Amateur mit frei zugänglicher Software produzieren und fluten das Internet. Mit falscher Identität Beispiele mit Öffentlichkeitswirkung hält Bender aber in der Regel für weniger gefährlich als solche, die keinen “Einmaligkeitscharakter” haben und sich eher im Verborgenen abspielen. “Es sind Fälle, in denen es durch den Technologieeinsatz gelingt, die Sicherheitsmechanismen so fundamental zu unterwandern, dass die Technologie wiederholt eingesetzt werden kann und skaliert und unbemerkt über einen längeren Zeitraum Geld abgeschöpft wird.” Wenn Daten über einen längeren Zeitraum aus Rechenzentren abgesaugt werden z. B., mit denen dann Schindluder getrieben wird. Auch weist er auf die Möglichkeit massenhafter Täuschungen hin, wenn es darum geht, sich online zu authentifizieren. “Ein Szenario wäre, dass Betrüger im Namen anderer Menschen mithilfe von Deep Fakes Konten eröffnen.” Gerade Neobanken wie N26 nutzen Video-Identifizierungsverfahren bei der Kontoeröffnung. Das wurde in der Vergangenheit zwar auch schon von Kriminellen ohne KI-Einsatz missbraucht, um Konten zwecks Geldwäsche zu eröffnen, doch böten sich ihnen neue Möglichkeiten. Die Finanzbranche könne sich aber wehren, sagt Bender. “Die Bankenwelt steht dem nicht wehrlos gegenüber.” Banken sind nicht schutzlosZu nennen sei etwa die Zwei-Faktor-Authentifizierung, also der Identitätsnachweis mittels zweier verschiedener Merkmale, z. B. per biometrische Charakteristika und via Passwort. Ein gefälschtes Video müsse zudem über einen bestimmten Kanal, der vertrauenswürdig sei oder nicht, transportiert werden. Damit ergäben sich Einwirkungsmöglichkeiten. Moody’s etwa spricht sich für die Beobachtung sozialer Medien und bestimmter Internetseiten aus, um frühzeitig eingreifen und auf die Entfernung gefälschter Inhalte pochen zu können.Oliver-Wyman-Partner Herbolzheimer plädiert dafür, dass Banken und Unternehmen in Mitarbeitertrainings investieren und sich verstärkt damit auseinandersetzen, wer mit sensiblen Daten arbeitet, um dann gegebenenfalls die Sicherheitsüberprüfungen zu intensivieren. “Organisationen müssen herausfinden, wer die Angreifer sind und welche Informationen und Daten für diese interessant sind. Viele haben sich strukturell noch wenig Gedanken dazu gemacht.”Hier sieht Bender ebenfalls Nachholbedarf. “Technologien sind nie alleine eine Bedrohung, sondern können immer nur dann dazu werden, wenn sie mit Organisations- oder strategischem Versagen einhergehen.” Das allein reicht nach Ansicht der beiden aber nicht, um dem Problem gerecht zu werden. Vielmehr müsse beispielsweise auch im Schulunterricht dafür sensibilisiert werden, schlägt Herbolzheimer vor. “Das größere Problem, das hinter Deep Fake steckt, ist ein gesellschaftliches. Es bietet ganz neue Formen der Manipulation. Ich erwarte, dass es zumindest für eine gewisse Zeit eine Herausforderung wird für die Gesellschaft, vielleicht auch Demokratien.” Die Gefahr ist, dass Fake News und Deep Fake Gemeinwesen weiter spalten und Vertrauen in Entscheider, staatliche Institutionen und in die Demokratie unterminieren. An allem zweifelnWenn nicht mehr zwischen echt und falsch unterschieden werden kann, wenn die Grenze zwischen Fiktion und Realität verschwimmt, werden auch Fakten und alte Gewissheiten in Zweifel gezogen. So fürchtet die US-amerikanische Juristin Danielle Citron, Professorin an der Boston University Law School, die potenzielle Sprengkraft durch die Verbreitung von Deep Fakes für den Einzelnen wie für ganze Gesellschaften. “Unter Beschuss geraten werden Reputationen, politische Diskurse, Wahlen, der Journalismus, die nationale Sicherheit und die Wahrheit als Grundlage der Demokratie.” In einer im Januar veröffentlichten Bedrohungsanalyse verweisen die US-Geheimdienste darauf, dass Gegner der Vereinigten Staaten wahrscheinlich versuchen würden, gegen das Land und seine Verbündeten gerichtete Einflusskampagnen mit echt wirkenden, aber gefälschten Bildern, Audio- und Videodateien anzureichern.