FINANZKRIMINALITÄT IN DER CORONAKRISE - IM INTERVIEW: HENRY AJDER

"Deepfake-Marionetten könnten Probleme bereiten"

Deeptrace-Experte zu Gesichts- und Tonimitationen

"Deepfake-Marionetten könnten Probleme bereiten"

Die in Amsterdam ansässige Firma Deeptrace bedient sich künstlicher Intelligenz (KI), um Deepfakes zu erkennen und zu überwachen. Dabei handelt es sich um KI-generierte Videos, Audio- und Bildformate, die meist eingesetzt werden, um Schaden anzurichten. Henry Ajder ist Head of Threat Intelligence bei Deeptrace. Herr Ajder, Strafverfolgungs- und Aufsichtsbehörden beobachten in der Coronakrise einen Kriminalitätsanstieg. Kommen auch Deepfakes häufiger zum Einsatz?Wir haben ein gesteigertes Interesse und Datenaufkommen in Online-Communities beobachtet, in denen Menschen lernen, Deepfakes zu benutzen. Das Volumen der von uns überwachten Deepfakes ist aber nicht in besonderer Weise gewachsen, es ist keine explosionsartige Verbreitung krimineller Anwendungen festzustellen. Die überwiegende Zahl der Deepfake-Videos im Internet ist nach wie vor pornografisch. Von wem droht die größte Gefahr: Von Einzelpersonen, frustrierten Ex-Mitarbeitern etwa, von staatlichen Akteuren, zum Beispiel um politische Ziele zu erreichen, oder von Kriminellen, die Kasse machen wollen?Das hängt davon ab, ob sich die Technologie demokratisiert. Wird das der Fall sein, werden die Werkzeuge zur Erstellung hochwertiger Deepfakes für jeden mit Basis-Computerkenntnissen verfügbar. Das bedeutet, dass wir wahrscheinlich eine große Zahl bösartiger Deepfakes erleben werden, die Personen und Organisationen angreifen. Bis dahin wäre es aber noch ein weiter Weg, und Firmen würden sich veranlasst sehen, mehr Gegenmaßnahmen zu ergreifen. Der Einsatz hochwertiger Deepfakes durch eine kriminelle Gruppe oder eine Regierung ist im Moment wahrscheinlich die größere Bedrohung. Wie schätzen Sie die Gefahr für Banken ein?Insbesondere die synthetische Sprachausgabe macht erhebliche Fortschritte. Sie stellt eine echte Bedrohung für das Bankwesen dar. In Zukunft könnten auch synthetische Gesichtsimitationen – Deepfake-Marionetten -, mit denen ein Kunde oder Manager in Videokonferenzen imitiert wird, erhebliche Probleme bereiten. Die Fragen stellte Tobias Fischer.