Mit Deep Fakes kann bald jeder Chef spielen
Das virtuelle Klonen von Gesichtern und Stimmen via sogenannter Deep Fakes wird alsbald ein Kinderspiel sein. Angesichts der rasanten technologischen Entwicklung und der Verfügbarkeit der erforderlichen Software werden sie immer hochwertiger und wecken das Interesse von Kriminellen, aber auch politischen Spindoktoren und Geheimdiensten. Fachleute fürchten deshalb erhebliche Risiken für Firmen und Banken. Die Erwartungshaltung der EZB-Bankenaufsicht gegenüber den Finanzinstituten ist, sich auch mit solchen Cyberrisiken auseinanderzusetzen.
Sie hat das Thema nach eigenem Bekunden als potenzielle Bedrohung auf dem Schirm und erwartet selbiges von den Instituten, wie die EZB-Bankenaufsicht auf Nachfrage erklärt: „Cyberangriffe nehmen zu, vor allem mit wachsenden Online-Aktivitäten in der Pandemie. Dazu können Angriffe über Deep-Fake-Techniken gehören. Die EZB-Bankenaufsicht erwartet von den Banken, dass sie alle Risiken, denen sie ausgesetzt sind, bewerten und diese effektiv entschärfen.“ Auch zur Meldung etwaiger Attacken unter Zuhilfenahme von Deep Fakes seien die Institute verpflichtet.
So besteht die Gefahr, dass sich Identitätsprüfungen bei Kontoeröffnungen etwa in Verbindung mit einem gestohlenen Ausweis austricksen lassen. Vorstellbar sind Fachleuten zufolge auch gefälschte Aussagen hochrangiger Bankmanager über Fusionen, über Verkäufe, über die finanzielle Lage des Unternehmens, die den Aktienmarkt beeinflussen. Oder dass – wie in einem realen Fall 2019 – der vermeintliche Chef anruft, um einen Geldtransfer anzuweisen. So fiel der Leiter der britischen Niederlassung eines deutschen Energiekonzerns einem Betrüger zum Opfer, der mittels Stimmenimitationssoftware wie sein Chef klang und ihn verleitete, 220.000 Euro auf ein Konto in Ungarn zu überweisen.