Deutsche Bank testet KI zur Früherkennung von Händler-Vergehen
KI gegen Händler-Vergehen
Deutsche Bank testet neue Systeme zur Früherkennung – Anwälte warnen
Bloomberg Frankfurt
Das Geldhaus prüft maschinelles Lernen als Teil der Einsatzmöglichkeiten von künstlicher Intelligenz, sagte Technikvorstand Bernd Leukert. Die Deutsche Bank trainiert die KI mit Aufzeichnungen tatsächlich geführter Gespräche zwischen Händlern, so dass das System mit der verwendeten Sprache vertraut wird.
Die Deutsche Bank testet den Einsatz von künstlicher Intelligenz (KI), um im Handelsbereich mögliche Anzeichen von Fehlverhalten frühzeitig zu erkennen. Dafür soll die KI zum Beispiel den Tonfall von Telefongesprächen analysieren. Das Frankfurter Geldhaus prüft das maschinelle Lernen von Google Cloud als Teil einer umfassenderen Erkundung der Einsatzmöglichkeiten von KI, sagte Technikvorstand Bernd Leukert in einem Interview von Bloomberg News.
Wie schnell das System eingeführt werden könnte, wollte er nicht sagen. Die Bank untersucht auch, wie Sprachmodelle oder generative KI — die Technologien hinter Anwendungen wie ChatGPT — beim Support von Kunden und Mitarbeitern sowie bei der Programmierung helfen können.
Überwachung erhöhen
Die Effizienz der bereits eingesetzten Überwachung der eigenen Mitarbeiter zu erhöhen ist ein großes Thema für Banken weltweit. Bislang können die Instrumente bei der Deutschen Bank zwar Wörter analysieren, nicht aber Veränderungen im Tonfall oder Anzeichen von Zynismus. Das neue System sollte beispielsweise in der Lage sein zu erkennen, ob ein Händler, der “Das bleibt unter uns” sagt, dabei über harmlose Themen wie eine Überraschungsparty spricht oder ob es um fragwürdigere Aktionen geht.
“Wenn man ein Instrument hat, das den Tonfall versteht und darauf hinweist und nicht nur auf verdächtige Wörter, kann man eine viel bessere Kontrolle ausüben”, sagte Leukert. “Es hat das Potenzial, die Governance auf eine ganz andere Ebene zu heben.”
Die Deutsche Bank trainiert die KI mit Aufzeichnungen tatsächlich geführter Gespräche zwischen Händlern, so dass sie mit der verwendeten Sprache und den Gesprächsnormen vertraut wird. Die Software wird die Analysten auf die Bereiche hinweisen, die von Interesse sind – die endgültigen Entscheidungen über das weitere Vorgehen werden aber weiterhin Menschen treffen.
Im Fokus des damit befassten Teams stehe, dass das Überwachungssystem den Vorschriften entspricht, den Datenschutz beachtet und gleichzeitig die Zahl der Fehlalarme minimiert. “Es muss sichergestellt werden, dass die Bankalgorithmen fair sind, keine versteckte Diskriminierung enthalten und die Ergebnisse sachlich korrekt und erklärbar sind”, so Leukert.
Rekrutierungswelle
Die Deutsche Bank beschäftigt rund 16.000 Mitarbeiter in den Bereichen Technologie, Daten und Innovation, von denen etwa die Hälfte Software programmieren. Leukert will noch mehr davon einstellen. Laut Evident gehört die Deutsche Bank zu den fünf Banken, die im KI-Bereich die meisten Mitarbeiter einstellen, und hat von Februar bis April rund 1.300 Stellen mit KI-Bezug ausgeschrieben.
Einige Anwälte warnen jedoch vor Fallstricken beim Einsatz von KI zur Erkennung von Fehlverhalten. Wenn die Software etwa nach Gelächter sucht oder Geschäfte aufs Korn nimmt, die profitabler sind als der Durchschnitt, dann besteht die Gefahr, dass sie noch bedenklichere Anzeichen ignoriert, so Duncan Black, Partner bei der Kanzlei Fieldfisher in London.
Softwarefehler möglich
Auch könnten Händler damit argumentieren, dass die Beweise gegen sie auf Softwarefehlern beruhten. “Software ist großartig, wenn es darum geht, Muster in riesigen Datenmengen zu erkennen, und das schneller und effizienter als Menschen”, sagte er. “Aber man muss ein Auge darauf haben, was sie als Basis verwendet, bevor sie auf die Suche geht.”