Schwächen der KI

Künstliche Intelligenz: Freund oder Feind der Finanzinstitute?

Der Begriff künstliche Intelligenz (KI) wurde Mitte der 1950er Jahre von Herbert Simon und Allen Newell geprägt, die mit „Logic Theorist“ ein Programm entwickelten, mit dem sie den Beweis von 38 Theoremen aus der Principia Mathematica von Bertrand...

Künstliche Intelligenz: Freund oder Feind der Finanzinstitute?

Der Begriff künstliche Intelligenz (KI) wurde Mitte der 1950er Jahre von Herbert Simon und Allen Newell geprägt, die mit „Logic Theorist“ ein Programm entwickelten, mit dem sie den Beweis von 38 Theoremen aus der Principia Mathematica von Bertrand Russell und Alfred North Whitehead führten. KI hat sich seitdem zu einem Phänomen des 21. Jahrhunderts entwickelt und viele Branchen sind bestrebt, zu verstehen, wie sie in ihren Bereichen eingesetzt werden kann. In der Finanzbranche sieht man besonders große Chancen für den Einsatz der KI und speziell von Verfahren des maschinellen Lernens bei der Erkennung von Finanzkriminalität und Betrug.

Anwendungen, die auf den Verfahren des maschinellen Lernens basieren, können Entscheidungswege effizienter gestalten. Sie können jedoch auch erheblichen Schaden anrichten, etwa wenn sie auf verzerrten Daten basieren oder die Datenkategorien so gestaltet sind, dass sich Korrelationen finden, die zu diskriminierenden Entscheidungen führen.

Geschlechtsspezifischer Bias

Ein prominentes Beispiel ist das Personalbeschaffungstool von Amazon, das geschlechtsspezifische Vorurteile aufgriff, Frauen in seinem Bewertungssystem benachteiligte und deshalb bald wieder eingestellt wurde. Der Grund: Das Tool wurde auf Basis von Daten trainiert, die von Bewerberinnen und Bewerbern stammten, die sich über einen Zeitraum von zehn Jahren hinweg bei Amazon beworben hatten. Die überwiegende Anzahl der Bewerbungen stammte von Männern. Das System hat diese Nuance erfasst und sich selbst beigebracht, dass männliche Bewerber vorzuziehen sind.

In der Finanzbranche sind faire und ethisch einwandfreie KI-Systeme von größter Bedeutung, denn Finanzinstitute nutzen KI zunehmend, um kritische Entscheidungen zu treffen, die sich negativ auf ihre Kunden auswirken können, zum Beispiel die Verweigerung von Krediten oder die Ablehnung von Kreditkartenanträgen. Es ist daher wichtig, sicherzustellen, dass die Entscheidungen, die von KI-Algorithmen generiert werden, nicht unfair auf einen bestimmten Kundensektor ausgerichtet sind.

Verzerrungen durch KI

Da immer mehr Entscheidungen von KI-basierten Algorithmen abhängen, müssen die für den Einsatz der KI verantwortlichen Führungskräfte in Finanzinstituten den Grund für durch diese Algorithmen generierte Schlussfolgerungen oder Vorhersagen erläutern können, was auch als „KI-Erklärbarkeit“ bezeichnet wird. Dies führt zur Frage: Welche Kontrollen können eingezogen werden, um sicherzustellen, dass die auf KI und maschinellem Lernen basierenden Entscheidungen unvoreingenommen und fair sind?

Eine auf den ersten Blick einfache Lösung wäre das Entfernen von Variablen in den Eingabedaten wie Geschlecht und Ethnie. Aber so einfach ist es leider nicht, da diese mit anderen Variablen korrelieren. In den USA besteht beispielsweise eine Korrelation zwischen Postleitzahl und Rasse, was zu Problemen beim „Predictive Policing“, also der Analyse von Falldaten zur Berechnung der Wahrscheinlichkeit zukünftiger Straftaten zur Steuerung des Einsatzes von Polizeikräften, geführt hat.

Was ist also zu tun? Eine Möglichkeit wäre, Kontrollmechanismen zur Verringerung von Verzerrungen in die Workflows der Algorithmen einzufügen. Dies kann in drei Stufen erfolgen:

1.Pre-Processing-Kontrollen erlauben eine Neueinschätzung und Neugewichtung der Daten, um die Auswirkungen von Verzerrungen abzuschwächen, bevor diese in der Modellierungsphase und zur Entscheidungsfindung verwendet werden.

2.In-Processing-Kontrollen nehmen Modifikationen an der Formulierung der Lernalgorithmen vor, zum Beispiel Anpassungen an deren Kostenfunktionen, um verzerrte Ergebnisse zu reduzieren.

3.Post-Processing-Kontrollen werden nach der Algorithmus-/Modellierungsphase eingesetzt, indem De-Biasing-Kontrollen auf ihre Entscheidungsergebnisse an­gewendet werden.

Finanzinstitute müssen über eine starke Modellrisikosteuerung verfügen, um solche Eingriffe zu überwachen. Forschungsergebnisse haben gezeigt, dass Kontrollen zur Reduzierung von Verzerrungen einen negativen Effekt auf die Genauigkeit haben können und umgekehrt. Dies hat zur Formulierung von Lösungen geführt, die versuchen, ein gewisses Gleichgewicht oder einen Kompromiss zwischen Genauigkeits- und Fairness-Metriken zu optimieren. Welcher Kompromiss oder welche Toleranz akzeptabel ist, ist eine strategische Entscheidung, die letztlich von der Ethikkommission innerhalb eines Finanzinstituts zu treffen ist.

Aufsichtsbehörden im Finanzsektor wie die Monetary Authority of Singapore haben Richtlinien erlassen, um eine Kultur der Verantwortung und des ethischen Verhaltens innerhalb der Finanzinstitute zu stärken. Besonders betont wird hierbei die individuelle Rolle, die jedes Unternehmen bei der Entwicklung einer ethischen Kultur spielen muss.

Das Centre for Data Ethics and Innovation der britischen Regierung veröffentlichte im November 2020 ebenfalls einen Bericht über Voreingenommenheit bei algorithmischen Entscheidungen, der sich speziell mit Voreingenommenheit in den Bereichen Personalbeschaffung, Finanzdienstleistungen, Polizei und Kommunalverwaltung befasste. Ziel des Berichts war es, „Empfehlungen zu geben, die dazu beitragen sollen, die richtigen Systeme zu bauen, damit Algorithmen die Entscheidungsfindung verbessern und nicht verschlechtern“.

Aber auch die großen Tech-Unternehmen müssen eine Rolle spielen, wenn es darum geht, Sicherheitsvorkehrungen und Richtlinien zu entwickeln. So hat Microsoft zum Beispiel die FATE-Community-Gruppe gegründet, um Fairness, Verantwortlichkeit, Transparenz und ethische Prinzipien und Prozesse in der KI zu definieren. Die Gruppe untersucht „die komplexen sozialen Auswirkungen von KI, maschinellem Lernen, Datenwissenschaft, groß angelegten Experimenten und zunehmender Automatisierung“ mit dem Ziel, „sowohl innovative als auch ethisch vertretbare Techniken zu ermöglichen und dabei den Kontext aus Soziologie, Geschichte sowie Wissenschafts- und Technologiestudien zu berücksichtigen“.

Betrugserkennung

Für Banken, Versicherungen und andere Finanzdienstleister werden KI und die ihr zugrundeliegenden Algorithmen des maschinellen Lernens ein entscheidender Faktor sein, um sie bei der Erkennung von Finanzkriminalität und Betrug zu unterstützen. Allerdings kann die KI auch Verzerrungen verstärken, die an verschiedenen Punkten auf dem Weg von den Daten über deren Modellierung bis hin zu den Entscheidungen selbst auftreten können. Finanzinstitute müssen sich auf starke Prinzipien und Praktiken stützen, um Auswirkungen solcher Verzerrungen zu erkennen und zu beseitigen, die zu unfairen oder unethischen Ergebnissen führen können, wenn sie nicht kontrolliert werden.