Banken brauchen eine KI, die nicht diskriminiert!
Künstliche Intelligenz (KI) und maschinelles Lernen (ML) sind aus der Finanzbranche nicht mehr wegzudenken. Institute automatisieren dadurch etliche Abläufe und erhöhen ihre Effizienz. Dennoch: Es gibt Anwendungen, bei denen es besonders wichtig ist, die Ergebnisse der KI-Algorithmen genau zu überwachen. Denn wenn sich hier – unbeabsichtigt – Vorurteile einschleichen, kann dies dem Ruf eines Finanzinstituts ebenso schaden wie seinen Umsätzen.
Sich konsequent um eine „ethische KI“ zu bemühen, beugt Reputationsrisiken vor und verhindert, dass dem Unternehmen wirtschaftliche Nachteile entstehen. Inzwischen sind auch die Regulierungsbehörden auf den Plan getreten. Die EU-Kommission hat bereits im April 2021 einen entsprechenden, europaweiten Regulierungsvorschlag veröffentlicht: den „Artificial Intelligence Act“ (AI Act). Es gibt also ausreichend Anlass, sich mit dem Thema ethische KI zu beschäftigen.
Ursprünglich waren KI-Modelle noch sehr einfache, regelbasierte Systeme. Inzwischen haben sie sich zu komplexen Algorithmen entwickelt, die maschinelles Lernen ermöglichen. KI-Modelle stützen sich allerdings auf Daten und Entscheidungen aus der realen Welt – damit beruhen ihre Resultate letztlich auch auf menschlichem Urteilsvermögen.
Einfallstor für Vorurteile
Bei einem Machine-Learning-Algorithmus gibt es zwei Phasen: Learning und Running. In der Learning-Phase müssen die Datenwissenschaftler den Algorithmus und die Input-Parameter bestimmen, um den ML-Algorithmus anlernen zu können. Das heißt: Menschen trainieren die Algorithmen anhand von Daten aus der realen Welt. Leider kann dieses Verfahren ein Einfallstor für Vorurteile sein, die dann die späteren Ergebnisse des KI-Systems nachteilig prägen.
So können sich vorurteilsbeladenen Algorithmen etwa in Rekrutierungssystemen von Personalabteilungen als besonders kritisch erweisen – etwa wenn die KI immer wieder bestimmte Bewerber wegen ihrer Herkunft oder ihres Geschlechts aussortiert. Auch KI-Systeme, die helfen, die Kreditwürdigkeit von Kunden zu bestimmen, können sich systematisch und auf unethische Weise irren.
Der Regulierungsvorschlag der EU-Kommission sieht darum vor, KI-Lösungen von vorneherein in drei Kategorien zu gliedern: in solche mit minimalem, mit starkem und mit unannehmbarem Risiko. Systeme aus der letzten Klasse sind solche, die menschliche Grundrechte gefährden könnten. Sie will der AI Act vollständig verbieten. Entsprechend sind es die Systeme mit starkem Risiko, etwa im Bereich Personal oder Kreditrating, denen Finanzinstitute besonderes Augenmerk widmen sollten. Der AI Act verlangt unter anderem, dass KI-Systeme angemessen von Menschen kontrolliert werden. Eine weitere wichtige Forderung an KI ist die nach Transparenz von Daten, Systemen und Geschäftsmodellen. Außerdem will die EU-Kommission, dass KI-Systeme rechenschaftspflichtig und überprüfbar sind.
Geschlecht und Herkunft
Schon in der Entwicklungsphase des Algorithmus werden die Weichen dafür gestellt, ob ein KI-System später ethisch unbedenkliche, rationale Ergebnisse liefern kann. Gerade bei potenziell hohem Risiko ist es wichtig, von vorneherein auf die Analyse vorurteilsanfälliger Attribute wie etwa Geschlecht oder Nationalität zu verzichten. Finanzinstitute sollten darum dafür sorgen, dass alle Systeme für KI, Maschinelles Lernen und Prädiktion auf Basis desselben technischen Frameworks entstehen.
Denkbar ist etwa, dass die Datenwissenschaftler bei der Modellentwicklung einen standardisierten Fragebogen zu beantworten haben, der alle Anforderungen an eine ethische KI abklopft. Auch ein Nachweis über geeignete Monitoringverfahren sollte obligatorisch sein.
Einige Anbieter von KI-Lösungen entsprechen der prinzipiellen Transparenz- und Monitoringanforderung bereits in Form von Dashboards. Diese liefern den Datenwissenschaftlern eine kontinuierliche Übersicht dazu, ob das KI-Werkzeug die ethisch relevanten Kennzahlen einhält. Weicht beispielsweise eine Leistungskennziffer zur Genauigkeit zu stark von einem als erwartbar definierten Wert ab, liegt vielleicht eine Veränderung in den zugrunde liegenden Daten vor – und das Monitoring-Werkzeug gibt eine Warnmeldung aus. Nun müssen die Datenwissenschaftler entscheiden, ob es ausreicht, bei ihrem Algorithmus nachzusteuern, oder ob ein völlig neues Modell zu entwickeln ist.
Automatisierte und standardisierte Datenanalysen können heute bei etlichen Aufgaben unterstützen und menschliche Mitarbeiter eines Finanzinstituts entlasten. Aktuell liefert zum Beispiel das Conversational Banking ein sehr interessantes Einsatzszenario: Immer mehr Kunden möchten mit ihrer Bank oder ihrem Vermögensberater auch über soziale Kanäle und Plattformen interagieren, die sie in ihrem Alltag nutzen, wie etwa Whatsapp oder Facebook Messenger. Im Grunde wird dieses Conversational Banking, die dialogische Kundenkommunikation über digitale Kanäle, erst durch KI-Unterstützung möglich. Denn nur wenn das Kundenbetreuungssystem den Sinn einer Anfrage per Natural Language Processing versteht und den Beratern sofort passende Antwortvorschläge unterbreitet, können der Berater oder die Beraterin tatsächlich mit der gewünschten Geschwindigkeit und Frequenz in sozialen Medien kommunizieren.
Aus ethischer Perspektive birgt die KI-Komponente einer Conversational-Banking-Lösung sicherlich nur ein moderates Risiko. Dennoch bleibt auch hier ein konsequentes Monitoring der Ergebnisse wichtig. Denn Kunden würden es kaum tolerieren, wenn ihr Finanzinstitut ihnen zwar Conversational Banking bietet, das System Kundenanfragen aber immer häufiger missversteht und den Beratern unsinnige Antwortvorschläge liefert.
Die Qualität der Ergebnisse einer KI-Lösung hat also ebenso eine ethische wie eine wirtschaftliche Dimension. Ähnlich verhält es sich mit KI-gestützten virtuellen Assistenten, die Wirtschafts- und Marktnachrichten beobachten und der kundenindividuellen Relevanz entsprechend automatisiert aufbereiten. So liefern sie Vermögensberatern ideale Anlässe zum Kontakt mit ihren Kunden. Auch hier wäre es für ein Institut nachteilig, wenn sich die vermeintlichen Kontaktanlässe immer häufiger als irrelevant erweisen. Nur steht ein isolierter Betrieb solcher Lösungen für die Kundenkommunikation einem aussagefähigen Monitoring im Weg. Gerade für kleinere und mittlere Institute kann es darum sinnvoll sein, diese KI-Lösungen als Service zu beziehen, damit der Anbieter das kontinuierliche Monitoring und die Qualitätskontrolle übernimmt.
Mensch über Maschine
KI-Systeme können durch ihre automatisierte und standardisierte Datenanalyse Menschen bei ihren alltäglichen Aufgaben wesentlich unterstützen. Sie sollten ihnen die Entscheidung aber nicht völlig abnehmen. Auch die Einschätzung, ob ein KI-Algorithmus nach wie vor ethisch unbedenkliche und qualitativ hochwertige Empfehlungen abgibt, können letztlich nur Menschen vornehmen. Um die Qualität eines KI-Systems zu sichern, ist ein konsequentes Monitoring unverzichtbar.