„Eine automatisierte Aufsicht wird es nicht geben“
„Eine automatisierte Aufsicht wird es nicht geben“
Unternehmen und Banken sehen bei KI Regulierung und Experimentieren als Spannungsfeld – Produktivitätsgewinne unstrittig, Geschäftsmodelle oft unklar
hei Berlin
Die Implementierung von künstlicher Intelligenz (KI) in die Geschäftsprozesse von Unternehmen und Banken lässt in vielen Bereichen einen klaren Nutzen erkennen, wenn es um die Auswertung großer und komplexer Datenmengen geht, wo sie Prozesse beschleunigt und „Ressourcen freisetzt, damit Menschen produktiver arbeiten können“, wie Telekom-Chef Tim Höttges auf dem Bankentag in Berlin sagte. Dieser Befund war auch unter den restlichen Panelisten im Prinzip unstrittig, die sich mit der in allen Firmen, Banken und Institutionen brandaktuellen Frage befassten, ob KI „Rückenwind für Geschäftsmodelle“ gibt. Während der Wert der neuen Technologie zweifellos in der „Kollaboration von Mensch und Maschine“ liege, so Marion Höllinger, Sprecherin der Geschäftsführung der Unicredit Bank, gelte es aber vielfach noch, konkret zu zeigen, wie sich der Einsatz von KI im Einzelfall auszahle. Auch wenn eine KI im Kundenservice einer Bank oder der Telekom oder eines anderen Unternehmens mit Produkten und Dienstleistungen für einen Massenmarkt automatisiert und effizient möglicherweise maßgeschneiderte Lösungen findet, sieht die Bankmanagerin die „Entscheidung durch Menschen“ als unverzichtbar an.
Dass hier in der Finanzbranche weitgehend Konsens herrscht, offenbarte auch Mark Branson, der als Präsident der BaFin viele Einsatzmöglichkeiten für KI-Anwendungen sieht, zum Beispiel „in der Marktaufsicht, um etwa Insiderhandel schneller zu erkennen“. Dennoch hält er bewusst überspitzt fest: „Eine automatisierte Aufsicht wird es nicht geben“, allenfalls eine Fülle von „Use Cases“, die Entscheidungen der Aufseher professionalisieren und stützen.
Braucht man den AI Act überhaupt?
Die Deutsche Telekom „experimentiert“ Höttges zufolge mit über 400 solcher Use Cases. Sie ist überdies dabei, mit Partnern aus Asien wie Softbank oder SK Telekom eigene KI-Modelle zu entwickeln, denn der Konzernchef beobachtet eine „Monopolisierung der verfügbaren Large-Language-Modelle“ (LLM) durch die großen Technologiekonzerne in den USA. Wenn er auf die gesamte Wertschöpfungskette schaut, widerstrebt ihm die Abhängigkeit, in die die deutsche bzw. europäische Wirtschaft erneut hineinlaufe. Höttges teilt nicht die Meinung von Branson, der den europäischen AI Act als eine „gute Pionierleistung“ bezeichnete: „Es ist nicht perfekt, aber es ist ein Anfang und es ist gut, dass wir überhaupt ein Regelwerk haben.“ Der Telekom-Chef hat den Eindruck, dass in den USA „munter experimentiert wird“, während sich die EU durch Regulierung ein Bein stelle. „Ich denke, am Ende kann ich mit dem AI Act leben, aber ich frage mich: Brauchen wir ihn überhaupt?“
Branson unterstrich demgegenüber, dass die neue Technologie nicht nur „enorme Chancen“, sondern auch „ganz neue Risiken“ mit sich bringe, wobei es für die Aufsicht und die Finanzbranche als Ganzes gelte, vor diesen möglichst umfassend zu schützen, um keinen Vertrauensschaden zu riskieren.
Neue Technologie ist vor allem eins: teuer
Neben noch schwer identifizierbaren Risiken ist die neue Technologie aber vor allem eines: teuer. Dies strich Mercedes Bunz, Professor for Digital Culture and Society am Kings College, heraus. Teuer sind sowohl die für KI nötigen Hochleistungschips als auch die Energie für die Verarbeitung großer Datenmengen. Deshalb sei klar, dass vor allem mittelständische Unternehmen und Institute sich LLMs von Anbietern wie Microsoft oder Amazon Web Services (AWS) einkaufen. Michael Hamisch, Head of Technologie bei AWS Deutschland, betont indes auch, dass es für viele Firmen möglich sei, „LLMs auch zu verkleinern“ und für die eigenen Anwendungsfälle bezahlbar zu machen. Als Voraussetzung für die Entwicklung von erfolgversprechenden KI-Geschäftsmodellen nannte er vor allem „eine solide Datenstrategie.“ Diese stehe am Anfang.