Im GesprächKai Bender und Rainer Glaser, Oliver Wyman

„Wir haben bei KI die Erklär-Phase verlassen“

In Gesprächen zwischen Unternehmensberatern und Kunden hat das Thema künstliche Intelligenz einen festen Platz. Dabei geht es immer häufiger um die konkrete Anwendung, berichten Kai Bender und Rainer Glaser von Oliver Wyman.

„Wir haben bei KI die Erklär-Phase verlassen“

Im Gespräch: Kai Bender und Rainer Glaser

„Wir haben bei KI die Erklär-Phase verlassen“

Unternehmen suchen nach Anwendungsbereichen für künstliche Intelligenz – Analysen sollen Risikofrüherkennung erleichtern

sar Frankfurt
Von Sabine Reifenberger, Frankfurt

Wenn Rainer Glaser mit einem Kunden spricht, weiß er, worauf er sich einstellen muss: „In fast allen Gesprächen wird künstliche Intelligenz in irgendeiner Form zum Thema“, sagt der auf KI spezialisierte Partner von Oliver Wyman. Der Fokus der Gespräche hat sich mittlerweile allerdings verschoben: „Wir haben bei KI die Erklär-Phase verlassen“, beobachtet Kai Bender, Deutschlandchef von Oliver Wyman. Es gehe inzwischen stärker darum, aufzuzeigen, wie sich die Technologie in einer Organisation verankern lässt.

Zwei Themen spielten für die Kunden dabei eine große Rolle: „Sie wollen einen quantifizierbaren Nutzen aus der Investition in KI ziehen“, sagt Bender. Mindestens ebenso wichtig sei aber ein Aspekt, den sein Kollege Glaser unter dem Stichwort „People“ zusammenfasst: „Ein Algorithmus kann noch so überzeugend arbeiten – wenn die Mitarbeiter ihn nicht annehmen und nicht nutzen, habe ich nichts gewonnen.“ Die Gründe für die Ablehnung reichten dabei von mangelndem technischen Interesse bis hin zur Angst, die KI könne den eigenen Arbeitsplatz gefährden.

Es reicht nicht, wenn man als Beratungshaus unter Laborbedingungen aufzeigt, was mit KI grundsätzlich möglich ist.

Kai Bender, Oliver Wyman

Ein Problem dabei: Die Algorithmen werden nicht notwendigerweise von denjenigen entwickelt, die später auch mit ihnen arbeiten. Bender sieht an der Stelle auch seine eigene Branche in der Pflicht: „Es reicht nicht, wenn man als Beratungshaus unter Laborbedingungen aufzeigt, was mit KI grundsätzlich möglich ist“, sagt er. „Wir müssen die Rahmenbedingungen berücksichtigen, unter denen die Anwender sie nutzen sollen – das ‚richtige Leben‘.“

Das reine Programmieren und Trainieren eines Algorithmus macht Glaser zufolge nur einen Bruchteil der Arbeit aus: „Bei meinen KI-Projekten entfallen vielleicht 20% auf Algorithmus-Training, der Rest betrifft die Integration in die Wertschöpfungskette und organisatorische Themen, wie etwa Datenschutz.“ Die Anwendungsfelder haben sich durch die Fortschritte generativer KI noch einmal erweitert – wobei manche Themen der künstlichen Intelligenz besser liegen als andere.

Algorithmen müssen lernen

Der Grund: Viele KI-Anwendungen basieren beispielsweise auf Large Language Models (LLM), die primär auf Sprachverarbeitung trainiert sind. Wer die KI etwa nutzen möchte, um einen Risikobericht zu erstellen, muss dem LLM erst erklären, wie es numerische Informationen verarbeiten soll. „Den Umgang mit Statistiken und numerischen Informationen muss man antrainieren“, erklärt Glaser.

Bei der Verarbeitung von Sprache kommt den LLM zugute, dass sie viel größere Datenmengen im Blick behalten können als ein Mensch. Dies soll beispielsweise in der Risikofrüherkennung zum Einsatz kommen, wo Oliver Wyman mit dem Nachrichtendienst Dow Jones kooperiert. Die Technologie „Factiva Sentiment Signals“ soll Hilfestellung bei Kreditentscheidungen oder Lieferkettenrisiken liefern.

Glaser ist überzeugt, dass eine KI Risiken vor Zusammenbrüchen wie etwa bei der Silicon Valley Bank oder bei Wirecard im Vorfeld hätte erkennen können. „Wenn man retrospektiv draufschaut, gab es im Nachrichtenstrom Signale, auf die das Tool reagiert hätte“, sagt er. Noch besser würden die Vorhersagen, wenn neben Nachrichten auch Investor-Relations-Reports und Kapitalmarktdaten in die automatisierten Analysen einfließen.

Man kann als User auch eine falsche Expertise einbringen.

Rainer Glaser, Oliver Wyman

Doch was ist, wenn das Tool einer Falschinformation aufsitzt? „Es ist ein statistisches Tool, das kann auch danebenliegen“, betont Glaser. Wichtig sei daher, dass die Anwendung transparent darlege, auf welche Funde und Signale sich die Warnung bezieht. Auch mit ironischen Kommentaren tut sich eine KI nach wie vor schwer, wenn sie nicht richtig trainiert wird.

Wer eine Warnmeldung überprüft, kann der KI anschließend Feedback zu der Entscheidung geben, das dann in künftige Auswertungen einfließt. Das birgt allerdings auch ein Risiko: Denn auch Menschen können sich täuschen lassen. Wischt ein Mitarbeiter eine vom Algorithmus vorgebrachte Warnung mehrfach vom Tisch, bekommt die KI das Signal, diese sei nicht relevant – auch wenn die KI eigentlich auf der richtigen Fährte war. „Man kann als User auch eine falsche Expertise einbringen“, mahnt Glaser.

Große Unsicherheit

Auch wenn künstliche Intelligenz bei nahezu allen Unternehmen auf der Agenda steht, ist die Unsicherheit immer noch groß. Bender sieht bei Kunden häufig die Sorge, bei den Entwicklungen den Anschluss zu verlieren. „Immer wieder kommt die Frage: ‚Was machen denn andere?‘“, berichtet er. Dahinter stehe bei Entscheidungsträgern oft die Furcht, direkte Wettbewerber könnten bereits weiter sein.

Allerdings müsse auch nicht jedes Problem durch die neueste Generation generativer KI adressiert werden, sagt Glaser. Vielmehr solle man schauen, was wirklich benötigt wird, um das gewünschte Ergebnis zu erzielen. „Viele Unternehmen haben das Potenzial von Advanced Analytics noch nicht voll ausgereizt.“ Auch bei Technologien, die schon länger im Einsatz sind, gebe es vielfach noch Luft nach oben.  

In Gesprächen zwischen Unternehmens­beratern und Kunden hat das Thema künstliche Intelligenz einen festen Platz. Dabei geht es immer häufiger um die konkrete Anwendung, berichten Kai Bender und Rainer Glaser von Oliver Wyman. Oft sehen sie bei Entscheidungsträgern die Sorge, den Anschluss zu verlieren.

Mehr zum Thema
Analyse "Im Blickfeld": Wie KI bei Compliance Aufgaben unterstützt

BZ+
Jetzt weiterlesen mit BZ+
4 Wochen für nur 1 € testen
Zugang zu allen Premium-Artikeln
Flexible Laufzeit, monatlich kündbar.