AnsichtssacheCorporate Governance

KI-(R)Evolution im Aufsichtsrat

Aufsichtsräte müssen sich mit dem Einsatz von Künstlicher Intelligenz in ihrer Kontrolltätigkeit auseinandersetzen.

KI-(R)Evolution im Aufsichtsrat

Ansichtssache

KI-(R)Evolution im Aufsichtsrat

Von Daniela Favoccia

Aufsichtsräte sind wie kein anderes Gremium in der Situation, sich mit knappem Zeitbudget über grundlegende Fragen und Entwicklungen im Unternehmen eine Meinung bilden zu müssen. Sie müssen komplexe Vorstandsentscheidungen nachvollziehen, die auf Grundlage vieler Informationen und Überlegungen entstanden sind. Hinzu kommt die zukunftsgerichtete Beratung des Vorstands. Eigentlich der perfekte Ort für den Einsatz Künstlicher Intelligenz (KI), sollte man meinen.

Mit einem Klick

Aktuell steht die Generative KI im Fokus. Eine ihrer Stärken ist es, Informationen effektiv zusammenzufassen. Dies ist für Aufsichtsräte sehr nützlich, da sie es oft mit umfangreichen Dokumenten zu tun haben. Mit Hilfe von Generativer KI können E-Mail-Ketten mit einem Klick zusammengefasst werden, Dokumente gekürzt und Präsentationen in Bullet-Point-Listen umgewandelt werden. Auch komplexere Aufgaben sind möglich. Mit der richtigen Information und einer geeigneten Anfrage (prompt) kann die Software einen Projektbericht zusammenfassen, Widersprüche identifizieren und Fragen zu deren Aufklärung formulieren.

Einer schönen neuen Aufsichtsratswelt, bei der die Generative KI einfach an die Unternehmensdatenbank angeschlossen wird und Abfragen über den gesamten Datenbestand möglich sind, steht aktuell aber noch die Tokenlimitierung im Weg: Derzeit unterliegen sowohl der Daten-Input als auch der Daten-Output Volumengrenzen. Anwendungsfelder der Generativen AI sind daher oft auf kleinere Arbeitsschritte beschränkt oder erfordern das Verbinden mehrerer KI-Lösungen.

Risiko Halluzinationen

Die Technik ist nicht die einzige Einschränkung. Ein weiteres Risiko sind Halluzinationen. Ein New Yorker Anwalt nutzte etwa ChatGPT für einen Schriftsatz, ohne die zitierten Fundstellen zu prüfen. Viele der zitierten Quellen waren nicht aufzufinden; sie existierten schlicht nicht. Wenn die Generative KI den Kontext einer Aufgabe nicht kennt oder nicht über ausreichende Realdaten verfügt, generiert sie neue Informationen, die falsch sind, aber oft glaubwürdig scheinen.

Weitere Herausforderungen bringen Deep-Learning-Techniken mit sich: Die KI simuliert mit neuronalen Netzen die Struktur des Gehirns, um Muster effizienter erkennen zu können. Dies macht es noch schwerer, das Verhalten der KI-Systeme vorherzusagen oder zu verstehen, was zu einer „Black Box“-Situation führt.

Black-Box-Grenze

Nehmen wir an, ein Unternehmen setzt eine KI-Lösung zur Bewertung von Kreditrisiken ein, die mit Daten der letzten 10 Jahre der Kreditvergabe trainiert wurde. Die Künstliche Intelligenz analysiert dann eine Vielzahl von Daten, um das Ausfallrisiko verschiedener Kreditnehmer bestmöglich vorherzusagen. Wie diese KI anhand der angelernten Modelle das Kreditrisiko bewertet, ist aber nicht ohne Weiteres nachvollziehbar. Hier stoßen Aufsichtsräte in ihrer Überwachungsarbeit an eine Black-Box-Grenze.

Im Rahmen ihrer Kontrolltätigkeit müssen sich Aufsichtsräte daher fragen, unter welchen Voraussetzungen unternehmerischen Entscheidungen unter den Schutz der Business Judgement Rule (BJR) fallen. Aufsichtsräte und Vorstände haften danach nicht für unternehmerischer Entscheidungen, wenn diese auf Grundlage angemessener Informationen, ohne Berücksichtigung sachfremder Interessen, zum Wohl der Gesellschaft und in gutem Glauben gefasst wurden.

Wird bei der Entscheidungsfindung eine KI eingesetzt, werden sich Vorstand und Aufsichtsrat kaum auf die BJR berufen können, wenn die Ergebnisse der KI nicht nachvollziehbar sind. Für den Finanzsektor geht es dabei sogar um eine Frage der Legalität des Vorstandshandelns und die entsprechende Kontrolle durch den Aufsichtsrat. Denn aus Aufsichtsperspektive dürfen KI-Modelle nur dann eingesetzt werden, wenn die Nachvollziehbarkeit des Ergebnisses gewährleistet ist. Umgekehrt kann es aber auch falsch sein, auf den Einsatz einer KI ganz zu verzichten.

Konsultationspflicht

Es liegt nahe, dass perspektivisch eine Pflicht zur Konsultation einer KI bejaht wird auch wenn sich die Gesetze nicht ändern. Kann eine KI die Überwachungs- und Entscheidungsqualität deutlich verbessern, kann ein Aufsichtsrat am Ende sogar pflichtwidrig handeln, der diese Möglichkeiten nicht nutzt.

Nicht zuletzt, um die Möglichkeiten und Grenzen eines KI-Einsatzes auch für die eigene Arbeit zu bewerten, bedarf es der Entwicklung einer KI-Decision-Making Governance. Der Sache nach geht es darum, dass der (Mehr-)Wert des Einsatzes von KI identifizierbar ist, Unschärfen erkannt und Ergebnisse so weit wie möglich nachvollziehbar gemacht werden.

Aufsichtsräte müssen die eingesetzte Künstliche Intelligenz nicht im Detail verstehen, aber es muss ein Grundverständnisses davon geschaffen werden, wie die dem KI-System zugrundeliegende Datenauswahl erfolgt und wie diese Auswahl gesteuert wird, sowohl beim Training wie auch bei der späteren Anwendung, ferner ein Bewusstsein dafür, was die verwendete KI leisten kann und wo ihre Grenzen sind. Dabei muss auch sichergestellt sein, dass sachkundige Prompts verwendet werden.

Finale Kontrolle

Schließlich muss sich der Aufsichtsrat (ebenso wie der Vorstand) ein Urteil bilden, welches Gewicht dem Arbeitsergebnis der KI in Relation zu anderen verfügbaren Informationsquellen konkret beigemessen werden soll. Nur so kann der Aufsichtsrat die neuen Möglichkeiten risikoarm ausschöpfen und seine Aufgaben pflichtgemäß wahrnehmen. Eine finale Kontrolle, die ihm am Ende keine KI abnehmen kann.

Es liegt nahe, dass perspektivisch eine Pflicht zur Konsultation einer KI bejaht wird.

Dr. Daniela Favoccia ist Partnerin bei Hengeler Mueller, Aufsichtsrätin und Mitglied der Regierungskommission Deutscher Corporate Governance Kodex. In dieser Rubrik veröffentlichen wir Kommentare von führenden Vertretern aus der Wirtschafts- und Finanzwelt, aus Politik und Wissenschaft.

Dr. Daniela Favoccia, Partnerin bei Hengeler Mueller, Aufsichtsrätin und Mitglied der Regierungskommission Deutscher Corporate Governance Kodex.