GastbeitragChatGPT & Co.

Die unternehmerische Sorgfaltspflicht beim KI-Einsatz

Geschäftsleiter stehen vor der Herausforderung, den Nutzen von Large Language Models wie ChatGPT zu maximieren, ohne ihre Verantwortung und Sorgfaltspflicht aus den Augen zu verlieren. Der Entscheidungsprozess sollte auch menschliches Urteilsvermögen einschließen.

Die unternehmerische Sorgfaltspflicht beim KI-Einsatz

Die unternehmerische Sorgfaltspflicht beim KI-Einsatz

Künstliche Intelligenz als strategisches Instrument für Effizienz und Risikomanagement – Gefahren durch Fehlentscheidungen und Intransparenz

Von Kilian Pfahl *)

Die Einführung von Large Language Models (LLMs) wie ChatGPT markiert einen technologischen Wendepunkt mit weitreichenden Implikationen für Unternehmen. Diese Modelle ermöglichen es, große Datenmengen schnell zu verarbeiten und präzise Antworten zu generieren, was Unternehmen enorme Chancen bietet. Gleichzeitig bergen sie jedoch erhebliche rechtliche und operative Risiken, insbesondere im Hinblick auf die unternehmerische Sorgfaltspflicht. Für Geschäftsführer stellt sich daher die zentrale Frage: Wie lässt sich diese Technologie verantwortungsvoll einsetzen? Inwieweit darf auf die Ergebnisse dieser Anwendung vertraut werden? Und ergibt sich aus der unternehmerischen Sorgfaltspflicht eventuell sogar eine Pflicht, LLMs im operativen Betrieb einzusetzen?

Schlüsselrolle in M&A-Deals

LLMs eröffnen eine Vielzahl von Anwendungsmöglichkeiten, insbesondere in Bereichen mit hohen rechtlichen Anforderungen und datenintensiven Prozessen. Besonders im Kontext von M&A-Transaktionen können diese Modelle eine Schlüsselrolle spielen, indem sie den Due-Diligence-Prozess erheblich beschleunigen. LLMs ermöglichen die schnelle Analyse umfangreicher Dokumente und helfen, kritische Vertragsklauseln oder Risiken frühzeitig zu identifizieren. Dies führt zu einer effizienteren und weniger fehleranfälligen Prüfungsphase und ermöglicht eine fundiertere Entscheidungsbasis.

Auch im Vertragsmanagement sind LLMs von erheblichem Nutzen. Sie können potenziell unwirksame Klauseln erkennen und Vorschläge für notwendige Anpassungen machen. In Bereichen wie Wettbewerbsverbote oder Haftungsbeschränkungen tragen sie dazu bei, Verträge rechtlich abzusichern und strategische Fehler zu vermeiden. Darüber hinaus finden LLMs Anwendung im Compliance-Monitoring. In schnell veränderlichen Rechtsbereichen wie Datenschutz oder Finanzregulierung ermöglichen sie es Unternehmen, Gesetzesänderungen zu überwachen und erforderliche Anpassungen frühzeitig umzusetzen.

Illusion der Richtigkeit

Trotz der vielen Vorteile von LLMs dürfen die damit verbundenen Risiken nicht unterschätzt werden. Geschäftsleiter müssen sich der Schwächen dieser Technologie bewusst sein, um Fehler und Haftungsrisiken zu vermeiden. Essentiell ist das Verständnis, dass LLMs keine „starke KI“ darstellen. Sie sind hochentwickelte Textgeneratoren, die darauf trainiert wurden, die nächste wahrscheinliche Wortfolge auf der Basis von riesigen Datenmengen zu prognostizieren. Sie simulieren Intelligenz, indem sie Wort für Wort berechnen, welches Wort mit der höchsten Wahrscheinlichkeit auf die vorherige Wortwahl folgt. Dies führt zu Antworten, die oft plausibel wirken, aber nicht zwangsläufig korrekt sind.

Weder haben LLMs Verständnis oder Wissen im menschlichen Sinne, noch sind sie in der Lage, Inhalte zu validieren oder tiefgehendes kognitives Denken anzuwenden. Ihre Stärke liegt in der Fähigkeit, statistische Zusammenhänge zwischen Wörtern zu erkennen und diese in einem kohärenten Text umzusetzen. Doch das Resultat ist immer nur ein Produkt der Wahrscheinlichkeitsberechnungen, ohne Garantie für Richtigkeit. Geschäftsleiter sollten daher niemals davon ausgehen, dass LLMs eine vollständige oder gar unfehlbare Antwort liefern, besonders in kritischen, rechtlich relevanten Bereichen. Daher ist essenziell, dass LLMs nur als unterstützende Werkzeuge und nicht als alleinige Entscheidungsgrundlage eingesetzt werden. Ein Verzicht auf diese menschliche Expertise oder qualifizierte Fachleute könnte als fahrlässige Sorgfaltspflichtverletzung gewertet werden.

Intransparent

Ein weiteres Risiko betrifft die Intransparenz der Entscheidungsfindung. LLMs arbeiten häufig als Black-Box-Modelle, deren Funktionsweise und Entscheidungslogik für den Nutzer schwer nachvollziehbar sind. Geschäftsleiter sind jedoch gesetzlich verpflichtet, Entscheidungen auf einer nachvollziehbaren und transparenten Informationsbasis zu treffen. Die Business Judgement Rule (§ 93 Abs. 1 AktG) verlangt, dass unternehmerische Entscheidungen transparent und fundiert sind. Fehlt diese Transparenz, könnte dies zu Haftungsansprüchen führen, da eine unzureichend dokumentierte Entscheidungsfindung als Verstoß gegen die Sorgfaltspflichten gewertet werden könnte.

Außerdem können Ergebnisse durch Bias (Vorurteile) in den Trainingsdaten von LLMs verzerrt sein. Diese Modelle werden auf großen Datensätzen trainiert, die oft auch historische Verzerrungen oder ungleiche Repräsentationen enthalten. Diese Verzerrungen können unabsichtlich in die generierten Antworten übernommen werden und zu fehlerhaften oder diskriminierenden Entscheidungen führen. Sind neun von zehn Trainingsdaten inhaltlich falsch oder beruhen nicht auf wissenschaftlichen Erkenntnissen, könnte es zu einer Diskriminierung des zehnten Trainingsdatensatzes kommen, obwohl dieser deutlich aussagekräftiger und verlässlicher sein kann. Der KI-Output kann also hierdurch verzerrt sein.

Haftung und Sorgfaltspflichten

Die Haftung von Geschäftsführern im Zusammenhang mit dem Einsatz von LLMs stellt eine der zentralen rechtlichen Herausforderungen dar. Gemäß der Business Judgement Rule ist eine Haftung ausgeschlossen, wenn Entscheidungen auf der Grundlage angemessener Informationen und mit der gebotenen Sorgfalt getroffen werden. Dabei muss die Entscheidungsfindung auf einer soliden und nachvollziehbaren Informationsbasis beruhen. Bei der Verwendung von LLMs stellt sich die Frage, ob diese Ergebnisse dieser Anforderung gerecht werden. Die oben beschriebene „Illusion der Richtigkeit“ könnte dazu führen, dass Geschäftsführer Entscheidungen treffen, die auf scheinbar plausiblen, aber letztlich unzutreffenden Informationen basieren.

Daher sollten Führungskräfte sicherstellen, dass LLMs lediglich als unterstützende Instrumente und nicht als alleinige Entscheidungsgrundlage dienen. Eine rein auf KI-generierten Inhalten basierende Entscheidung könnte als Sorgfaltspflichtverletzung gewertet werden.

Problemfeld Dokumentation

Ein weiteres Problemfeld betrifft die Dokumentation der Entscheidungsfindung. Im Falle einer Haftung müssen Geschäftsführer nachweisen können, dass ihre Entscheidungen auf fundierten und überprüfbaren Informationen beruhten. Die Black-Box-Natur von LLMs erschwert diesen Nachweis erheblich. Ein Gericht könnte die fehlende Transparenz als Verstoß gegen die Sorgfaltspflicht werten.

Ein zusätzlicher Aspekt ist die „Caremark-Duty“: Geschäftsleiter müssen geeignete Überwachungsmechanismen implementieren, um Risiken frühzeitig zu erkennen und angemessen darauf zu reagieren. Wenn LLMs als Teil des Risikomanagements eingesetzt werden, müssen die genutzten Systeme transparent und verlässlich sein. Dies schließt die Kontrolle von potenziellen Risiken wie Bias oder Fehleinschätzungen ein. Fehlende Kontrolle oder Nachvollziehbarkeit der KI-Entscheidungen könnte in Haftungsfragen problematisch werden.

Die Kehrseite der Medaille

Neben den Risiken stellt sich die Frage, ob Geschäftsführer aus der unternehmerischen Sorgfaltspflicht heraus verpflichtet sind, LLMs in ihre Entscheidungsprozesse zu integrieren. Die Sorgfaltspflicht verlangt, dass Führungskräfte alle geeigneten Mittel zur Effizienzsteigerung und Qualitätsverbesserung nutzen. Die Pflicht zur Nutzung von LLMs könnte sich also in Fällen ergeben, in denen der Einsatz dieser Technologie nachweislich zu einer Verbesserung der Effizienz und der Qualität der Entscheidungsfindung beiträgt. Das Unterlassen ihres Einsatzes könnte als Verstoß gegen die Sorgfaltspflichten gewertet werden und zu suboptimalen Entscheidungen führen, die mit der Unterstützung von LLMs möglicherweise vermeidbar gewesen wären.

Verantwortungsvolle Nutzung

Geschäftsleiter stehen vor der Herausforderung, den Nutzen von LLMs zu maximieren, ohne ihre Verantwortung und Sorgfaltspflicht aus den Augen zu verlieren. Der Einsatz dieser Technologien sollte stets als Teil eines umfassenden Entscheidungsprozesses erfolgen, der (nach heutigem Stand der Technik) zwingend menschliches Urteilsvermögen einschließt. In bestimmten Fällen könnte die Einbindung von KI nicht nur eine Option, sondern Pflicht sein, wenn sie die Effizienz und Qualität der Entscheidungen nachweislich steigert. Dies erfordert jedoch eine klare Governance, definierte Prozesse und Trainings mit den Mitarbeitern, um rechtlichen Anforderungen gerecht zu werden und die damit verbundenen Risiken zu minimieren. Nur so kann sichergestellt werden, dass KI verantwortungsvoll und im Einklang mit der unternehmerischen Sorgfaltspflicht eingesetzt wird.

*) Dr. Kilian Pfahl ist Senior Associate von Hogan Lovells.

Dr. Kilian Pfahl ist Senior Associate von Hogan Lovells.

*) Dr. Kilian Pfahl ist Senior Associate von Hogan Lovells.