KI-Regulierung wird zum Drahtseilakt
Von Mario Pofahl und Maximilian Mann *)
Künstliche Intelligenz (KI) präsentiert der Öffentlichkeit einen Durchbruch nach dem anderen – ob GPT (seit neuestem in Version 4) oder Robo-Anwälte, die Möglichkeiten scheinen endlos. Währenddessen arbeitet die Europäische Union an der KI-Verordnung (KI-VO) und der KI-Haftungsrichtlinie (KI-RL). Doch noch ist unklar, wann diese Regulierungsvorhaben in Kraft treten werden.
Kommen sie rechtzeitig? Was gilt in der Zwischenzeit? Sind sie hinreichend flexibel, um auch zukünftigen Entwicklungen Rechnung zu tragen, aber gleichzeitig ausreichend konturiert, um ergiebigen Boden für Innovation zu bieten? Diese Fragen sollten sich nicht nur die Gesetzgeber stellen, sondern auch Unternehmen, die künstliche Intelligenz für sich und ihre Kunden bereits jetzt fruchtbar machen möchten.
Als PR-Stunt einzuordnen
Derzeit ist der Chatbot ChatGPT allgegenwärtig und begeistert mit (nicht immer korrekten, aber jedenfalls eloquenten) Antworten in verschiedensten Bereichen die breite Öffentlichkeit. Ende des vergangenen Jahres meldeten sich innerhalb weniger Tage mehr als eine Million Nutzer an. Seitdem ist die Plattform fester Bestandteil der täglichen Berichterstattung und der Newsfeeds in den sozialen Medien – zuletzt mit der Meldung, dass GPT-4 als Nachfolgemodell von GPT-3.5 (Basis von ChatGPT) eingeführt wurde und seinen Vorgänger noch einmal übertrifft. So schneide GPT-4 bei einer Simulation des US-amerikanischen Staatsexamens in den oberen zehn Prozent der Absolventen ab, statt in den unteren zehn Prozent wie sein Vorgänger.
Gleichzeitig machte Schlagzeilen, dass die KI des Unternehmens Do Not Pay in den USA erstmals die Verteidigung in einem Gerichtsprozess übernehmen werde, was dann aber wegen potenzieller rechtlicher Konsequenzen abgesagt wurde. Das dürfte zwar primär als PR-Stunt einzuordnen sein, hat jedoch das Potenzial, die Verwendung von KI im juristischen Kontext zu revolutionieren. Es lässt gerade Juristen aufhorchen, auch wenn der Einsatz von Robo-Anwälten in Deutschland zum gegenwärtigen Zeitpunkt unwahrscheinlich erscheint. Besonders die (fehlenden) rechtlichen Rahmenbedingungen sorgen für Schwierigkeiten bei Entwicklung und Einsatz derartiger Anwendungen.
Die Uhr tickt
Der Gesetzgeber wirkt im Vergleich zu diesen rasanten technischen Entwicklungen behäbig. Die Europäische Union hatte bereits im Jahr 2018 einen Aktionsplan zum Umgang mit KI vorgelegt, aber erst im April 2021 veröffentlichte die Europäische Kommission ihren Entwurf für die KI-VO. Bis der Rat der Europäischen Union sich im Dezember 2022 auf einen gemeinsamen Standpunkt zu dem Gesetzesvorhaben einigte, vergingen weitere eineinhalb Jahre.
Nun muss das Europäische Parlament seine Position festlegen. Anschließend werden Kommission, Rat und Parlament miteinander in Verhandlungen treten, die voraussichtlich Ende 2023 beziehungsweise Anfang 2024 ihren Abschluss finden. Dann dauert es nach Inkrafttreten voraussichtlich noch zwei weitere Jahre bis zur vollständigen Anwendbarkeit des Gesetzes. Parallel dazu läuft das Gesetzgebungsverfahren für die KI-RL, die Haftungsfragen bezüglich der Nutzung von KI-Systemen regeln soll und somit in einem engen Zusammenhang mit der KI-VO steht. Die Kommission veröffentlichte einen ersten Entwurf im September 2022. Noch ist offen, wann die Richtlinie erstmalig Wirkung zeitigen wird. Eines aber ist sicher, es wird noch einige Zeit vergehen, bis ein einheitliches EU-Regelungswerk existiert.
Doch was gilt bis zur Geltung der KI-VO und der KI-RL? Trotz voranschreitender technischer Entwicklungen und damit steigender Relevanz fehlt derzeit ein Gesetz, das den Einsatz von KI auf nationaler und europäischer Ebene ganzheitlich reguliert. Mangels solcher Regelungen ist auf die national hergebrachten Vorschriften und dogmatischen Figuren in den einzelnen Bereichen zurückzugreifen.
Exemplarisch lohnt der Blick auf das deutsche Gesellschaftsrecht. Hier versucht die Rechtswissenschaft, der neuartigen Risiken (Stichwort: Blackbox) mit bewährten Mustern (Stichwort: Business Judgement Rule und Aufgabendelegation) Herr zu werden. Das vorhandene Recht beweist dabei einmal mehr beeindruckende Flexibilität und bietet für viele Risiken angemessene Antworten. Schwierigkeiten verbleiben allerdings im Hinblick auf die Vereinheitlichung und Systematisierung über Länder- und Praxisgrenzen hinweg, die naturgemäß besonders effektiv durch einheitliche länder- und praxisübergreifende Regulierung, wie die KI-VO und die KI-RL, ermöglicht wird. Bis es so weit ist, obliegt es der Rechtspraxis, die unterschiedlichen Rechtsquellen in der Beratung zusammenzuführen, um belastbare sowie kohärente rechtliche Voraussetzungen herauszuarbeiten und Unternehmen damit einen ergiebigen Boden für Innovation zu bereiten.
Sind die neuen europäischen Rechtsquellen einmal vorhanden, stellt sich die Frage, ob sie flexibel genug ausgestaltet sind, um auf künftige Entwicklungen rechtzeitig einzugehen. Besonders deutlich wird dies etwa bei der Definition von KI-Systemen und damit der Definition des Regelungsgegenstands. Die Kommission gestaltet die Definition von KI in ihrem Entwurf sehr weitreichend, manchen Stimmen zufolge sogar so weit, dass von einer „Software-Verordnung“ die Rede sein müsste, weil beinahe jede in der Praxis verwendete Software unter den Begriff KI zu subsumieren sei.
Im Gegenentwurf des Rates wird die Definition daher stärker eingeschränkt, damit herkömmliche Software nicht mehr unter den Regelungsbereich fällt. Eine zu enge Definition der KI-Systeme engt den Regelungsbereich der Verordnung zu sehr ein und beschränkt sie auf den derzeitigen Stand der Technologie. So ist es denkbar, dass in Zukunft auftretende Entwicklungen bezüglich KI nicht mehr in den Regelungsbereich der KI-VO und der KI-RL fallen und eine einheitliche Regulierung fehlt, obwohl KI-typische Risiken immanent sind.
Eine zu flexible Regelung, etwa durch eine zu extensive Definition von KI-Systemen, kann auch Schwierigkeiten bereiten; denn die Regulierung droht dadurch konturlos zu werden und auch Fälle zu erfassen, die sinnvollerweise anderweitig zu regeln sind. Besonders deutlich wird dies im Hinblick auf die Regulierung sogenannter Hochrisiko-KI-Systeme. Ein KI-System ist als Hochrisiko-System einzustufen, wenn es erhebliche Risiken für die Gesundheit, Sicherheit oder Grundrechte von Personen birgt.
Nach den derzeitigen Entwürfen dürften Anwendungen wie ChatGPT aufgrund ihrer universellen Einsetzbarkeit und Flexibilität fast immer als Hochrisiko-Systeme zu klassifizieren sein, obwohl sie zumeist in Bereichen eingesetzt werden, denen keine besonders hohen Risiken immanent sind. Wenn ein KI-System als Hochrisiko-System eingestuft ist, ist damit ein umfangreicher Katalog von Regulierungsanforderungen für Anbieter, Nutzer und Importeure verbunden. Das kann zu prohibitiven Kosten führen, also dazu, dass Unternehmen Anreize fehlen, entsprechende Systeme auf den europäischen Markt zu bringen. Das wiederum führt gegebenenfalls zu einem Wettbewerbsnachteil, den der europäische Gesetzgeber eigentlich durch die Regulierung von KI vermeiden will.
Flexibilität gesucht
Zusammenfassend ist die Regulierung von KI-Systemen ein Drahtseilakt. Auf der einen Seite ist es Aufgabe des Gesetzgebers, schnell einen belastbaren und einheitlichen Rechtsrahmen zu bieten, um der rasanten technischen Entwicklung gerecht zu werden, auf der anderen Seite könnten unausgegorene Schnellschüsse fruchtbare Innovation im Keim ersticken. Bei alledem muss die Regulierung hinreichend flexibel sein, um zukünftige neue Entwicklungen abzubilden, jedoch ausreichende Konturen haben, um eine überschießende Anwendung zu vermeiden.
Es bleibt abzuwarten, ob dem europäischen Gesetzgeber dieser Drahtseilakt gelingt und wann genau die geplanten Regelungen in Kraft treten. In der Zwischenzeit ist es die Aufgabe der Rechtspraxis, die vorhandenen Rechtsregeln und -figuren, wie sie etwa im Gesellschaftsrecht vorhanden sind, fruchtbar zu machen und Unternehmen einen belastbaren und kohärenten Rechtsrahmen zu bieten. Dann werden die Unternehmen weiterhin mit spannenden Entwicklungen wie ChatGPT und Robo-Anwälten begeistern können.
*) Mario Pofahl ist Partner, Dr. Maximilian Mann ist Associate im Hamburger Büro der internationalen Kanzlei Linklaters.