RECHT UND KAPITALMARKT

KI-Observatorium soll Kompetenzen bundesweit bündeln

Zentrum für künstliche Intelligenz vor dem Start - Gütesiegel angestrebt

KI-Observatorium soll Kompetenzen bundesweit bündeln

Von Philipp Reusch *) Das Bundesministerium für Arbeit und Soziales (BMAS) will im März 2020 das sogenannte KI-Observatorium einweihen. Minister Hubertus Heil wird das übernehmen und damit die bereits im vergangenen Jahr aufgenommene Arbeit des auch “KI-TÜV” genannten Kompetenzzentrums offiziell starten; mittelfristig soll hieraus ein Bundesinstitut für KI werden. Damit folgt der Gesetzgeber sowohl den eigenen Verabredungen aus der nationalen KI-Strategie als auch den Empfehlungen der Datenethikkommission. Zielsetzung ist eine bundesweite Bündelung von Kompetenz für KI, um andere Strukturen und Behörden fachlich unterstützen und Diskriminierungen und Schädigungen durch KI verhindern zu können. Die Datenethikkommission fordert hierzu ein risikoadaptiertes Regulierungssystem für algorithmische Systeme. Im Kern soll dessen Anwendung nach Kritikalität bewertet werden: Ein autonomes Fahrzeug ist demnach risikobehafteter als der Algorithmus, der einem Menschen weitere Einkaufsvorschläge empfiehlt.Die gewonnenen Erkenntnisse über die jeweilige KI sollen mittelfristig in ein Gütesiegel münden. Das erklärt zumindest den häufig verwendeten Begriff des Algorithmen-TÜV. BlackboxBei der Anwendung des Regulierungssystems verschiebt das BMAS den Fokus in Richtung der betrieblichen Mitbestimmung. Die Auswirkungen von KI auf die Arbeitnehmer und die Arbeitsorganisation werden als erheblich eingestuft; eine Änderung des Betriebsverfassungsgesetzes 2020 wird flankierend dazu führen, dass die Einführung und Nutzung von KI in Produktionsprozessen ausdrücklich der Mitbestimmung unterworfen werden wird. Unschwer zu erkennen ist: Die Aufgabe des KI-Observatoriums ist ein dickes Brett. Das BMAS wird zunächst acht Stellen schaffen, die sich mit der Thematik befassen. Der Wunsch nach einer KI-Überwachung folgt dem scheinbaren Empfinden, dass es Systemen mit künstlicher Intelligenz an Transparenz mangelt. Mit der Einrichtung eines KI-Observatoriums können grundsätzlich Kompetenz und Erfahrungswerte aufgebaut und zentral bereitgestellt werden. Inwieweit die mit der Transparenz gemeinte Einhaltung rechtlicher Anforderungen an KI-Systeme damit tatsächlich überwacht und somit auch eingefordert werden kann, darf allerdings nicht nur anhand des personellen Ungleichgewichts bezweifelt werden.KI wird ja häufig deswegen als intransparent wahrgenommen, weil sie es tatsächlich ist. Viele Verfahren sind nicht einmal vom ursprünglichen Entwickler in voller Gänze vorhersehbar und auch nicht zu 100 % retrospektiv erklärbar. Die Entscheidungs- und Lernschritte eines künstlichen Systems sind sehr häufig eine Blackbox.Dazu kommt der Aspekt der Herkunft vieler Systeme mit KI. Deren ursprüngliche Programmierung erfolgt häufig außerhalb der EU, ist nicht auf einen einzelnen Anbieter oder Programmierer zurückzuführen und zudem gekapselt, was bedeutet, dass der Code schlicht nicht einsehbar ist.Die ordnungspolitische Fehlkonstruktion vieler Überlegungen zur Regulierung von KI liegt darin, dass Pflichten auf Betreiberseite adressiert werden. Der KI nutzende Arbeitgeber muss sich eine Systemüberprüfung durch eine Einheit des BMAS und den Betriebsrat gefallen lassen. Per se unterhalten sich somit ausschließlich Parteien miteinander, die an der ursprünglichen Ausgestaltung des Systems nicht mitgewirkt haben und dessen Arbeitsweise sie nicht vollumfänglich nachvollziehen können. Ursächlich für die Bereitstellung einer KI auf dem Markt der EU ist aber nicht deren Nutzer, sondern der Hersteller oder Importeur der Ware. An diesen “cheapest cost avoider” sind Mindestpflichten für die Erstellung bzw. Implementierung von KI zu richten. Das würde auch dem Prinzip des “privacy by default” aus der Datenschutzgrundverordnung entsprechen, nach dem das Produkt so gestaltet werden muss, dass der Datenschutz inhärent umgesetzt wird. Ebenso wie im Datenschutz braucht es für die KI also Mindeststandards. Deren Festlegung wird entscheidend sein. Dies wird nur europäisch lösbar sein, wie auch alle anderen Anforderungen an die Sicherheit oder Verträglichkeit von Produkten europäisch reguliert und dann national überwacht werden. Mindeststandards Abstrakte Vorüberlegungen und grundsätzliche Vorgaben für KI-Mindeststandards existieren aufgrund der Arbeiten der Datenethikkommission wie auch der Expertengruppe KI. Von einer klassischen Normenreihe, wie es sie vom Dampfkochtopf bis zum ABS-System gibt, sind die Vorgaben und damit auch eine praktische Umsetzbarkeit in der Industrie aber noch sehr weit entfernt. Bereits bei heutigen analogen Produkten ist eine Überprüfung im Sinne eines Algorithmen-TÜVs nur möglich, wenn benannte Stellen diese gegen Normen prüfen können. Ein TÜV kann aber keine allgemeine Zielsetzung auf einer abstrakten Ebene begutachten. Das wird auch bei künstlicher Intelligenz nicht möglich sein.Die Arbeiten des KI-Observatoriums können hier vorbereitend sein, von einem Gütesiegel im Sinne eines allgemeinen Maßstabs ist derzeit aber nicht auszugehen. *) Philipp Reusch ist Rechtsanwalt und Gründungspartner von reuschlaw Legal Consultants.