InterviewKristian Kersting, TU Darmstadt

„Wer prüft das KI-Prüfsystem?“

KI-Forscher Kristian Kersting zu den Wirkungen des neuen KI-Gesetzes der EU, der Gefahr eines neuen Bürokratiemonsters, Wettbewerbsfragen und ob der AI-Act dazu taugt, kleine und mittlere Unternehmen tatsächlich zu fördern.

„Wer prüft das KI-Prüfsystem?“

Kristian Kersting

"Wer prüft das KI-Prüfsystem?"

KI-Forscher der TU-Darmstadt zu den Wirkungen des neuen KI-Gesetzes der EU, der Gefahr eines neuen Bürokratiemonsters und Wettbewerbssorgen

Der AI Act der EU ist weltweit der erste Versuch, das neue Feld der künstlichen Intelligenz (KI) politisch-regulativ zu fassen. Dadurch können Unternehmen auf einer sicheren Rechtsbasis handeln und der Markt kann sich entwickeln. Ein Standortvorteil für Europa?

Herr Prof. Kersting, wird das neue KI-Gesetz seiner Vorbildrolle für die Branche eigentlich gerecht? Oder entsteht ein neues Bürokratiemonster?

Ich finde den grundsätzlichen Ansatz der EU vernünftig, die Menschen und Risikogruppen schützen zu wollen. Denn durch den Einsatz von KI können ja viele Rechte verletzt, digitale Abbilder von Personen in die Welt gesetzt, sie auf Schritt und Tritt verfolgt, ihr Verhalten analysiert werden. Davor muss man die Bürger und die Gesellschaft schützen. Schon jetzt merken immer mehr Gruppen, wie KI in ihr Leben eindringen kann und es verändert. Hier Verbotszonen zu definieren, leistet das Gesetz. Und ich denke auch, dass Europa diesmal in der Tat vorneweg ist bei der gesetzlichen Prägung eines neuen Marktes. In den USA wird man wohl bald in eine ähnliche Richtung marschieren.

Aber im Falle der KI sind die Prozesse ja in Bewegung. Können starre Gesetze dem überhaupt gerecht werden?

Zunächst müssen die Bestimmungen noch ausformuliert und konkretisiert werden für die neu ins Leben zu rufenden Prüf- und Kontrollinstanzen. Sie müssen auch ausgestattet und befähigt werden, die von der Industrie gelieferten Beipackzettel für ihre Anwendungen zu untersuchen und zu testen; also, ob auch jene Inhaltsstoffe drin sind, die dort draufstehen.

Kristian Kersting ist Professor für künstliche Intelligenz und Machine Learning an der TU-Darmstadt. Er ist in vielen Gremien in Bezug zu KI aktiv u.a. als Co-Direktor von hessian.AI, arbeitete am MIT in den USA und erhielt 2019 den German AI-Award.

Wie kann man das aber nachweisen, ohne den Code zu entschlüsseln? Anders gefragt: Ist es einem Unternehmen zuzumuten, seine Geschäftsgeheimnisse offenzulegen?

Vielleicht müssen sie ja auch nicht alle Daten preisgeben, und größere Blöcke genügen schon. Ich kann mir auch – analog zu den Wirtschaftsprüfern im Steuer- und Unternehmensrecht – eine öffentliche oder private Instanz vorstellen, die umfassend Einblick erhält, aber nur ihr Testat weitergibt. Viel mehr mache ich mir im Moment Sorgen, ob diese neuen Prüfinstanzen mit den gewaltigen Fortschritten in der KI Schritt halten können. Einer der nächsten großen Datensätze wird wahrscheinlich 100 Milliarden Bilder enthalten. Die kann ja kein Mensch mehr angucken. Um diese Daten zu prüfen, brauchen wir eigene KI-Systeme, die wiederum andere System prüfen und bewerten. Und wer prüft dann das Prüfsystem?

Klares Votum gegen Social Scoring.

Wo sehen Sie denn, um einen positiven Blick auf die Gesetzgebung zu werfen, die größten Vorteile durch das Gesetz?

Es ist die grundsätzliche Klarheit. So gibt es etwa ein klares Votum gegen Social Scoring, was viele Menschen beruhigen dürfte. Und es stehen Transparenzforderungen an die Entwicklung drin, damit klar wird, wie diese Systeme reagieren und warum sie manchmal so komisch und verzerrt antworten.

Und woran liegt das?

Das liegt an den Trainingsdaten, weil auch wir Menschen uns manchmal komisch verhalten und sich das in den Daten niederschlägt. Und bisweilen auch, weil diese Daten nicht repräsentativ sind, sondern gehäuft etwa aus der westlichen Welt kommen. Daher müssen die Quellen offengelegt werden – gerade wenn diese Systeme relevante Entscheidungen selber treffen in verschiedenen Bereichen.

Aber kann diese Transparenzanforderung nicht leicht unterlaufen werden?

Man kann alles unterlaufen. Denken Sie an die Geschwindigkeitsbegrenzungen auf unseren Straßen. Entscheidend ist, dass die Unternehmen mit ihrem Fehlverhalten ein gewisses Rechts- oder Finanzrisiko eingehen. Zudem kann das Unterlaufen ja auch durch KI-Prüfsysteme möglicherweise erschwert werden, die auch aus diesen Trainingsdaten lernen.

In den Behörden muss das nötige technische Verständnis und KI-Expertise vorhanden sein und darf nicht allein rechtlich und formal geprüft werden.

Wie groß ist die Gefahr, dass der AI Act dem Fortschritt in der KI zu enge Grenzen setzt?

Ich hoffe, dass trotz allen nötigen Prüfaufwands immer noch genügend Technologieoffenheit bleibt. Und daher müssen wir wohl zu einer stochastischen Vorgehensweise übergehen und uns auf gute Stichproben verlassen. Auch hierfür ist aber die Voraussetzung, dass in den noch zu bildenden Gremien und Behörden, die das Gesetz umsetzen müssen, auch das nötige technische Verständnis und KI-Expertise vorhanden sind und nicht allein rechtlich und formal geprüft wird.

Ist das KI-Gesetz insofern zu früh verabschiedet worden, weil man viele dieser Fragen und neuen Prüfinstanzen noch gar nicht auf dem Zettel hatte?

Nein, denn das hätte zu großen Verzögerungen geführt. Jetzt wissen Politik und Wirtschaft wenigstens, worauf man sich einzustellen hat und was noch zu bewerkstelligen ist. Schließlich hat die KI-Branche ja auch selber nach Regulierung gerufen. Tesla-Chef Elon Musk hatte gar eine sechsmonatige Entwicklungspause vorgeschlagen für die ganz großen KI-Modelle. Doch dann kam er plötzlich selber mit so einem Modell daher. Wir müssen bei der Umsetzung des Gesetzes also eng dabeibleiben, die Branche beobachten und dabei pragmatisch agieren. Und das geht nur mit Leuten aus der Branche selber.

Gibt es schon KI-Expertise in den Behörden, die jetzt aufgerufen sind, das Gesetz auszuformulieren und die Prüfinstanzen zu strukturieren?

Das ist im Moment nicht der Fall. Deshalb mein Ruf nach KI-Expertise. Schließlich geht es nicht darum, nur die sozialen und juristischen Aspekte zu prüfen wie anderswo. Die Vorgaben, die diese Instanzen machen, müssen natürlich berücksichtigen, dass ihre Bestimmungen technisch überhaupt umsetzbar sind. Da benötigt man schlicht Wissen über die laufenden Forschungsvorhaben.

Aber ist das größere Problem nicht, dass das KI-Gesetz eine gewaltige Bürokratie nach sich zieht, die gerade die kleineren Unternehmen, die man dadurch eigentlich fördern will, erdrosselt?

Die Gefahr ist natürlich da.

Wie muss man jetzt vorgehen, um ein Brüsseler Bürokratiemonster noch zu verhindern?

Wir müssen grundsätzlich aufpassen, dass etwa die Transparenzpflicht kleine Firmen und Start-ups nicht erdrückt; oder die bürokratischen Anforderungen schlicht ausufern. Da nun gleich am Anfang der Beratungen davor gewarnt wird, darf man ja durchaus noch hoffen. Letztendlich ist die Transparenz jedoch ein klarer Standortvorteil für Europa, weil sie Sicherheit und Vertrauen schafft, und damit den Markt fördert.

Wir müssen aufpassen, dass kleinere Akteure nicht von den Großen ausgebootet werden

Ich habe mich gefragt, warum im KI-Gesetz angesichts der schlechten Erfahrungen in anderen digitalen Märkten nicht gleich die Wettbewerbsbehörden einbezogen werden. Kennen Sie den Grund?

Das habe ich mich auch schon gefragt. Das wäre durchaus sinnvoll, denke ich. Denn gerade im digitalen Business geht es ja auch um das Thema Plattformökonomie. Jedenfalls müssen wir sehr aufpassen, dass kleinere Akteure auf dem Markt nicht von den Großen ausgebootet werden. Vor allem aber muss der Staat darauf achten, dass er die digitale Infrastruktur weiter kräftig ausbaut und auch die Forschung weiter unterstützt, wo eigene KI-Systeme entwickelt werden. Da mache ich mir die größten Sorgen, weil da im Moment nicht so viel passiert wie anderswo.

Gilt das auch für die noch aufzubauenden Prüfinstanzen, zumal sich im Markt der Wirtschaftsprüfer, die sich dem ja auch annehmen könnten, ja besonders große Akteure tummeln?

Ja, hier auf jeden Fall. Es darf nicht dazu kommen, dass wir mit dem KI-Gesetz nur für die KPMGs, EYs und Deloittes dieser Welt neue Finanzquellen auftun.

Wäre die verstärkte Förderung von Open Source eine Möglichkeit, sowohl den Transparenzforderungen als auch der Förderung kleinerer Unternehmen gerecht zu werden?

Das ist in der Tat ein wichtiger Gedanke. Open Source muss im KI-Sektor eine größere Rolle spielen als bisher – aus den genannten Gründen, aber auch aus vielen anderen. Open-Source-Modelle können dazu dienen, quasi die DNA des menschlichen Verhaltens abzubilden. Und das ist ganz klar ein öffentliches Interesse, dass dies nicht allein in der Hand kommerzieller Konzerne liegt, sondern in allgemein zugänglichen Bibliotheken. Hier fehlt es noch an der Finanzierung, um diese Systeme zu bauen. Später könnten andere Firmen darauf zugreifen und die Modelle spezialisieren. Forschungen an großen Open-Source-Modellen würden auch helfen, Fragen nach Urheberrechten von Trainingsdaten, Ähnlichkeiten von KI-Ergebnissen aus den Urheberdaten etc. zu klären und Urteile fällen zu können.

Was ist Ihre größte Sorge im Hinblick auf die KI-Gesetzgebung in Europa und deren Umsetzung?

Dass aus Versehen das Gegenteil des Intendierten erreicht wird: also gut gemeint, aber falsch gemacht, wenn etwa die Konkretisierung des KI-Gesetzes für die Praxis zu eng, rigide, bürokratisch oder am Markt vorbei ausfällt. Zum jetzigen Zeitpunkt ist es aber noch zu früh, um schon so ein Verdikt zu fällen.

Natürlich fallen Jobs weg, es werden aber auch neue aufgebaut durch KI.

Und die Auswirkungen der KI auf den Arbeitsmarkt? Die bringen Sie nicht um den Schlaf?

Natürlich fallen Jobs weg, es werden aber auch neue aufgebaut durch KI, manche werden leichter, andere anspruchsvoller und es gibt ganz neue Möglichkeiten. Und das war schon immer so: bei der Elektrizität, dem Automobil, den Robotern in den Werkshallen. Und auch künstlerisch gibt es neue Ausdrucksformen. Aber die Fotografie hat die Malerei ja nicht verdrängt. Und der Computer nicht den Schachspieler, auch wenn Ersterer Letzteren schlagen kann.

Das Interview führte Stephan Lorz.

Weitere Beiträge zu KI:

Erklärkasten

Kommentar

Bericht

Das Interview führte Stephan Lorz.

BZ+
Jetzt weiterlesen mit BZ+
4 Wochen für nur 1 € testen
Zugang zu allen Premium-Artikeln
Flexible Laufzeit, monatlich kündbar.