OpenAI im Fair-Use-Streit: Wie viel Transformation steckt in ChatGPT?
OpenAI im Fair-Use-Streit: Wie viel Transformation steckt in ChatGPT?
Interessenausgleich zwischen Urhebern und Öffentlichkeit genießt hohen rechtlichen Stellenwert – Verändertes Rollenverständnis in den Medien erwartet
Von Karolin Rothbart, Frankfurt
2023 war in mehrfacher Hinsicht das Jahr des Durchbruchs für generative künstliche Intelligenz (GKI). Nicht nur haben Investoren weltweit gut 22 Mrd. Dollar Wachstumskapital in die Technologie gesteckt und damit laut dem Datendienst Dealroom mehr als fünfmal so viel wie im Vorjahr. Auch in der Regulierung gab es erste Meilensteine wie die Einigung in der EU über das weltweit erste umfassende KI-Gesetz.
Viele grundsätzliche Fragen sind allerdings noch offen – allen voran jene zum urheberrechtlichen Umgang mit Trainingsdaten und den von Text-, Bild- oder Videogeneratoren erzeugten Inhalten. Dürfen die Modelle einfach so mit geschützten Werken gefüttert und auf diesem Weg für den kommerziellen Einsatz vorbereitet werden? Oder braucht es dafür eine Lizenz?
Die Frage bewegt naturgemäß jene, die ihr Einkommen aus der Erstellung solcher Werke beziehen, darunter Künstler, Fotografen, Buchautoren oder auch Journalisten. Sie gipfelte Ende Dezember in einer aufsehenerregenden Klage der New York Times gegen den ChatGPT-Entwickler OpenAI und dessen Hauptinvestor Microsoft. Das Start-up, so behauptet die Zeitung, habe unerlaubt Inhalte aus Millionen von Artikeln für das Training der KI genutzt und der Times dadurch Schäden in Milliardenhöhe zugefügt.
Google Books als Vorläufer
OpenAI wiederum beruft sich in der Sache auf das Fair-Use-Prinzip, also auf eine Regelung, die nach US-Recht die legale Nutzung von urheberrechtlich geschütztem Material in bestimmten Fällen vorsieht. Zu solchen Fällen zählen etwa Forschungs – und Bildungszwecke oder eine Berichterstattung und Kommentierung. Ganz allgemein geht es hierbei um einen Ausgleich zwischen Interessen der Urheber und denen der Öffentlichkeit. Dieses Ziel hatte in der bisherigen Rechtsprechung einen hohen Stellenwert.
„US-Gerichte haben sich schon früh mit der Übernahme urheberrechtlich geschützter Inhalte aus dem Internet befasst und die Fair Use-Regelung recht weit auslegt. Das könnten sie auch in Zukunft fortsetzen“, sagt Alexander Duisberg, Rechtsexperte für Digitalisierung und Datenökonomie von der Kanzlei Ashurst. Er erinnert etwa an den Fall Google gegen die US-Autorenvereinigung Authors Guild, den der Suchmaschinenriese und Anbieter des Büchersuchdienstes Google Books 2015 – und damit nach zehn Jahren – für sich entscheiden konnte.
Google hatte für den 2002 gestarteten Dienst ganze Bücher digitalisiert, sie mit einer Stichwortsuche versehen und den Nutzern kurze Auszüge, sogenannte Snippets, zur Verfügung gestellt. Die Autoren sahen darin eine „massive Verletzung des Urheberrechts“. Aus Sicht der Gerichte handelte es sich jedoch um eine „transformative Nutzungsweise“, die den öffentlichen Zugang zu Wissen verbessere.
„Dieses Argument könnte auch zugunsten von OpenAI herangezogen werden“, sagt Duisberg. „Voraussetzung ist jedoch, dass ChatGPT geschützte Originaltexte nicht einfach eins zu eins wiedergibt.“
Genau das wirft die Times dem Start-up aber vor. Die Tools der Firma seien in der Lage, „Output zu generieren, der die Inhalte der Zeitung wortgetreu wiedergibt“, heißt es in der Klage. OpenAI versucht hier zu beschwichtigen: Die Reproduktion geschützter Inhalte sei ein „seltener Fehler“, an dem man arbeite. Überhaupt habe die Times beim Prompten gegen Nutzungsbedingungen verstoßen, um lange Auszüge von Artikeln zu erhalten.
Andere Verlage könnten folgen
Der Druck der OpenAI-Investoren, gegen das Problem der unbeabsichtigten Vervielfältigung vorzugehen, dürfte dennoch groß sein. Ganze 13 Mrd. Dollar hat Microsoft bislang in das Start-up gesteckt. „Sollte das Fair-Use-Prinzip aus Sicht der Gerichte bei den Sprachmodellen nicht greifen, könnten noch mehr Verlagshäuser auf die Times folgen und ihre Urheberrechte durchsetzen“, sagt Duisberg. In der Theorie könnte das irgendwann auch auf die Qualität der Ergebnisse von ChatGPT durchschlagen – nämlich dann, wenn das Sprachmodell quasi nur noch mit Inhalten aus dem Internet trainiert wird, die rein synthetisch generiert und entsprechend nicht urheberrechtlich geschützt sind.
Egal, wie das Urteil ausgeht: Für Medienunternehmen sieht Duisberg derzeit mehr Chancen als Risiken durch generative KI. „Der Informationsüberfluss wird mit Content-Generatoren nochmal deutlich verstärkt und der Anteil von synthetisch erzeugten Inhalten mit ungeprüftem Wahrheitsgehalt nimmt zu“, sagt der Digital-Rechtler. „Dadurch dürfte sich auch das Rollenverständnis von Medien ändern, deren Hauptaufgabe ja die Sicherstellung von Glaubhaftigkeit neben dem Kuratieren von Informationen ist. Diese Rolle des vertrauenswürdigen Informationsvermittlers wird in Zeiten von GKI also nochmal wichtiger.“