„Shittifizierung“ statt „Superintelligenzen“
„Shittifizierung“ statt „Superintelligenzen“
KI wird zur Müllschleuder und droht die Gesellschaft zu unterwandern. Tech-Konzerne müssen zur Verantwortung gezogen werden – am besten via Kartellrecht.
Von Stephan Lorz, Frankfurt
Wie eine außer Rand und Band geratene künstliche Intelligenz (KI) ganze Gesellschaften ins Unglück stürzen kann, das zeigt eine ganze Reihe von Science-Fiction-Filmen: „I, Robot“ etwa, oder „Matrix“, „Terminator“ und „Ex Machina“. Da viele der Entwickler von KI-Systemen das SF-Genre lieben, war es absehbar, dass viele bereits im Vorfeld der nächsten Technologiegeneration vor den Gefahren warnten. Im Februar thematisierte das etwa OpenAI-Lenker Sam Altman.
Dabei sind sie es selbst, die in erster Linie die Verantwortung für ihre Technologie haben. Anders als bei der Atombombe, wo der Staat dahinterstand, sind sie bei KI selbst die Treiber der Entwicklung und streichen obendrein hohe finanzielle Erträge ein. Aber das scheinen sie indes nicht wahrhaben zu wollen, verweisen auf den Wettbewerb oder lenken von aktuellen Problemen ab, indem sie gleich die Auslöschung der ganzen Menschheit an die Wand malen, wenn einst eine „Superintelligenz“, die alle Menschen bei kognitiven Aufgaben übertreffen soll, das Licht der Welt erblickt. Die KI-Firma Anthropic hat daher veranlasst, neue Modelle mit „Verfassungen“ zu versehen, in denen auch ethische Werte und Grundsätze verankert sind.
Fehlgeleitete Herangehensweise
MIT-Ökonom Daron Acemoglu hält die Konzentration auf „Superintelligenzen“ aber für einen Bluff. Da sich jede Technologie zum Guten oder zum Schlechten nutzen lasse, komme es letztlich darauf an, wer sie kontrolliere, welche Ziele er verfolge und welchen Vorschriften er unterworfen sei. Und bevor eine „Superintelligenz“ an die Macht komme, seien es die dahinterstehenden Firmen, die sich dessen bewusst wären und vorab handeln müssten. Zumal auch KI-Systeme lange vor einer „Superintelligenz“ verwendet werden könnten, um Gesellschaften zu destabilisieren, wenn etwa Antworten der Systeme „verzerrt“ würden und nicht genug dagegen unternommen werde. Dass diese Technologie nach und nach alle Facetten des Lebens und der Gesellschaft durchdringen wird, steht für ihn außer Frage. Dieser Verantwortung müssten sich die Unternehmenslenker schon jetzt stellen. Acemoglu fordert daher die Politik auf, die Tech-Konzerne selbst stärker in den Fokus zu nehmen. Dafür brauche man aber stärkere Institutionen und mehr Druck von der Zivilgesellschaft.
Das sieht auch Max von Thun, Direktor am Open Markets Institute, so. Ihm zufolge sind die momentan auftretenden Verzerrungen in den KI-Antworten, ihre Halluzinationen und der produzierte Müll eine Folge zu großer, ungebändigter Marktmacht. Denn es gehe den Konzernen letztendlich nicht darum, die KI zu vervollkommnen, sondern nur darum, neue Konkurrenten mittels Dauerbeschuss durch „Innovationen“ und neue Produkte aus ihrem Markt herauszuhalten.
Gefährliche Halluzinationen
Auf die Verbraucher würden dabei marktunreife Modelle losgelassen und aktuelle Probleme nur „einzeln und unsystematisch angegangen“, um das Schlimmste aus der Welt zu schaffen. Gleichzeitig werde im Netz immer mehr „Müll“ verbreitet, Suchergebnisse würden mit Spam und Anzeigen durchsetzt, und „KI-Agenten“ würden falsche Fakten verbreiten. Doch hätten die Konzerne inzwischen eine solche Marktmacht, dass sie trotzdem keine Kunden an Rivalen verlören. Zumal auch die anderen Konzerne die „Shittifizierung“ des Netzes betrieben und als „Innovation“ verkaufen würden.
Erst ihre große Marktmacht habe es den KI-Konzernen ermöglicht, jene enormen Datenmengen, Rechenleistung, Fachwissen und Kapital zu bekommen, um große Sprachmodelle überhaupt zu entwickeln. Die Interessen sind für ihn damit klar: Google und Meta nutzten generative KI, um ihr Duopol im Werbegeschäft zu festigen, während die KI-gestützte Nachfrage nach Rechenleistung Microsofts und Amazons Monopolstellung im Cloud-Computing festige. Das zur Schau gestellte „Wettrüsten“ sei insofern kein Beleg für hohen Wettbewerbsdruck, sondern eine „Illusion“ davon. Stattdessen solle das „statische Nebeneinander“ von Google, Meta, Microsoft & Co. zementiert werden.
AI Act als erster Schritt
Verbindliche Vorschriften wie der AI Act der EU sind nach von Thuns Ansicht ein „notwendiger erster Schritt“, um die Unternehmen zur Verantwortung zu ziehen. Allerdings müsse man mehr das Kartellrecht nutzen. Und die Öffentlichkeit müsse sich klar werden, mit welchen subtilen Erzählungen über „Innovation“ sie von den dominanten Unternehmen „geformt und gesteuert“ werde. Nicht die „Superintelligenz“ ist also die Gefahr, sondern die superintelligenten Tech-Konzerne. Insofern ist das jüngste Urteil im Fall Google ein Hoffnungszeichen.