In Liebe, Dein Paul – unterstützt von ChatGPT
KfW-Chef Stefan Wintels nutzte jüngst die Gelegenheit zu einer anschaulichen Demonstration dessen, was künstliche Intelligenz so alles kann. Schließlich hat die KfW als selbsternannte Transformationsbank ein besonderes Interesse daran, Banken und Unternehmen Möglichkeiten der digitalen Welt näherzubringen. Bei der Auftaktveranstaltung zum Jubiläumsjahr – die Förderbank feiert 75. Geburtstag – unterbrach Wintels seinen Impulsvortrag nach einigen Minuten mit dem Hinweis, die Rede habe weder er selbst geschrieben noch ein Pressereferent, sondern ChatGPT. Also ein Chatbot, ein Dialogsystem, das mit Massen von Textbausteinen gefüttert wurde. Und in der Tat war das Ergebnis beachtlich. Denn die Rede von Wintels war nicht nur inhaltlich anregend, sondern auch sprachlich und stilistisch anspruchsvoll – die Poesie des Algorithmus war beeindruckend.
ChatGPT ist derzeit „talk of the town“ am Finanzplatz. Überall tauschen Banker und Börsianer ihre Erfahrungen mit der Software aus. Und täglich berichten Medien über neue Selbstversuche und Belastungstests.
So meldet ein US-Fachjournal, dass ChatGPT in einem Probelauf das United States Medical Licensing Exam bestanden habe, also eine der wichtigsten Prüfungen auf dem Weg zum Arzt. Mit 50% bis 75% richtigen Antworten habe der Chatbot die Mindestpunktzahl erreicht. Etwas ernüchternder fällt derweil eine Prüfung bayrischer Rundfunkjournalisten aus, die ChatGPT mit den Aufgaben konfrontierten, die Schülern im Zuge des Abiturs gestellt werden. In Deutsch und bemerkenswerterweise in Informatik gab es nur ein „mangelhaft“ – autsch! Immerhin: In Geschichte brachte es die künstliche Intelligenz wenigstens auf ein „noch befriedigend“ – wahrscheinlich, weil ChatGPT mit den exakten Jahreszahlen von Olmützer Punktation, Emser Depesche oder Hambacher Fest blenden konnte.
Immer häufiger wird übrigens berichtet, was ChatGPT alles nicht kann – etwa belastbare medizinische Diagnosen erstellen oder die richtigen Ratschläge zur schnellen Genesung abgeben. Dass die Beschreibung der – zumindest heute noch bestehenden – Defizite in den Mittelpunkt gerückt wird, könnte wiederum damit zusammenhängen, dass viele Journalisten einen besonders skeptischen Blick auf die Software haben. Schließlich bedroht sie potenziell ihren Arbeitsplatz. Kein Wunder also, dass regelmäßig in Artikeln das Gros der Zeilen darauf verwendet wird, warum ChatGPT letztlich doch nicht als Autorenersatz funktionieren kann. Na gut, glauben wir einfach einmal, dass wenigstens die Journalisten, die das so sehen, selbst davon überzeugt sind. Lange Zeit haben ja auch Dolmetscher behauptet, das Übersetzungsprogramm deepL.com werde keinen Einfluss auf ihre Arbeitsplatzsicherheit haben.
Apropos deepL.com: Neulich kam eine englischsprachige Mail an, die mit dem Hinweise endete: „übersetzt mit www.DeepL.com/Translator (kostenlose Version)“. Es war sicherlich unbeabsichtigt, dass die Empfänger der Mail erkennen konnten, dass der Absender seinen elektronischen Brief nur dank der Hilfe des Übersetzungsprogramms in so tadellos schönem Englisch formuliert hatte. Deshalb, Tipp unter Freunden: Achten Sie immer drauf, dass Hilfsprogramme ihre Dienstleistung häufig am Ende explizit ausweisen – und löschen Sie diesen Fingerzeig, bevor Sie auf „Senden“ drücken.
Das gilt besonders dann, wenn Sie die Unterstützung von ChatGPT oder deepL in der privaten Kommunikation einsetzen. Ein Freund hat jüngst eine Mail an seine Frau zu einem für das Paar wichtigen Datum von ChatGPT formulieren lassen. Er hat acht positive Eigenschaften und den Namen seiner Frau eingegeben – sowie „18 Jahre“ für die Zeit, die sie miteinander verbunden sind. Das Ergebnis war ein Text, der seiner Ehefrau ausnehmend gut gefiel – sogar nachdem er ihr gestanden hatte, ihn nicht selbst formuliert zu haben. Aber gerade in solchen Fällen gilt: Schauen Sie nach, dass die Mail nicht mit den Worten endet: In Liebe, Dein Paul – unterstützt von ChatGPT.