Viele Journalisten sorgen sich, in Zukunft von der künstlichen Intelligenz Chat GPT ersetzt zu werden. Ist die Angst berechtigt? Was kann Chat GPT bereits? Und wo sind die Grenzen des Sprachmodells? Ein Selbstversuch mit professioneller Expertise.
VON SUSANNE MAERZ
Jeder fünfte Zeitungs- oder Zeitschriftenverlag setzt schon jetzt KI ein. Die Verleger, die dies bereits tun oder noch beabsichtigen, erwarten davon Kosten- und Zeitvorteile. Das geht aus einer aktuellen Umfrage des Medienverbands der freien Presse hervor. Erst kürzlich hat der Burda-Verlag ein Sonderheft seiner Zeitschrift Lisa mit 99 Pasta-Rezepten mithilfe von KI erstellen lassen. Und eine ehemalige Kollegin berichtete mir, dass manche ihrer Kollegen die Facebook-Posts, die sie zu Texten anderer schreiben müssten, von Chat GPT formulieren lassen. Das ginge schneller, man müsse nicht erst den Text des betreffenden Kollegen lesen, so deren Begründung. Wir waren beide entrüstet, ob deren Bequemlichkeit.
Zu Unrecht, wenn man Beate Ochsner Glauben schenkt: „Chat GPT schreibt in der Regel die besseren Posts“, sagt die Professorin für Medienwissenschaften an der Universität Konstanz und Co-Direktorin des dortigen Forschungszentrums „Centre for Human | Data | Society“. „Nicht sprachlich oder inhaltlich. Aber Chat GPT arbeitet nach derselben Logik wie die Algorithmen in den sozialen Medien.“ Daher könne es Posts verfassen, die besonders gut funktionieren.
Wer macht den besseren Post?
Das probiere ich gleich aus – anhand eines Textes aus unserer Mai-Ausgabe zur Baustellenüberwachung in Freiburg. So lautete mein Post: „An immer mehr großen Baustellen in Freiburg weisen Banner darauf hin, dass der Ort überwacht wird. Was ist der Grund? Wir haben uns umgehört bei Bauherren wie der IHK Südlicher Oberrhein und dem Land, bei der Polizei und der Bauwirtschaft Baden-Württemberg.“ Ich füttere Chat GPT mit meinem Text und bitte es um einen Post mit 200 Zeichen. Der folgt prompt: „Baustellendiebstahl ist in Freiburg auf dem Vormarsch, weshalb immer mehr Bauherren Überwachungsunternehmen wie Bauwatch oder Protec beauftragen. Die Schadenssummen können dabei enorm variieren.“
Zugegeben, das ist knackiger formuliert. Aber der Post ist inhaltlich nicht richtig. Nicht der Diebstahl nimmt zu, sondern die Überwachung. Außerdem habe ich bewusst nicht die Namen der Anbieter gepostet und verlinkt – die habe ich nämlich gar nicht interviewt – sondern die meiner Gesprächspartner.
Nun die Hashtags. Da geht der Punkt an die KI. Ich habe zum Beispiel vergessen, „Überwachung“ zu verwenden. „Hashtags sind eine Wahrscheinlichkeitsverbindung“, erklärt die Professorin. Wenn wir also so schreiben, dass wir in den sozialen Medien möglichst viel Aufmerksamkeit erhalten, so betont sie, „passen wir uns der Produktionsweise von Chat GPT an“. Will ich das? Eigentlich nicht. Aber möglichst viel Aufmerksamkeit soll mein Post nun doch bekommen.
Vielleicht lasse ich mir nächstes Mal doch erst von Chat GPT einen Post samt Hashtags empfehlen – und bearbeite beides. Dass das Überarbeiten nötig wäre, zeigt mir auch der Post des Sprachmodells zu einem anderen Text unserer Mai-Ausgabe. Zweimal derselbe Satzanfang, etwas wirre Reihenfolge. Das Sprachmodell hat nicht verstanden, worum es geht. Das kann es natürlich auch nicht.
„Chat GPT ist auf das Verknüpfen von Datensätzen nach Wahrscheinlichkeitsabwägungen trainiert“, sagt Medienwissenschaftlerin Ochsner. Aufgrund der Daten, die es hat, weiß es, welche Begriffe häufig in Zusammenhang miteinander verwendet werden. Auf diese Weise geht es mit allen Wörtern vor – und bildet so Sätze. „Schreiben heißt für Chat GPT, statistisch Folgeelemente an vorangegangene Elemente anzupassen.“
Mit jedem Text, mit dem ich Chat GPT füttere, wächst sein Datensatz und damit auch sein Wissen. Das mag ein Grund sein, warum das Unternehmen, das hinter der KI steht – das private Forschungsunternehmen Open AI mit Sitz in Kalifornien – die jeweils aktuelle Version von Chat GPT seinen Nutzern gratis zur Verfügung stellt. „Wir zahlen dafür mit Daten“, sagt Beate Ochsner. Sie vermute, dass Chat GPT in Wirklichkeit schon sehr viel weiter ist. Zugleich gibt sie zu bedenken, dass Chat GPT vor allem über Datensätze aus Europa und Nordamerika verfügt.
Fragen für mein Interview
Was kann es damit noch anstellen? Ich habe vergangene Ausgabe ein Interview zum Thema Datenmüll geführt und mir dafür vorab Fragen überlegt. Das soll Chat GPT auch tun. Ich gebe in die Maske ein: „Bitte denke Dir Fragen aus für ein Interview zum Thema digitaler Müll oder Datenmüll mit dem Informatikprofessor Richard Zahoransky. Es geht darum, wo besonders viel Datenmüll anfällt, bei E-Mails, Fotos oder großen Dateien, vielleicht auch in der Produktion und wie man dies vermeiden kann oder den Datenmüll verringern kann.“
Nur wenige Sekunden später spuckt Chat GPT eine Frage nach der anderen aus. Zum Beispiel: „Wo fällt Ihrer Meinung nach der größte Anteil an digitalem Müll an – bei E-Mails, Fotos oder großen Dateien?“ Es greift also meine Worte auf. Aber es bedient sich darüber hinaus offenbar an seinem bereits vorhandenen Wissen, wenn es auch folgende Frage vorschlägt: „Wie kann die Regierung dazu beitragen, den digitalen Müll zu reduzieren?“ Diese hätte mich nicht interessiert, aber abwegig ist sie nicht.
Führen kann Chat GPT mein Interview indes nicht. Richard Zahoransky hat meine Fragen natürlich nicht schriftlich beantwortet, sondern wir haben via Teams miteinander geredet. Und im Gespräch sind neue oder Anschlussfragen entstanden, die Reihenfolge hat sich geändert, und ich habe die Antworten sortiert und zum Teil gekürzt. Gleichwohl ist es durchaus nicht abwegig, vor dem nächsten Interview Chat GPT zu konsultieren, was es noch fragen würde. So mache ich es schließlich auch immer wieder mit den Kollegen.
Chat GPT spekuliert nicht
Die Grenzen des Programms bekomme ich auch zu spüren, als ich Chat GPT bitte, aus zwei Pressemitteilungen des Automobilzulieferer PWO zu verschiedenen Wechseln im Vorstand, die nur wenige Tage nacheinander veröffentlicht wurden, eine Meldung zu machen. Letztlich verarbeitet das Sprachmodell nur die erste Mitteilung und unterschlägt die zweite Personalie.
Zweiter Versuch: Als ich der KI die Pressemitteilung der Stadt Offenburg überlasse, in der verkündet wird, dass die Messechefin ihren Vertrag nicht verlängert, fasst es diese ordentlich zu einer Meldung zusammen. Auch wenn es hölzern klingt und die Formulierungen mir teilweise zu bürokratisch sind. Aber das Sprachmodell ignoriert meine Bitte, zu berücksichtigen, dass bei der Messe Freiburg ein Posten frei ist, der für die Messechefin passen könnte. „Chat GPT kann nicht spekulieren, sondern nur Wahrscheinlichkeiten berechnen“, sagt denn auch Beate Ochsner.
Ob meine Spekulation schlicht zu unwahrscheinlich und daher unsinnig war, sei dahingestellt. Aber natürlich weiß Chat GPT nicht, was ich bereits über die Messen in Freiburg und Offenburg geschrieben habe und in die Meldung einfließen lasse. „Das Sprachmodell hat nicht das, was wir Hintergrundwissen nennen“, sagt die Medienwissenschaftlerin.
Geeignet zum Einlesen
Und natürlich kann Chat GPT nicht riechen, schmecken oder fühlen. Wenn ich einen Bericht über Kaisers Gute Backstube schreibe und dafür vor Ort bin, sammele ich Eindrücke, die ihm fehlen. Die Pressemitteilung, die ich als Zusatzinformation mitgekommen habe, kann es aber verarbeiten und einen nachrichtlichen Text daraus machen. Beate Ochsner sagt: „Wenn man größere Reportagen macht, zum Beispiel über wissenschaftliche Themen, kann man Chat GPT sehr gut verwenden, um sich einzulesen und das Feld sondieren zu lassen.“ Die Informationen sortieren könnten hingegen die Menschen besser.
Sieht Chat GPT das ebenso? Die Antwort auf meine Frage, ob es Journalisten ersetzen kann: „Als Sprachmodell kann ich in gewisser Weise journalistische Aufgaben übernehmen, wie das Verfassen von Artikeln oder das Zusammenstellen von Informationen zu bestimmten Themen.“ Allerdings gibt es zu bedenken, dass es nicht garantieren könne, dass alle seine Informationen richtig seien, es den Kontext nicht kenne, in dem die Informationen präsentiert werden, es selbst keine Interviews führen und daher keine Informationen aus erster Hand bekommen könne und als Sprachmodell natürlich keine ethischen Überzeugungen habe oder Richtlinien befolge. Das Fazit von Chat GPT: „Insgesamt kann ein Sprachmodell wie ich bei einigen journalistischen Aufgaben unterstützen, aber es ist unwahrscheinlich, dass ich Journalisten vollständig ersetzen kann.“
Da hätte ich mir eigentlich meine Recherche auch sparen können und einfach seine Antwort drucken … Aber natürlich hat Chat GPT nicht reflektiert, was es mir geschrieben hat, sondern die Antwort aus all den Texten zusammengestellt, die bereits über das Thema geschrieben worden sind und die das Sprachmodell kennt. Bleibt zu hoffen, dass die Verlage, die Chat GPT in ihren Redaktionen jetzt und auch künftig einsetzen, all dies reflektieren. Und Chat GBT beim Wort nehmen: Journalisten sind doch unersetzbar.