von Adrian Lobe

«Wir sind noch weit davon entfernt, dass ‹Roboterjournalisten› Meinungsstücke oder Hintergrundgeschichten schreiben»

Die Automatisierung hält auch in den Redaktionen Einzug. Doch was sind die Potenziale automatisierter Textproduktion? Und wo liegen die Grenzen? Für Fachleute ist klar: Das kreative Element bleibt dem Menschen vorbehalten. Aber wie lange noch? Eine aktuelle Bestandesaufnahme zum sogenannten Roboterjournalismus.

Als am 17. März 2014 die Erde in Kalifornien bebte, dauerte es nur drei Minuten, bis die «Los Angeles Times» die erste Meldung veröffentlichte. Als Autor firmierte der Programmierer Ken Schwencke, doch die Meldung schrieb in Wirklichkeit eine Software. Das Programm Quakebot ist so eingerichtet, dass es auf einen Alarm des US Geological Survey reagiert, der ab einem bestimmten Schwellenwert ausgelöst wird. Die Software extrahiert die relevanten Daten des Berichts und baut diese in vorgefertigte Textgefässe ein. Die Meldung wird dann im Redaktionssystem der Zeitung angelegt, wo der Journalist nur noch auf einen Knopf drücken muss, um diese zu publizieren. Ein solcher «Schreibroboter» arbeitet präzise und zuverlässig, ist stets hellwach – und auf Dauer vor allem billiger als ein Mensch. Man benötigt keinen Spät- oder Frühdienst am Dienstpult mehr – der Algorithmus schläft nie.

Der Redaktionsalltag wird zunehmend computerisierter. Nachrichtenagenturen wie die AP (Associated Press), aber auch Zeitungen wie die «New York Times und «Washington Post» setzen Computerprogramme ein, die automatisiert standardisierte Finanz- und Sportmeldungen generieren. Das Prinzip funktioniert vereinfacht so: Algorithmen setzen strukturierte Daten in sogenannte Templates, eine Art Schablone, ein und fügen die Textbausteine nach vorgegebenen syntaktischen Regeln zu einem logisch kohärenten Text zusammen.

Das Verblüffende ist, dass schon jetzt computergenerierte Meldungen von handwerklich sauberen Meldungen aus Menschenhand kaum zu unterscheiden sind (die «New York Times» hat dazu ein Quiz erstellt, bei dem der Leser die algorithmische bzw. menschliche Autorenschaft erraten muss). Das Technologie-Magazin «Wired» liess einen Computer sogar einen Nachruf auf Marvin Minsky, einen Pionier der künstlichen Intelligenz, schreiben. Kristian Hammond, der Gründer von Narrative Science, prognostiziert, dass News-Bots bis 2030 mehr als 90 Prozent aller Artikel schreiben werden. Hammond ist bekannt für seine kühnen Prognosen. So sagt er voraus, dass ein Computer in den nächsten Jahren den begehrten Pulitzerpreis gewinnen werde. Heliograf, das KI-System der «Washington Post», das im Pilotbetrieb während der Olympischen Spiele in Rio 2016 rund 300 Kurzberichte und News-Alerts produzierte, hat nach einem Bericht des Branchendienstes «Digiday» in seinem ersten Jahr 850 Artikel generiert, darunter 500 zur US-Präsidentschaftswahl, die insgesamt über eine halbe Million Klicks erzielten. Pulitzerpreisverdächtig ist das noch nicht, aber zumindest effizient.

«Roboterjournalisten» tragen das Versprechen, dass ihr Einsatz Ressourcen für wichtigere Aufgaben wie Recherche freisetzt. Die Nachrichtenagentur AP schätzt, dass durch die Automatisierung 20 Prozent der Zeit frei würden, die Reporter heute für Geschäftsberichte von Unternehmen aufwenden. Man kann über die unterklassige Fussball- oder Basketballligen berichten, ohne einen freien Mitarbeiter für schmales Zeilengeld am Sonntagsnachmittag auf einen verregneten Fussballplatz zu schicken.

Die Frage ist, wo die Grenzen künstlicher Intelligenz liegen. Kann die Software irgendwann auch Leitartikel oder Reportagen schreiben? Seth C. Lewis, Professor an der Journalistenschule der University of Oregon und Experte für Big-Data-Anwendungen im Journalismus, teilt auf Anfrage mit: «Wenn bestimmte Ereignisse hochgradig vorhersagbar, die Daten strukturiert und die Geschichten routinisiert sind, ist das ein Rezept für Journalismus, das automatisiert werden kann.» Man sehe das bereits an einer wachsenden Anzahl automatisierter Artikel über Wirtschaftszahlen oder Sportergebnisse.

Wo die Themen aber unsicher und die Daten nicht quantifizierbar seien, würden kaum Automatisierungsprozesse stattfinden. «Ich denke, wir sind noch weit davon entfernt, dass Roboterjournalisten Meinungsstücke oder Hintergrundgeschichten schreiben.» KI-Systeme, so Seth, könnten Reportern jedoch als «komplementäre Agenten» assistieren, indem sie ihnen Hinweise geben – zum Beispiel interessante Datenpunkte markieren oder einen grossen Datensatz strukturieren. Bei den «Football Leaks» zum Beispiel mussten sich die Reporter durch einen 1,9 Terabyte umfassenden Datensatz wühlen. In dem Wust an Daten könnte der Algorithmus Anomalien identifizieren und Reporter so auf die entscheidende Spur bringen.

Bei den «Panama Papers», die ein Datenvolumen von 2,6 Terabyte besassen, wurden die Daten zunächst in maschinenlesbares Format gebracht. Ein hochleistungsfähiger Algorithmus glich dann die Namen von 130 Personen auf einer Liste mit den insgesamt 11,5 Millionen Dokumenten, darunter 4,8 Millionen E-Mails, ab. Erst mit der Hilfe von künstlicher Intelligenz konnte der Skandal um Steuerbetrüger aufgedeckt werden. Insofern sind künstliche Agenten ein wichtiger Zuarbeiter im investigativen Journalismus. Gleichwohl vermögen Algorithmen keine Phänomene zu erklären oder Kausalitäten herzustellen.

Auch Matthew Waite, Journalismus-Professor an der University of Nebraska–Lincoln, hält die Potenziale von Roboterjournalisten für begrenzt. «Diese automatisierten Schreibsysteme basieren auf einem Datenstrom, der irgendwo herkommt. Und solange dieser Datenstrom das Drama und die Emotion des menschlichen Befindens absorbiert, wird ihr Einsatz begrenzt sein.» Ein Algorithmus könne einen Polizeichef nicht auf Grundlage der Kriminalstatistik mit der steigenden Kriminalität konfrontieren, geschweige denn eine packende Geschichte über eine Familie schreiben, die von Gewalt betroffen ist. Computerprogramme vermögen zwar Meldungen zu verfassen, seien jedoch auf diese Daten beschränkt. «Solange Menschen besser als Computer darin sind, mit Menschen zu sprechen, werden menschliche Autoren auch noch einen Platz haben», prophezeit Waite. Journalisten, die Textbausteine aus Datenfeeds montieren, hätten in Zukunft keinen Job mehr. «Lassen wir Menschen das tun, worin sie gut sind, und Computer das, worin sie besser sind – bei repetitiven Aufgaben», fordert Waite.

Während der Mensch immer formelhafter kommuniziert (Stichwort Emojis), machen Computer auch in kreativen Prozessen beharrlich Fortschritte. Im März 2016 schaffte es ein gemeinsam von Forschern und einem KI-System verfasster Roman mit dem Titel «The Day A Computer Writes A Novel» in die zweite Runde eines japanischen Literaturwettbewerbs. In den USA hat ein Algorithmus ein Drehbuch samt Regieanweisungen geschrieben. Und IBMs Superhirn Watson hat eine ganze Ausgabe des britischen Marketing-Magazins «The Drum» gestaltet. Der Computer als Chefredaktor.

Wenn Software und Algorithmen zunehmend redaktionelle Aufgaben übernehmen, stellt sich auch die Frage nach der Verantwortlichkeit. Müssen den Maschinen medienethische Regeln einprogrammiert werden, wie sie etwa im Pressekodex niedergelegt sind? Soll die Software die Herkunft eines Straftäters hervorheben? Soll der Computer auf politisch inkorrekte Formulierungen verzichten? Welcher Programmierer entscheidet das am Ende?

Medienexperte Lewis sagt: «Da Automatisierung zunehmend in den Journalismus eincodiert ist, müssen wir jedes Mal aufs Neue fragen: Wem dient diese Software? Welche Art von Werten – wessen Werte vor allen Dingen – werden in den Programmcode, der Nachrichten produziert, geschrieben? Welche Geschichten werden erzählt, welche nicht und warum? Wir gehen wir mit Fairness, Meinungsvielfalt und Repräsentation um?» Wenn man sich Bots, automatisierte Skripte, anschaut, die in sozialen Netzwerken Diskurse manipulieren und Meinungen maschinell unterdrücken, scheint es mit der Diversität nicht allzu weit her zu sein. «Wir können nicht annehmen, dass Algorithmen entweder neutral oder besser als menschliche Alternativen sind», betont Lewis. Das sieht Journalistik-Professor Waite ähnlich. Das Problem des automatisierten Journalismus liege darin, dass die Geschichten genauso verzerrt seien wie die Menschen, die den Algorithmus programmierten. Die Annahme, automatisierter Journalismus erzeuge mehr Glaubwürdigkeit und produziere weniger Vorurteile, sei naiv. Einig sind sich die Experten auch darin, dass man «Roboterjournalisten» Transparenzregeln unterwerfen müsse, also computergenerierte Texte klar als solche ausweisen.

Quakebot schreibt übrigens immer noch fleissig Erdbebenmeldungen, die letzte am 12. Dezember 2017, was dem Leser gegenüber transparent gemacht wird. Die Meldung ist mit dem Hinweis versehen: «Dieser Post wurde von einem Algorithmus kreiert.»

Kommentieren

*Pflichtfelder

Ihre Persönlichen Daten werden nicht veröffentlicht oder weitergegeben.