von Adrian Lobe

Wenn der Mensch mit der Maschine: Die Zukunft des Journalismus ist hybrid

In einer aktuellen und umfassenden Bestandesaufnahme zur Automatisierung des Journalismus fordert der US-Autor Nicholas Diakopoulos eine «algorithmische Medienkompetenz» und ein «computerisiertes Denken» als Grundvoraussetzungen für redaktionelles Arbeiten.

Die Automatisierung des Journalismus schreitet mit grossen Schritten voran. Bei Nachrichtenagenturen wie der Associated Press (AP) verfassen Computerprogramme schon seit einiger Zeit automatisiert Sport- und Quartalsberichte. Und auch in der Schweiz kommen bei Tamedia und Keystone-SDA seit letztem Jahr Algorithmen zum Einsatz, die strukturierte Daten in Textbausteine setzen. Der Keystone-SDA-Journalist Stefan Trachsel, der die Text-Software Lena verantwortet, wurde erst kürzlich mit dem «EANA Award for Excellence in News Agency Quality» ausgezeichnet.

Obwohl das Thema regelmässig auf Tagungen diskutiert wird, bleibt das Bild der automatisierten Textproduktion in der Öffentlichkeit noch weitgehend diffus. Was auch daran liegen mag, dass meist von «Roboterjournalismus» die Rede ist, was Assoziationen an einen schreibenden Blechkameraden weckt. Natürlich sitzen in den Redaktionen keine Roboter – es sind immer noch Menschen, die aber vermehrt Software nutzen, die ihnen einen Teil der Arbeit abnimmt.

Zum «computerisierten Journalismus» gehören neben Schreibautomaten auch Data Mining, Newsbots, Moderationstools oder die algorithmische Nachrichtenverbreitung.

Der US-Journalist Nicholas Diakopoulos hat nun ein Buch («Automating the News») vorgelegt, das aufzeigt, wie Softwareprozesse und Algorithmen den Journalismus verändern. Die automatisierte Nachrichtenproduktion ist dabei nur ein, wenn auch wichtiger, (Teil-)Aspekt. Zum «computerisierten Journalismus», wie es der Autor nennt, gehören neben Schreibautomaten auch Data Mining, Newsbots, Moderationstools oder die algorithmische Nachrichtenverbreitung durch Google und Co.

Die Aufgaben der Softwares sind entsprechend vielseitig: Sie verfassen nicht nur Meldungen, sondern moderieren auch Kommentarspalten oder erstellen Info-Grafiken. So produziert etwa die AP automatisch generierte Grafiken zu Themen wie Olympia oder Finanzen. Auch der «Spiegel» experimentiert mit automatisierter Datenvisualisierung.

Ein zentraler Vorteil der Algorithmen gegenüber menschlichen Journalisten: Sie fräsen sich durch riesige Datenmengen. Die Panama Papers, so Diakopoulos, hätten ohne die gigantische Rechenpower der Computer gar nicht veröffentlicht werden können. Mithilfe von Data-Mining-Techniken konnte der Datensatz von 100’000 Dokumenten auf einen Zehntel eingedampft werden. Das statistische Modell konnte den Reportern mit einer Genauigkeit von 84 Prozent sagen, wo ein Fall für weitere Recherchen vorliegt.

Journalisten müssten nicht mehr unter Zeitdruck Nachrichten schreiben – das können die Computer ohnehin besser und billiger.

Der Autor, der als Datenjournalist für namhafte Medien wie «The Atlantic», die «Washington Post» und BBC arbeitet, spricht von einem «hybriden Journalismus», wo Mensch und Maschine in einem Netzwerk zusammenarbeiten. Bei der «LA Times» nutzen Reporter beispielsweise ein Monitoring-System, das die E-Mail-Anhänge von Polizeimeldungen scannt und automatisch in einer Datenbank ablegt und ordnet. Damit lassen sich besonders skurrile oder nachrichtenwerte Fälle aufspüren.

Automatisierung, stellt Diakopoulos klar, wird keine Arbeitsplätze von Journalisten vernichten. Die Software fungiert eher als «Zuarbeiter» für die redaktionellen Prozesse, die weiterhin nur Menschen erledigen können. Insgesamt sei das ein Gewinn: Journalisten müssten nicht mehr unter Zeitdruck Nachrichten schreiben – das können die Computer ohnehin besser und billiger –, sondern hätten Zeit für hintergründigere Stücke und Recherchen.

Doch die maschinelle Assistenz hat ihre Grenzen. Zwar seien Maschinen gut darin, regelbasierte Aufgaben zu übernehmen und Muster in Datensätzen zu erkennen. Unvorhergesehene Ereignisse stellten sie jedoch vor Probleme. Bevor eine computergenerierte Meldung veröffentlicht werden kann, muss immer noch ein Redaktor einen prüfenden Blick darauf werfen – wie bei einem Praktikanten. Auch mangele es Algorithmen nach wie vor an Kreativität. Dass Computersysteme irgendwann eigenständig Leitartikel oder Reportagen schreiben, hält auch Diakopoulos für unwahrscheinlich.

Schon heute ist der Journalismus stark technisiert und datengetrieben: In den Newsrooms starren die Redaktoren auf Dashboards.

Das eigentlich Verblüffende an der Entwicklung ist aber nicht, dass Texte mit maschineller Hilfe entstehen, sondern dass Algorithmen die Spielregeln des Journalismus überschreiben. Diakopoulos nennt dazu einige Beispiele aus seiner eigenen Berufserfahrung. Bei der «Chicago Tribune» beispielsweise würden bis zu zehn Überschriften einem A/B-Test unterzogen, um zu sehen, welche beim Publikum am besten ankommt. Die «Washington Post» greift auf algorithmische Prognosetechniken zurück, um die «Performanz» von Artikeln vorherzusagen. Auch die «New York Times» setzt solche prädiktiven Modelle ein, um ihren Redaktoren Hinweise zu geben, welche Artikel in Social-Media-Kanälen gepusht werden sollen. Und bei der deutschen Tageszeitung «Die Welt» errechnet der Computer laut Diakopoulos für jeden Artikel einen Score. Das zeigt, wie technisiert und datengetrieben der Journalismus bereits heute ist: In den Newsrooms starren die Redaktoren auf Dashboards, wo die aktuellen Zugriffszahlen in Echtzeit angezeigt werden.

Die Metrisierung des Journalismus, in der alles messbar und skalierbar ist, ist eine unmittelbare Folge der algorithmischen Nachrichtenselektion, bei der Plattformbetreiber wie Google oder Facebook – der Autor nennt sie verniedlichend die «digitalen Zeitungsjungen» – Inhalte gewinnbringend in ihre Schaufenster stellen. Das führt zu einer weiteren Ökonomisierung: Gepusht wird das, was Klicks verspricht. Inhalte, denen die Prognosetools im Vorfeld eine schlechte Performanz bescheiden, werden dagegen marginalisiert oder erst gar nicht publiziert.

Doch wo Redaktionen verstärkt auf automatisierte Systeme setzen, werden auch Fragen nach der Verantwortung und Transparenz virulent. Ein Lehrfall ist die Investigativ-Story «The Tennis Racket», die das Portal «Buzzfeed» im Januar 2016 publizierte. Darin geht es um Wettbetrug im Profi-Tennis. Die Reporter hatten mithilfe einer statistischen Analyse eine Wahrscheinlichkeit errechnet, mit der Tennispartien manipuliert worden sein könnten. Der Verdacht: Einige Tennisspieler hätten ihre Spiele absichtlich verloren, damit Wettpaten auf hohe Quoten setzen und abkassieren konnten. «Buzzfeed» wollte jedoch die Namen der verdächtigen Tennisprofis nicht nennen, auch nicht in den anonymisierten Daten und dem Code, der dem Artikel als Begleitinformation hinzugefügt wurde. Diese Intransparenz sorgte für medienethische Diskussionen. Einer Gruppe von Stanford-Studenten gelang es schliesslich mithilfe des Quellcodes, die Spieler doch noch zu identifizieren. Für den Datenjournalisten Diakopoulos ist nicht klar, ob «Buzzfeed» möglicherweise zu transparent war, indem es den Quellcode offenlegte. Der Fall werfe aber die Frage auf, inwieweit investigative Recherchen, die auf statistischen Analysen beruhen, reproduzierbar sein müssen.

Journalisten müssen nicht mehr primär für Menschen schreiben, sondern für Maschinen.

Der Autor schliesst seine Analyse mit der Forderung nach einer «algorithmischen Medienkompetenz». Journalisten müssten sich ein «computerisiertes Denken» aneignen, um Überschriften, Leads und Erzählweisen in ihrem Kopf so vorzuformatieren, dass sie in den algorithmischen Systemen gut laufen; sie müssen nicht mehr primär für Menschen schreiben, sondern für Maschinen. Um Wissen zu produzieren, müssten Journalisten zudem erweiterte Statistik-Techniken beherrschen. Und in Zeiten, in denen man im Handumdrehen digitale Fake-Videos produzieren könnte, seien auch computerforensische Kenntnisse wichtig, um die Authentizität von Informationen zu gewährleisten und das Vertrauen in die Medien aufrechtzuerhalten. In der Technik liegt also auch eine Chance für Redaktionen, durch technisches Know-how als Fakteninstanz wahrgenommen zu werden. Eine experimentelle Untersuchung der Universität Zürich hat ergeben, dass Leser zumindest bei polarisierenden Themen Textsoftware als glaubwürdiger wahrnehmen als menschliche Autoren.

Die Profession des Journalismus, das wird nach der Lektüre des Buchs rasch klar, wird sich in Zukunft stark verändern. Der Journalist der Zukunft wird nicht nur ein Texte, sondern auch ein Programme Schreibender sein. Er muss lernen, mit komplexer Software und Datensätzen umzugehen. Eine solche Ausbildung kostet Geld. Doch an der IT-Kompetenz und technischen Ausstattung hängt die Zukunftsfähigkeit der Verlage. Nur, wer die Analysetechniken beherrscht, wird Datenmengen einen Sinn abtrotzen können.