Beisst es oder will es nur spielen?
Facebook zählt weltweit 1,6 Milliarden Nutzer und ist neben Google der mächtigste Vermittler und Verteiler von Medieninhalten. Dem Ziel, die «beste personalisierte Zeitung» anzubieten, steht nichts mehr im Weg. Den Inhalte-Produzenten bleibt damit nichts anders als sich mit dem grössten Feind zu verbünden.
62 Prozent aller US-Amerikaner konsumieren gemäss einer aktuellen Untersuchung des Pew Research Center News in sozialen Netzwerken. Fast zwei Drittel (66 Prozent) dieser Nachrichtennutzung in sozialen Netzwerken entfällt dabei auf Facebook. Nicht wesentlich anders dürften die Zahlen in anderen Erdteilen aussehen, wo der blaue Riese ebenfalls mit erdrückender Macht den Markt dominiert.
Das soziale Netzwerk ist für viele Menschen das Tor zur Welt geworden. Ob der Tod David Bowies, die Vorwahlsiege Donald Trumps oder die Anschläge von Paris, Brüssel und San Bernardino – die Nutzer informieren sich zuerst auf Facebook. Gründer Mark Zuckerberg kommt seinem Ziel, Facebook zur «besten personalisierten Zeitung der Welt» auszubauen, immer näher.
Für Verlage ist Facebook Fluch und Segen zugleich. Einerseits erreichen Medien so viele Leser wie noch nie. Die «New York Times» versucht derzeit – unterstützt durch die Förderbänder Facebooks – mit einer spanischsprachigen Version seine digitale Leserschaft auf der Welt zu vergrössern. Andererseits begeben sich Verlage dadurch in Abhängigkeit.
Bei Facebook Instant Articles zeigt sich diese wechselvolle Abhängigkeitsbeziehung besonders drastisch. Bei dem 2015 gestarteten Kooperationsmodell, bei dem inzwischen auch Medien wie das «Handelsblatt», der «Tagesspiegel» oder die «NZZ» mit an Bord sind, publizieren Verlage direkt auf Facebook. Das heisst: Sie geben ihre Inhalte aus der Hand und überlassen sie dem Schicksal der Facebook-Algorithmen.
Der US-Konzern ködert die Medienhäuser mit einer lukrativen Vermarktungsstrategie: Die teilnehmenden Verlage können die Werbung, die bei ihren Artikeln erscheint, selbst vermarkten. Übernimmt Facebook die Vermarktung, bekommen die Medienhäuser immerhin noch 70 Prozent der Erlöse.
Doch es geht um mehr als nur Reichweite. Facebook bekommt Inhalte frei Haus und wird zum Verleger, die Medien, auf deren Inhalte nicht mal verlinkt wird, werden zu namenlosen Zulieferern, so die Kritik – und auch die Wahrnehmung vieler Nutzer, denen als Quelle nur noch Facebook einfällt, aber nicht mehr der ursprüngliche Absender. Die Frage ist auch: Wem gehören eigentlich die «User»? Ist ein Leser, der einen Artikel der «New York Times» auf Facebook liest, ein «New-York-Times»-Leser oder ein Facebook-Nutzer, der die «New York Times» liest? Das klingt zunächst nach Haarspalterei, hat aber massive Implikationen, was die Anzeigenerlöse und die Verfügung über Daten betrifft.
David Carr, der verstorbene Medienkritiker der «New York Times», schrieb 2014 in seiner Kolumne: «Für die Verlage ist Facebook ein bisschen wie der grosse Hund, der im Park auf dich zurennt. Wie so oft ist es schwer zu sagen, ob er mit dir spielen oder dich fressen will.» In dem kreativen Umfeld von Menlo-Park ist nicht klar zu ermessen, ob Facebook nur spielen will oder Fressgelüste hegt. Die Wissenschaftlerin Emily Bell, Direktorin des Tow Center for Digital Journalism und bekannt für ihre klugen Medienanalysen, schrieb kürzlich in der Fachzeitschrift «Columbia Journalism Review» einen Artikel mit dem Titel «Facebook is eating the world». «Soziale Medien», schreibt Bell in dem beissenden Artikel, «hat nicht nur den Journalismus geschluckt, es hat alles geschluckt: politische Kampagnen, Bankensysteme, persönliche Geschichten, Freizeitindustrie, den Einzelhandel, sogar den Staat und die Sicherheit. Das Handy in der Tasche ist unser Portal in die Welt.» Die Tonalität war damit gesetzt: Facebook frisst nicht nur den Journalismus, sondern die ganze Welt. Bells Kernkritik zielte darauf ab, dass Verlage die Kontrolle über die Vertriebswege verloren hätten und soziale Medien durch die algorithmische Filterung zu mächtigen Spielern würden.
Wenn Facebook an seinen Newsfeed-Algorithmen dreht, hat das massive Auswirkungen auf den Traffic von Nachrichtenseiten. So brach der Traffic der «Huffington Post» laut der Londoner Analytics-Firma SimilarWeb im Zeitraum zwischen Januar und September 2015 um 60 Prozent ein. Dass der Leserzustrom versiegte, lag offensichtlich an einer Modifikation des Facebook-Algorithmus. Schon nur die Ankündigung einer solchen Anpassung löst in den Redaktionen regelmässig Panik aus – was «Guardian»-Chefredaktorin, Katharine Viner, offen einräumte. Jede Änderung des Newsfeed-Algorithmus ist im Grunde wie eine Redaktionskonferenz einer Zeitung: Was interessiert die Leser? Was kommt ins Blatt? Der entscheidende Unterschied ist, dass Facebook mit weltweit 1,6 Milliarden Nutzern faktisch eine Milliardenauflage hat und Informationen nicht nach Relevanz, sondern nach ökonomischer Verwertbarkeit selektiert. Die grösste personalisierte Zeitung wäre damit geschaffen. Ob sie auch die beste ist, steht freilich auf einem anderen Blatt.
Facebook-Produktmanager Adam Mosseri publizierte kürzlich erstmals sogenannte «News Feed Values», eine selbst auferlegte redaktionelle Richtlinie. Der Post mit dem fürsorglichen Titel «Building a Better News Feed for You” kommt fast mit dem Pathos einer Regierungserklärung daher. «Friends and family come first», steht darin als Leitsatz geschrieben, was nicht nur eine normative Setzung ist, sondern auch praktische Implikationen hat insofern, als künftig noch mehr private Posts in den Newsfeed eingespeist werden. Damit könnte sich der bereits in der Vergangenheit beobachtete Trend eines Entertainment-Ökosystems verstärken, auch wenn Mosseri betont, dass der Feed informieren und unterhalten solle (als eine Art Infotainment). Die Frage ist nur, ob Facebook vollumfassend informiert. Einen Informationsauftrag wie die öffentlich-rechtlichen Medien hat der Internetkonzern freilich nicht.
Im Sommer 2014 verfolgte die Soziologin Zeynep Tufekci die Unruhen in Ferguson. Während ihre Twitter-Feeds vor Berichten überquollen, las sie auf ihrem Facebook-Profil nichts von den Protesten – obwohl sie mehrere Nachrichtenseiten «geliked» hatte. Stattdessen zeigte ihr Facebook Videos und Einladungen zur Ice Bucket Challenge. Erst am nächsten Tag erfuhr sie auf Facebook von den Ereignissen. Der Aufruhr war offenbar nicht relevant genug. Facebooks Algorithmen bestimmten, was Tufekci zu interessieren hatte. Die Wissenschaftlerin sprach von «algorithmischer Zensur» – und schrieb in einem Beitrag auf der Plattform «Medium»: «In einer offenen Rebellion fühlt sich mein Newsfeed wie Disneyland an.»
Der kanadisch-iranische Blogger Hossein Derakhshan, der wegen seines angeblich «subversiven» Blogs sechs Jahre in einem Teheraner Gefängnis inhaftiert war, schrieb im «Guardian» (https://www.theguardian.com/technology/2015/dec/29/irans-blogfather-facebook-instagram-and-twitter-are-killing-the-web), das Fernsehen beginne, wenn man sich auf Facebook einlogge: Man braucht nur herunter zu scrollen, schon sieht man Bilder von Freunden, Links zu lustigen Geschichten und Videos – garniert von Empfehlungen und Anzeigen. Die Maus ist zur Fernbedienung einer digitalen Dauerwerbesendung geworden. Facebook pusht seit kurzem Videos in seinem Newsfeed und hat Anfang des Jahres sein Feature Live-Videos freigeschaltet. Was es heisst, wenn 1,6 Milliarden Facebook-Nutzer Live-Videos posten können, hat Mark Zuckerberg schon Mitte April auf den Punkt gebracht. Von nun an trage jeder «eine Fernsehkamera in der Tasche», schrieb der Chef des Internetkonzerns. «Wer in Echtzeit interagiert, ist persönlicher vernetzt».
Wie diese visuelle Nähe aussieht, zeigte sich im Juni in aller Drastik: Nachdem der Terrorist Larossi Abballa einen Polizisten, dessen Ehefrau sowie eine Sekretärin in einem Polizeikommissariat im Pariser Vorort Magnanville getötet hatte, loggte er sich bei Facebook ein und stellte die von ihm kommentierten Aufnahmen dreizehn Minuten lang als Livestream ins Internet. Der Terroranschlag wurde als Medienereignis inszeniert.
Nach einem Bericht der Nachrichtenagentur «Reuters» erprobt Facebook ein System, mit dem gewaltverherrliche Bilder, etwa Propagandamaterial des IS, automatisch blockiert oder sofort aus dem Netz genommen werden. Eine Art algorithmische Polizei. Bloss: Wie definiert man Terrorismus? Wie kann eine Software zwischen Realität und Fiktion differenzieren? Was würde passieren, wenn ein Algorithmus eine Szene aus einem Actionfilm als «terroristisch» einstuft? Die Wertungswidersprüche offenbaren sich bereits bei Facebooks Policy, Bilder nackter Brüste – unter anderen auch Gustave Courbets Kunstwerk «Der Ursprung der Welt» – zu zensieren, Hasskommentare dagegen zu tolerieren.
Courbets zensiertes Kunstwerk würde normativ und faktisch mit einem blockierten Propagandavideo als etwas Nichtzeigenswertes gleichgestellt – was freilich nicht im Sinn einer offenen Gesellschaft sein kann, die gerade nach den Anschlägen von Paris die Ideale der Freiheit hoch hielt. Die Gefahr besteht darin, dass man Algorithmen die Deutungshoheit über die Definition von Terrorismus überlässt.
Facebooks Newsfeed-Algorithmus ist eines der mächtigsten Instrumente der Medienwelt: Er entscheidet, welche News wir sehen, mit wem wir interagieren und welche Seiten uns vorgeschlagen werden. Kurz vor der Brexit-Abstimmung fiel dem Blogger Jon Worth auf, dass in den Status-Updates seiner mobilen Facebook-App in der Rubrik «Gefühle/Aktivitäten» die Option «in favour of leaving the EU» für einen Austritt aus der EU auftauchte. Der mit einem Megaphon gekennzeichnete Button poppte unter dem Symbol eines Fernsehers («watching TV) und einer Kaffeetasse («having a cuppa») auf – als sei Wählen eines Freizeitbeschäftigung. Die umgekehrte Option – «in favour of remaining in the EU» – war nicht standardmässig eingestellt und nur verfügbar, wenn man gezielt danach suchte. Das Phänomen tauchte nur auf der mobilen App, nicht am Desktop auf. Mit Blick auf die anstehenden US-Präsidentschaftswahlen erscheint dieser offenkundige Bias – die Tatsache, dass Facebook seinen Nutzern einen tendenziösen Button unterjubelt, besorgniserregend. Facebook fühlt sich offenbar so mächtig, dass in der Abstimmung zur wöchentlichen Fragerunde an Mark Zuckerberg die Frage zur Auswahl stand: «Welche Verantwortung hat Facebook dabei zu helfen, Präsident Trump in 2017 zu verhindern?»
Facebook hat bereits in einem gigantischen sozialen Experiment die Gefühle und Entscheidungen seiner Nutzer beeinflusst und die Präferenzen von Wählern mitgesteuert, ohne dass sie es gemerkt hätten. Am 2. November 2010, dem Tag, an dem die Kongresswahlen stattfanden, schickten Forscher 61 Millionen zufällig ausgewählten Nutzern eine Nachricht auf ihre Pinnwand, die sie an den Urnengang erinnerte. Die Mitteilung im Newsfeed war mit einem «I voted»-Button und einer Zähleinheit versehen, die anzeigte, wie viele Facebook-Nutzer nach eigenen Angaben bereits ihre Stimme abgegeben hatten. Ergebnis: Der Wahlgang der beeinflussten Nutzer war um 0,39 Prozent wahrscheinlicher als in der Kontrollgruppe. Das nimmt sich zwar als geringe Varianz aus, doch in konkreten Zahlen waren dies 340 000 Stimmen mehr. Bedenkt man, dass bei der Wahl 2000 zwischen Al Gore und George W. Bush 537 Stimmen in Florida den Unterschied machten, könnte Facebook das Zünglein an der Waage sein.
Vor wenigen Wochen berichtete das Blog «Gizmodo», dass Facebook News-Kuratoren, die mit der Kuratierung der Inhalte in der Rubrik «Trending News» – eine Art Nachrichtenticker – betraut waren, hinsichtlich der Quellenauswahl Vorgaben bekamen. So sollten Seiten wie die «New York Times» priorisiert, ein konservatives Portal wie «Breitbart» weniger berücksichtigt werden. Die Kuratoren, darunter einige Journalisten, bekamen überdies die Anweisung, die Nennung des Konkurrenten Twitter in der Titelzeile von News zu vermeiden und stattdessen allgemein von «sozialen Medien» zu schreiben. Kritiker warfen dem Konzern daraufhin vor, Nachrichteninhalte zu manipulieren und konservative Seite zu zensieren.
Facebook ist mehr als eine «personalisierte Zeitung», zu der sie Mark Zuckerberg ausstaffieren will, sondern bereits heute ein globaler Kiosk, von dem man erwartet, dass er ein Stück weit die Pluralität des Meinungsspektrums abbildet. Ohne den geringsten Content zu produzieren, avanciert Facebook zum grössten Medienakteur der Welt. Daher ist es nur billig, dass den Internetkonzern gewisse Pflichten treffen. Dazu gehört auch, die Modifizierung der Newsfeed-Algorithmen transparent zu machen, die einer redaktionellen Entscheidung gleichkommen.
Peter Hinderling 20. Juli 2016, 17:25
Danke für diesen interessanten und gut recherchierten Artikel!