von Philippe Wampfler

Für einen schärferen «Zensur»-Begriff

Nicht jeder technische Eingriff, der zum Ziel hat, die Verbreitung von Fake News zu unterbinden, ist gleich Zensur. Ein Erfolg versprechender Weg wäre es, wenn Google und Facebook ein publizistisches Selbstverständnis entwickeln und jene redaktionelle Verantwortung auch aktiv wahrnehmen würden, die sie de facto schon heute tragen. Eine Replik von Philippe Wampfler auf den Diskussionsbeitrag von Andreas von Gunten zum gesellschaftlichen Umgang mit Fake News.

Zensur sei nicht die Antwort auf «Fake News», schrieb Andreas von Gunten letzte Woche in einem Beitrag für die MEDIENWOCHE:

Wir sind in unserer so genannten freien und offenen Gesellschaft also in einer Welt angekommen, in der eine bestimmte Gruppe von Menschen, oder noch schlimmer, Algorithmen definieren können sollen, was als Wahrheit zu gelten hat.

Diese Zwischenbilanz von Guntens macht seine Absicht deutlich: Er steht für zentrale Freiheitsrechte ein, insbesondere die Redefreiheit. Sein Menschenbild ist das der Aufklärung: Wer sich seines Verstandes bedient, kann mit Informationen umgehen und soll dabei nicht bevormundet werden.

Diese Sicht scheint mir das Phänomen, das mit «Fake News» bezeichnet wird zu verfehlen. Mehr noch: Die Diskussion von Lösungsvorschlägen unter dem Begriff der «Zensur» empfinde ich als Strohmannargument, mit dem differenzierte Forderungen auf einen dafür unpassenden Begriff gebracht werden.

von Gunten bezieht sich nicht auf die «Fake News» aus dem amerikanischen Wahlkampf, mit denen etwa absurde Vorwürfe an Hillary Clinton inszeniert wurden, sondern auf zwei Schweizer Social-Media-Kampagnen, die mit falschen Informationen gearbeitet haben (Schutzbach und Rougy haben vorgegeben, ein von ihnen geschriebener Text sei im Tages-Anzeiger erschienen und von Constatin Seibt verfasst worden; ein gefälschtes Facebook-Posting von Nationalrat Glarner). Seine Beispiele blenden zwei wesentliche Merkmale von «Fake News» aus:

  1. Sie werden so gestaltet, dass die Algorithmen, welche die Sichtbarkeit in sozialen Netzwerken steuern, die Aufmerksamkeit auf sie lenken.
  2. Psychologisch sind sie raffiniert auf bestimmte Zielgruppen zugeschnitten, deren Haltungen dadurch bestätigt werden. Sie profitieren von ihrem Confirmation Bias, der Informationen, die unsere Haltungen bestätigen, eine höhere Glaubwürdigkeit zuschreibt als solchen, die unsere Annahmen hinterfragen.

Aus diesen beiden Gründen ist es falsch, vorzugeben, «Fake News» habe es in der Form von Bouleveardkampagnen oder Zeitungsenten immer schon gegeben. «Fake News» sind nicht schlechter Journalismus, es sind Manipulations- und Propagandastrategien, die vorgeben, Journalismus zu sein.

Betrachtet man das erste Merkmal – Algorithmen steuern die Sichtbarkeit von Informationen in Social Media –, dann wird deutlich, dass Informationen nicht einfach so da sind, sondern in sozialen Netzwerken immer durch Algorithmen präsentiert werden. Die Frage ist also nicht, ob Algorithmen Informationen beurteilen sollen, sondern wie sie das tun. Facebook entscheidet heute schon, was für mich relevant ist (oder sein könnte): Warum sollte die Frage nach der Wahrheit einer Information dafür keine Rolle spielen? Eli Pariser hat dazu umfassende Überlegungen in einem kollektiv bearbeitbaren Google-Docs-Dokument zusammengestellt. Die Lösungen, die vorgeschlagen werden, sind dabei weit von Zensur entfernt: Sie decken von mehr Redaktionsangestellten über die Forderung nach höherer Transparenz bei Facebook über besseres Design von Algorithmen eine breite Palette von Möglichkeiten ab.

Bei der psychologische Raffinesse von «Fake News», das zweite Merkmal, zeigt eine genauere Betrachtung, dass die Vorstellung, eine argumentative Auseinandersetzung mit «Fake News» könne ihre Kraft einschränken, verfehlt ist. Eine bereits etwas ältere Studie von Nyhan und Reifler kann den so genannten Backfire-Effekt nachweisen: Menschen, die von «Fake News» überzeugt sind, glauben noch stärker daran, wenn ihnen jemand erklärt, sie seien falsch.

Weil bei der Verbreitung und Erstellung von Fake-News psychologische Tricks angewandt werden, mit denen unserer Verstand unterlaufen wird, sind wir davon nicht gefeit, auf sie reinzufallen. Unabhängig vom Bildungsgrad und unabhängig von der politischen Verortung sind Menschen für «Fake News» anfällig.

«Fake News» erscheinen anders als Boulevard-Geschichten nicht als «Fake News», sondern werden von ihren Zielgruppen wie echte News behandelt. Können technische Lösungen etwa zu klaren Quellenangaben führen (woher stammt diese Information ursprünglich), dann ist das kein Vorgang der Zensur, sondern eine Hilfestellung. Wenn die virale Verbreitung von News auf Facebook durch die Einführung kurzer Pausen zwischen dem Teilen und dem Einblenden im Stream verlangsamt wird, erhält der kritische Diskurs Zeit, Informationen zu prüfen und darauf zu reagieren.

Solche technischen Möglichkeiten sind kein Ersatz für verantwortungsvollen, von Menschen gemachten Journalismus. Facebook und Google brauchen endlich eine Redaktion, die Entscheidungen klar kommuniziert und sie verantwortet. Diese Entscheidungen werden heute schon gefällt, aber viele Menschen kennen sie nicht.

Insofern verstehe ich diesen Beitrag als eine Ergänzung zu dem von Andreas von Gunten: Auch ich stehe für eine offene Gesellschaft ein, die Informationen nicht unterdrückt, sondern Menschen die Freiheit gibt, eine lebendige Infosphäre zu gestalten. Aber wenn sie technisch vermittelt ist, dann muss diese Vermittlung so erfolgen, dass menschliche Schwächen nicht systematisch ausgenutzt werden können.

Bild: Flickr/Anita (CC BY-NC-ND 2.0)

Kommentieren

*Pflichtfelder

Ihre Persönlichen Daten werden nicht veröffentlicht oder weitergegeben.

Leserbeiträge

Andreas Von Gunten 14. Dezember 2016, 12:26

Danke Philippe für Deine Auseinandersetzung mit meinem Beitrag. Ich denke wir sind nicht sehr weit voneinander entfernt. Ich habe keine Probleme damit, wenn mehr Transparenz über die Art und Weise wie die Algorithmen funktionieren geschaffen wird, oder wenn klare Quellenangaben gemacht werden, im Gegenteil. Ich bin allerdings skeptisch bei der Forderung nach Redakteuren, ich denke derzeit nicht, dass es hilfreich ist, die Plattformen als Medienhäuser mit redaktioneller Verantwortung anzusehen, aber dazu muss ich noch etwas mehr nachdenken. Was die psychologischen Argumente betrifft, bleibe ich bei meiner Überzeugung, dass wir als Gesellschaft daran arbeiten müssen, dass der von Dir geschilderte Backfire-Effekt weniger oder nicht mehr auftritt. Ich bin (noch) nicht bereit zu kapitulieren und damit zu leben, dass ein (offenbar relevanter) Teil der Gesellschaft nicht zur Reflexion fähig sein kann und nicht lernen kann, dass wir nur dann als demokratische Gesellschaft funktionieren, wenn wir ehrlich um möglichst gute Annäherung an die Wahrheit und Aufrichtigkeit im Dialog bemüht sind.

Antworten...