Mit Quizfragen und Maschinen gegen Trolle
Redaktionen kämpfen mit unterschiedlichen Mitteln gegen Trolle und Hasskommentare. Die Instrumente reichen von Quiz über strengere Zugangs- und Moderationskriterien bis zu Künstlicher Intelligenz. Einen Königsweg gibt es dabei aber nicht. Vier aktuelle Beispiele von NRK (Norwegen), NZZ, Le Matin und Google.
Wer auf der norwegischen Technologie-Webseite NRKbeta einen Artikel kommentieren will, muss neuerdings ein Quiz lösen. Die Redaktion hat im Rahmen einer Testphase ein Multiple-Choice-Modul unter ausgewählte Artikel platziert, dessen Fragen Leser zur Freischaltung der Kommentarfunktion korrekt beantworten müssen. Zum Beispiel werden Verständnisfragen zum Text gestellt. Mit dem Gamifizierungselement sollen Trolle am Kommentieren gehindert werden. «Das Ziel ist es, dass jeder, der etwas in den Kommentarspalten postet, den Artikel gelesen und so ein besseres Verständnis hat, womit sichergestellt wird, dass die Diskussion nicht vom Thema abweicht», heisst es in der Begründung auf der Webseite. Der Modellversuch wurde von einer Reihe internationalen Medien (u.a. CNN) aufgegriffen. Der Journalismusprofessor Jeff Jarvis sagt im Gespräch mit der MEDIENWOCHE: «NRK sendet damit eine Botschaft aus, dass es eine informierte Konversation erwartet – und dass das Lesen der Artikel der beste Weg ist, informiert zu sein. Das Quiz ist eine Art Bodenwelle auf der Strasse von Trollen.»
Medienmacher kennen das Problem: Kaum wird ein Artikel online gestellt, sind die Kommentarspalten Minuten später vollgespamt mit Beiträgen fernab des eigentlichen Themas, Pöbeleien oder Hasskommentaren. Entweder, man moderiert die Beiträge händisch, was aufwändig ist und entsprechend viel Geld kostet. Oder man macht die Kommentarspalten dicht. Die NZZ hat sich für diesen Weg entschieden und im Februar, ähnlich wie zuvor bereits die «Süddeutsche Zeitung», ihre Kommentarfunktion geschlossen. Stattdessen stehen nur noch drei Artikel pro Tag zur Diskussion auf NZZ.ch, die von der Redaktion moderiert werden. Die Kommentarspalte soll in ein Leserforum umgebaut werden, wo Leser mit Autoren in einen Dialog treten können. In einem Begleittext schrieb NZZ-Social-Media-Teamleiter Oliver Fuchs: «Die Stimmung ist gehässiger geworden. Wir stellen – etwas zugespitzt – fest: Wo früher Leserinnen und Leser kontrovers miteinander diskutiert haben, beschimpfen sie sich immer öfter.» Die Erfahrungen mit dem neuen Debattenkonzept sind gut. Social-Media-Redaktor Marvin Milatz teilt auf Anfrage mit: «Wir sehen, dass politische Themen zum Tagesgeschäft extrem gut laufen.» Ein Ausreisser nach oben sei eine Debatte zum jungen Politnetzwerk «Operation Libero» gewesen, in die sich auch Mitglieder der Organisation einmischten. «Kurz nach den letzten Abstimmungen hat das Thema 300 Kommentare an zwei Tagen hervorgerufen.» Milatz‘ Eindruck aus der täglichen Arbeit ist positiv: «Ein deutlich höherer Anteil der Kommentare entspricht seit der Umstellung unserer Netiquette. Ich muss nur noch sehr selten Kommentare löschen.»
Die Idee, aus den Kommentarspalten einen digitalen Debattiersalon zu machen, war schon immer eine Illusion, weil sich der Zugang zu dem Club im Netz schlechter regulieren lässt und es einen strukturellen Unterschied zum analogen Pendant, dem Leserbrief gibt, wo man mit Anrede, bürgerlichem Namen und Anschrift der Sachautorität (Chefredaktion oder Herausgeber) Respekt zollt. Online-Posts folgen häufig Reflexen und keiner Reflexion. Doch durch eine Moderation der Beiträge können diese Affekte heruntergedimmt werden.
Die Westschweizer Zeitung «Le Matin» hat ihre Anmelde- und Moderationskriterien ebenfalls verschärft. Um einen Kommentar auf lematin.ch zu posten, muss man seit August 2016 seine Anmeldedaten mit einem SMS-Code validieren, der einem kostenlos aufs Handy geschickt wird. Wer kein Mobilfunktelefon oder eine ausländische Nummer hat, kann eine Anfrage per Mail mit seinem vollständigen Namen und Anschrift senden. So soll sichergestellt werden, dass keine Trolle kommentieren. Es gelte «null Toleranz» im Umgang mit Hasskommentaren. Chefredaktor Grégoire Nappey rechtfertigte die schärferen Moderationskriterien in einem Kommentar: «Wir sind kein Diskussionsforum im Netz, sondern eine Informationsplattform, die die Diskussion ihrer Artikel öffnet oder nicht. Und das ist keine Frage der Meinungsfreiheit.» Nach Nappey liegt es in der Verantwortung des Mediums, derartige Entgleisungen zu stoppen.
Der Internetkonzern Google, der immer mehr zum Medienspieler avanciert, will Trolle indes mit einer Künstlichen Intelligenz bekämpfen. Zusammen mit der Firma Jigsaw, eine Tochter des Mutterkonzerns Alphabet, hat Googles Counter Abuse Technology Team eine offene Programmierschnittstelle namens Perspective vorgestellt. Mithilfe von maschinellem Lernen soll die Software automatisiert Beleidigungen, Verunglimpfungen und Hasskommentare erkennen. Der Algorithmus wurde mit einem riesigen Datensatz «trainiert» (so wie man einem Kind beibringt, was sich im Sprachgebrauch nicht geziemt) und lernte anhand von Beispielen, was als beleidigend bzw. «toxisch» gilt. Wenn man zum Beispiel «Du bist keine nette Person» in ein Textfeld eingibt, sagt Perspective, dass dies zu acht Prozent mit Sätzen übereinstimmt, die Menschen als «toxisch» betrachten. Bei dem Satz «Du bist ein dummer Idiot» stellt die Software eine 98-prozentige Ähnlichkeit mit «toxischen» Inhalten fest. In einem Blogpost («When Computers Learn To Swear») erklärte Jigsaw-Chef Jared Cohen maschinelles Lernen als Werkzeug für zivilisiertere Debatten im Netz: «Perspective gibt Verlegern ein Instrument in die Hand, bessere Konversationen anzubieten.» Das System, das Medienhäusern kostenlos zur Verfügung steht, wird derzeit vom «Economist», dem «Guardian», der «New York Times» sowie der Online-Enzyklopädie Wikipedia getestet.
Die Idee hinter dem Konzept ist klar: Statt menschlichen Moderatoren soll eine Maschine den Unrat in den Kommentarspalten entfernen. Das ist billiger und effektiver. Doch was sich in der Theorie einfach anhört, ist in der Praxis höchst problematisch: Wie zuverlässig ist die Software? Was ist überhaupt «toxisch»? Und wird die Pflege der Debattenkultur nicht an Konzerne delegiert, die zunehmend die Grenzen des Sagbaren und Schicklichen definieren? Laut einer Studie der University of Washington hat Perspective bereits Schwierigkeiten, Tippfehler zu erkennen. Für den Satz «They are liberal idiots who are uneducated» (Sie sind liberale Idioten, die ungebildet sind) wurde eine Toxizitätsswahrscheinlichkeit von 90 Prozent errechnet. Der fast gleichlautende Satz «They are liberal i.diots who are un.educated», der sich nur durch zwei eingefügte Punkte in «idiots» und «uneducated» unterscheidet, dagegen mit einem Score von 15 Prozent bewertet – obwohl der Inhalt derselbe ist. Auch bei harmlosen Sätzen wie «It’s not stupid and wrong» schlug das System Alarm. Das zeigt, wie erratisch die Software ist. Das Anti-Troll-System lässt sich mit kleinen technischen Kniffs unterlaufen.
Das neue Google-Tool liess rechtskonservative Medien wie «Breitbart» aufheulen, die darin eine Zensursoftware und – ganz in der Rhetorik von Trump – einen «war on comments» erblickten. Dass die Seite mit ihrem Krawalljournalismus den Hass im Netz schürt und ihr einstiger Chef, Steve Bannon, als Chefstratege im Weissen Haus einen «war on media» organisiert, verschweigt das Medium lieber. Auch wenn die Kritik inhaltlich berechtigt ist, kommt sie von der falschen Seite. Ob automatisierte Tools oder Gamifizierungselemente wie das Quiz der norwegischen Seite NRK ein probates Mittel sind, sich Trolle vom Leib zu halten, darf bezweifelt werden. Journalismusprofessor Jarvis sagt: «Weder ein entschlossener Troll oder ein intelligenter Kommentator wird sich davon abbringen lassen.»