von Adrian Lobe

Programmierter Zombie-Exzess: Radikalisierungsmaschine Youtube

Das Geschäftsmodell von Youtube spielt Extremisten in die Hand. Eine neue Studie entlarvt die Fehlanreize, welche die Videoplattform mit ihren Algorithmen schafft.

Wenn man auf Youtube nach dem Begriff «Klima» sucht, schlägt die Autovervollständigung an prominenter Stelle den Begriff «Klimaschwindel» vor. Klickt man darauf, erscheint unter anderem ein Video mit dem Titel «Dr. Wolfgang Thüne: Der Klimaschwindel – Freispruch für CO2/Propheten im Kampf um den Klimathron». Das Video zeigt den rund eineinhalbstündigen Vortrag des Diplom-Meteorologen, der auf Einladung des Bundes Junges Ostpreussen (BJO) und der Landsmannschaft Ostpreussen seine kruden Thesen zum Klimawandel in den Raum stellt. Der Klimawandel? Reine Hysterie! Die Medien? Gleichgeschaltet! Die Menschen? Durch Desinformationen manipuliert. Das Video wurde bisher 34‘000 Mal angeklickt.

Das Beispiel ist kein Zufall. Die Nichtregierungsorganisation Avaaz hat kürzlich in einer Studie aufgezeigt, wie Youtube seinen Nutzern systematisch Verschwörungsvideos zum Klimawandel empfiehlt, auch wenn man gar nicht explizit danach sucht. In einer Analyse von 21 Millionen Videos kommen die Autoren zu dem Ergebnis, dass mit dem Suchbegriff «global warming» (globale Erderwärmung) 16 Prozent aller angezeigten Videos Falschinformationen über den Klimawandel enthielten.

Die Studie identifizierte insgesamt 108 Firmen, deren Werbung in klimaleugnerischen Youtube-Videos auftaucht.

Doch nicht nur das: Gemäss Avaaz tauchen in den Desinformationsvideos auch Anzeigen von grossen Marken wie Samsung, L’Oréal und Danone auf; mit Verschwörungstheorien lässt sich auch Geld verdienen. Die Studie identifizierte insgesamt 108 Firmen, deren Werbung in klimaleugnerischen Clips auftaucht. Dass auch Werbung von Umweltschützern wie Greenpeace und dem WWF sowie dem deutschen Bundesinnenministerium ausgespielt wird, verweist auf die besondere Perfidie eines Geschäftsmodells.

Firmen können ihre Videoanzeigen auf Youtube nach demografischen Merkmalen und Interessen oder nach spezifischen Suchbegriffen ausspielen lassen. Eine Option sind sogenannte automatische Placements, bei denen Anzeigen auf Grundlagen einer festgelegten Ausrichtung (zum Beispiel Stichworte oder Themen) automatisch geschaltet werden. So kann etwa ein Sportartikelhersteller gezielt Marathon-Läufer ansprechen, die nach entsprechenden Videos suchen. Eine alternative Kampagnenform sind ausgewählte Placements, bei denen Anzeigenkunden bestimmte Videos selbst auswählen, in denen ihre Werbung läuft.

Ob die Greenpeace-Anzeige nun aus Versehen in die Klimaleugner-Videos geraten ist oder gezielt geschaltet wurde, lässt die Studie offen. Greenpeace und WWF sowie Konzerne wie Samsung und Decathlon liessen hingegen ausrichten, dass ihnen die Werbepräsenz in Verschwörungsvideos nicht bewusst gewesen sei. Zwar bietet Youtube seinen Kunden an, eine Werbeplatzierung in bestimmten Gattungen auszuschliessen, etwa für gewaltverherrlichende oder sexistische Videos. Für Verschwörungsvideos ist das aber nicht möglich.

Es handelt sich hier nicht bloss um ein technisches, sondern um ein medienpolitisches Problem. Youtube ist in den letzten Jahren zu einer Art globalem Superfernsehen mutiert. Die Videoplattform zählt weltweit zwei Milliarden aktive Nutzer. In der Altersgruppe der 18- bis 34-Jährigen erreicht die Videoplattform in den USA mehr Menschen als jeder Kabelsender.

Laut einer Erhebung von Pew Research schauen 73 Prozent aller erwachsenen US-Bürger Youtube-Videos. In der Schweiz ist Youtube das zweitwichtigste soziale Netzwerk. 2018 zählte die Videplattform hierzulande 5,5 Millionen aktive User. Gemäss dem Marktforschungsinstitut GFK Switzerland nutzen 84 Prozent der 19- bis 25-Jährigen Youtube. Angesichts der Reichweite und der zunehmenden Bedeutung für die (politische) Meinungsbildung werden Forderungen nach einer Qualitätskontrolle lauter.

Youtube steht schon länger in der Kritik, weil es verschwörungstheoretische, terroristische oder extremistische Inhalte verbreitet.

Die Videoplattform, so der Vorwurf von Avaaz, promote Desinformation über den Klimawandel für Millionen von Menschen. Die Organisation fordert Youtube daher auf, den Algorithmus zu «entgiften» und Desinformation zu «demonetarisieren», indem Anzeigenkunden ihre Werbung aus Verschwörungsvideos aktiv ausschliessen können. Zudem müsse Youtube mit unabhängigen Faktencheckern kooperieren.

Youtube steht schon länger in der Kritik, weil es verschwörungstheoretische, terroristische oder extremistische Inhalte verbreitet. Um Verschwörungstheorien entgegenzutreten, hat die Plattform eine Hinweisfunktion eingeführt, sogenannte Informationspanels, die auf Wikipedia-Artikel verlinkt. Bei 64 Prozent der Klimaleugner-Videos, so die Untersuchung von Avaaz, werde auf Wikipedia-Artikel verwiesen, die aber nur allgemeine Informationen enthielten. Hingegen findet sich im Umfeld der Videos keine Hinweise darauf, dass sie Fehlinformationen enthalten.

Die Ursache für diese problematische Entwicklung liegt im Maschinenraum von Youtube, in der Funktionsweise der Algorithmen.

Nun kann man generell die Frage stellen, ob Youtube eine medienpädagogische Aufgabe zukommt, seine Nutzer aufzuklären. Eine solche «Belehrungsfunktion» kann bei Klimaskeptikern einen Abwehrreflex auslösen und den gegenteiligen Effekt erzeugen. Schnell ist dann von «Zensur» und «Meinungskartell» die Rede. Verschwörungstheorien erhielten damit unfreiwillig Auftrieb.

Die Ursache für diese problematische Entwicklung liegt laut der Avaaz-Studie im Maschinenraum von Youtube, in der Funktionsweise der Algorithmen. Um seine Nutzer länger auf der Plattform zu halten, macht Youtube personalisierte Vorschläge – sei es auf der Startseite oder durch die automatische Wiedergabe von neuen Videos. Die Algorithmen sind so strukturiert, dass sie die Sehgewohnheiten der Nutzer verstehen lernen und dann passgenaue Videos ausspielen. Um die Nutzer bei der Stange zu halten, muss man immer wieder kleine Wow-Effekte bieten, damit das Nutzungserlebnis nicht zur drögen Dauerberieselung verkommt.

Diese Programmierung kann jedoch fatale Folgen haben. So fanden Forscher des Berkman Klein Center for Internet and Society heraus, dass Youtube pädophilen Nutzern vermehrt Videos von Kindern in knapper Kleidern (zum Beispiel Kinder in Schwimmbädern) ausspielte. Nicht wenige halten diesen automatisierten Mechanismus daher für gefährlich, manche nennen ihn sogar «toxisch».

Auch bei unpolitischen Inhalten beobachtete die Forscherin einen Radikalisierungseffekt.

Die Techniksoziologin Zeynep Tufekci vertritt die These, dass Youtube einer Radikalisierung der Gesellschaft Vorschub leiste. Die Wissenschaftlerin hatte während des US-Präsidentschaftswahlkampfs 2016 beobachtet, dass Youtube ihr nach dem Aufrufen von Videos über Trump-Kundgebungen Videos zu weissen Rassisten und Holocaust-Leugnern vorschlug und diese automatisch abspielte. Auch bei unpolitischen Inhalten beobachtete die Forscherin einen Radikalisierungseffekt. Clips über Vegetarier führten zu Clips über Veganer. Videos über Joggen zu Ultramarathons.

Die Avaaz-Studie bestätigt dieses Phänomen. «Für jedes Klima-Desinformationsvideo, das jemand anschaut oder likt, werden ähnliche Inhalte in den Empfehlungen angezeigt, sodass der Nutzer in die Online-Blase der Desinformation tappt», resümieren die Autoren. Das heisst: Durch die algorithmische Mechanik nährt sich die Klimaskepsis von selbst.

Ein zentrales Problem ist das sogenannte unüberwachte Lernen. Dabei erkennen Algorithmen eigenständig Muster und Ähnlichkeiten.

Die Studie enthält sehr viel empirisches Material, das die finanziellen Fehlanreize von Youtubes Anzeigensystem offenlegt. Die Beschreibung der algorithmischen Mechanik ist dagegen etwas oberflächlich geraten, was aber wohl auch daran liegt, dass Youtube keinen Einblick in den Maschinenraum gewährt.

Ein zentrales Problem ist das sogenannte unüberwachte Lernen. Dabei erkennen Algorithmen eigenständig Muster und Ähnlichkeiten, das heisst ohne Anweisung der Programmierer. Die Folge: Der Algorithmus spuckt blind Inhalte aus, weil er darauf programmiert ist, die Nutzungsdauer zu optimieren.

Das Verlangen nach immer extremeren Inhalten nährt sich so selbst.

Solche Fehlanreize der Klick-Ökonomie drohen sich zu einem medialen Zombie-System auszuwachsen, in dem das Profitstreben diskursive Standards unterminiert. Die durch Algorithmen hervorgerufene Radikalisierungswirkung scheint dabei nicht bloss der Kollateralschaden eines Geschäftsmodells zu sein, sondern vielmehr dessen Antriebsfeder. Das Verlangen nach immer extremeren Inhalten nährt sich so selbst. Dadurch entsteht ein Teufelskreis, der sich kaum noch stoppen lässt.

Die Forderung von Avaaz, das algorithmengestützte Anzeigenmodell einer Revision zu unterziehen, geht in die richtige Richtung. Ein anderer Ansatz wäre es, mehr Menschen in die Moderation von Inhalten einzubeziehen oder auf Weiterempfehlungen gänzlich zu verzichten. Dies wäre einerseits kostspielig, andererseits unrealistisch, weil sich 70 Prozent der Nutzungszeit aus Empfehlungen nährt. Solange Youtube mit Verschwörungsvideos Kasse machen kann, besteht auch kein wirtschaftlicher Anreiz, diese von der Plattform zu entfernen.

Leserbeiträge

Chris 31. Januar 2020, 14:21

 Die Nichtregierungsorganisation Avaaz hat kürzlich in einer Studie aufgezeigt, wie Youtube seinen Nutzern systematisch Verschwörungsvideos zum Klimawandel empfiehlt, auch wenn man gar nicht explizit danach sucht

Also mal heruntergebrochen: Youtube zeigt Nutzern durchaus Videos an, die nicht ihrer Meinung entsprechen.

Adrian Lobe 31. Januar 2020, 18:39

Lieber Chris,

eine interessante Beobachtung. Zunächst erscheint es widersprüchlich, dass Youtube Verschwörungsvideos anzeigt, auch wenn man gar nicht explizit danach gesucht hat. Etwas hintersinnig gedacht, könnte der Algorithmus aber auch Muster innerhalb der Gesellschaft aufdecken (vgl. Armin Nassehi), die wir nicht sehen oder vielleicht gar nicht sehen wollen. Ohne gleich in die Erkenntnistheorie einzusteigen: Es könnte sein, dass viel mehr Menschen Verschwörungstheorien nachhängen, es sich aber vielleicht nicht eingestehen wollen und der Algorithmus dies aufdeckt. Das ist eine Vermutung. Aber ich denke, dass der Youtube-Algorithmus die „heavy user“ (zu denen ich nicht gehöre) sehr gut kennt.

Viele Grüße

Adrian Lobe

Thomas Läubli 06. Februar 2020, 22:39

Youtube empfiehlt mir auch Videos, die ich gar nicht sehen will. Plötzlich wird mir Loredana empfohlen. Dabei würde ich niemals den Dünnschiss der Unterhaltungsindustrie konsumieren, der uns schon an jeder Strassenecke aufgedrängt wird und mit seinem BUMM-BUMM nur den Gehörsinn zerstört. Es handelt sich also um eine gigantische Manipulations-Maschinerie, bei der die Reichen bestimmen, was wir sehen und hören sollten.

Touretto 31. Januar 2020, 16:28

Wissenschaftlich Fakten haben nichts mit Meinung zu tun, das wird uns von Aluhüten immer wieder „verschwiegen“.