Der grosse Bilder-Filter
Facebook löscht millionenfach Bilder, weil sie angeblich gegen die selbst definierten Gemeinschaftsstandards verstossen. Dabei kommt es immer wieder zu absurden Entscheiden. Über die Realitätsblindheit von Algorithmen.
Vor ein paar Wochen wollte der Fotograf Mike Hall ein paar Fotos auf die Facebook-Seite der Northwall Gallery im englischen Winchester hochladen. Ein Vorgang, wie er täglich millionenfach vorkommt. Jeden Tag landen auf Facebook 350 Millionen neue Fotos. Doch die Plattform entfernte Halls Bilder.
So wurde ein Foto mit dem Neonschriftzug «DISCO» geblockt, weil es angeblich den Verkauf von Alkohol bewerbe. Eine Reihe von Trams in der französischen Stadt Reims lehnt Facebook mit der Begründung ab, dass das Bild gegen die Ticketverkauf-Policy verstosse. Und weidende Kühe hielt der prüde Facebook-Algorithmus für sexuell anstössig.
Der Fotograf legte Widerspruch gegen die Entscheidung ein. Mit Erfolg. Ein Facebook-Sprecher erklärte öffentlich, es handele sich bei der Sperre dieser Bilder um einen Fehler. Das Unternehmen bedauere den Vorfall.
Facebook setzt für die Moderation und die Kontrolle der hochgeladenen Inhalte auf eine Mischung aus menschlicher und künstlicher Intelligenz. Während Algorithmen in einem ersten Schritt den «groben Abfall» aussondern, trennt eine Armada von Vertragsarbeitern den falsch sortierten «Restmüll»: Suizide, Sodomie, Massaker. Der digitale Putztrupp, der irgendwo in den USA oder auf den Philippinen auf Bildschirme starrt, muss unter starker psychischer Belastung entscheiden, ob ein Post gewaltverherrlichend ist oder nicht. Dafür haben die Vertragsarbeiter nicht mal 30 Sekunden Zeit pro Bild. Es sind Menschen, die wie Maschinen operieren.
Grundsätzlich hat Facebook den Löschalgorithmus ziemlich scharf eingestellt. Im Zweifelsfall erscheint das Bild gar nicht erst auf der Plattform.
Gemäss einem Artikel des «Guardian» wurden zwischen Januar und März 2020 allein wegen Nacktheit oder «sexueller Aktivität» 39,5 Millionen Posts nicht für die Publikation freigegeben, 99,2 Prozent davon automatisch durch Algorithmen ausgesiebt. Im Schlund des Datenkraken verschwindet so jede Menge Bildmaterial. Texte allerdings, die gleichermassen anstössig sein könnten, bleiben auf Facebook oft unbehelligt. «Es ist viel einfacher, ein KI-System zu bauen, das einen Nippel erkennt, als zu bestimmen, was Hate Speech linguistisch bedeutetet», hat Facebook-Chef Mark Zuckerberg vor drei Jahren gesagt. Damit sprach er aus, was Fachleute schon lange wissen. Doch Facebooks automatische Filtersysteme haben weiterhin grosse Probleme, selbst vermeintlich eindeutige Objekte als das zu erkennen, was sie eigentlich sind.
Im vergangenen Jahr hat Facebook Zwiebeln als anstössig erkannt – genauer gesagt als «Produkte mit einer offenkundig sexualisierten Position». Der Objekterkennungsalgorithmus hielt die in einem Körbchen platzierten Knollen offenbar für die Rundungen eines Körperteils, etwa der Brust oder des Hinterns. Kopulierende Gartenzwerge, wie sie diesen Artikel illustrieren, stehen hingegen unbehelligt seit Jahren auf Facebook. Man könnte über solche Inkonsistenz schmunzeln, wäre die Sache nicht so ernst. Denn solche Kategorisierungsfehler können fatale Botschaften aussenden.
So hat Facebook im vergangenen Jahr einen Nutzer in Australien gesperrt, der ein historisches Foto von in Ketten gelegten Ureinwohnern geteilt hatte. Der Grund: Das Bild zeige Nacktheit und verstosse damit gegen die sogenannten Gemeinschaftsstandards, eine Art interne Verfassung, die das mächtige Facebook-Management der Community aufzwingt. Zuvor hatte der australische Premierminister Scott Morrison behauptet, in dem Land hätte es keine Sklaverei gegeben. Die Frage lautet darum:
Warum darf man solche verstörenden Bilder, auf denen Menschen erniedrigt werden, nicht zeigen?
Will man der Community die Gräuel nicht mehr zumuten? Oder gar die Vergangenheit auslöschen? Facebook schlug sich mit dieser De-Facto-Zensur nicht nur auf die Seite der Geschichtsrevisionisten, sondern verhöhnte auch die Opfer der Sklaverei, indem es die indigene Kultur in ihrer ganzen Unwürde auch für moralisch fragwürdig erklärte. Facebook entschuldigte sich später für den Fehler. Doch der Fall schlug hohe Wellen. Immer wieder kam es in der Vergangenheit zu Irritationen im Umgang mit Australiens Ureinwohnern. So hat Facebook mehrfach Fotos von Aborigines gesperrt, die mit nackter Brust zu sehen waren.
Aber auch Fotos von Gustave Courbets berühmtem Gemälde «Der Ursprung der Welt», auf dem die Vulva einer Frau zu sehen ist, fiel einst der Facebook-Zensur zum Opfer. Und auch Abbildungen der «Venus von Willendorf», eines der berühmtesten Kunstwerke der Steinzeit, wurden gelöscht – die 11 Zentimeter grosse Figur, die eine nackte Frau darstellt, sei «gefährlich pornografisch», hiess es. Courbets Meisterwerk darf nach einem langen Rechtsstreit seit 2018 auf Facebook gezeigt werden. Der «Ursprung der Welt» sei ein Gemälde, «das einen absolut zulässigen Platz auf Facebook hat», sagte eine Facebook-Sprecherin.
Die intransparenten Bilder-Filter betreffen nicht nur Facebook, sondern auch dessen Tochterunternehmen.
Auf Instagram wurde im vergangenen Jahr das Foto einer australischen Comedian Celeste Barber entfernt, auf dem sie die laszive Pose des Topmodels Candice Swanepoel nachahmte (die Brüste waren nur durch die Hand verdeckt). Während das Modelfoto durchging, wurde die Parodie wegen Nacktheit bzw. «sexueller Aktivität» blockiert – obwohl die Pose identisch war. Barber ist nur etwas beleibter als das Topmodel. Erlaubt Instagram nur erotische Fotos schlanker Menschen? Ist es obszön, ein paar Pfunde zu viel zu haben? Von welchem Schönheitsideal geht der Algorithmus aus?
Auch schwarze Plus Size Models wurden von Instagram verbannt, was der Plattform den Vorwurf des Rassismus eintrug. Im vergangenen November hat Instagram auf öffentlichen Druck seine Richtlinien geändert – seitdem wird zwischen «breast holding» (legales Brüstehalten) und «breast grabbing» (illegales, pornographisches Begrapschen) unterschieden, wobei völlig unklar ist, ob die algorithmischen Sittenwächter diesen feinen semantischen Unterschied operationalisieren können.
An den Gemeinschaftsstandards, welche als Grundlage für die Bilderlöschung dienen, hat sich in der Vergangenheit immer wieder Kritik entzündet.
Die selbst auferlegten Regeln seien zufällig und willkürlich, hiess es. Zur Darstellung von Nacktheit steht inzwischen: «Uns ist bewusst, dass Nacktheit aus vielen Gründen geteilt werden kann, u.a. als eine Form von Protest, zur Steigerung des Bewusstseins für ein bestimmtes Anliegen oder aus bildungsrelevanten oder medizinischen Gründen. Ist eine solche Absicht klar zu erkennen, erlauben wir unter Umständen solche Inhalte. So schränken wir zum Beispiel die Darstellung weiblicher Brüste ein, wenn die Brustwarzen zu sehen sind, lassen aber Bilder zu, die etwa Protestaktionen oder stillende Frauen darstellen, oder Fotos von Narbenbildungen nach Brustamputationen.» Das heisst: Facebook differenziert zwar, aber die Plattform behält sich noch immer die Deutungshoheit über die Bilder vor.
Natürlich ist es schwer, in einer «globalen Community», als die sich Facebook versteht, mit über zwei Milliarden Nutzern und zahlreichen Kulturkreisen, einheitliche Regeln zu finden, zumal das soziale Netzwerk irgendwo zwischen privatem Familienalbum und öffentlicher Plakatwand zu verorten ist. Was man in Europa als geschmacklos empfindet, kann in anderen Kulturen zur guten Sitte gehören – und umgekehrt.
Das Problem ist, dass Facebook ein sehr technisches Verständnis von Normen und der Wirklichkeit hat: Das Management und die Programmierer tun so, als könne man das gesellschaftlich akzeptierte Mass an Nacktheit oder sexueller Anstössigkeit mit der richtigen mathematischen Formel eruieren. Allein, diese binäre Logik von Zeigen versus Nichtzeigen passt nicht in eine komplexe Wirklichkeit, in der es sehr viele Graustufen und Zwischenräume gibt – wofür die Algorithmen aber total blind sind.