von Adrian Lobe

«Summa … laude»

Wir finden es lustig, wenn uns die Autokorrektur oder die automatische Wortvervollständigung sinnfreie Vorschläge präsentieren. Doch das Lachen sollte uns im Hals stecken bleiben. Denn algorithmische Zensur greift immer weiter um sich und schränkt den Raum das Schreib- und Sagbaren ein.

Eigentlich sollte es ein grosser Tag für Jacob Koscinski werden. Der 18-jährige Schüler aus Charleston im US-Bundesstaat South Carolina hatte gerade seinen High-School-Abschluss mit der Bestnote 4,89 abgeschlossen. Seine Mutter wollte für ihren Sohn eine kleine Abschlussfeier organisieren und orderte zu seinen Ehren bei einem Lebensmittelhändler eine Torte. Das Geschäft bietet Kunden die Möglichkeit, die Torte mit einer persönlichen Botschaft beschriften zu lassen. Die Mutter gab bei der Online-Bestellung den gewünschten Schriftzug in das Formularfeld ein: «Congrats Jacob! Summa Cum Laude class of 2018» (Glückwunsch Jakob! Summa Cum Laude, Abschlussjahrgang 2018). Allein die Maschine führte nicht das aus, was der Mensch diktierte, sondern nahm selbst Federstriche vor.

Anstelle des lateinischen Prädikats «Summa Cum Laude» («mit höchstem Lob») stand in dem Fenster nur noch «Summa … laude», versehen mit dem Warnhinweis: «profan/spezielle Buchstaben nicht erlaubt». Der Grund: Der wörtlich übersetzende Algorithmus hatte den feststehenden lateinischen Begriff «summa cum laude» nicht als Konstruktion erkannt und die Präposition «cum» für die vulgäre englische Vokabel für «Wichse» gehalten – und daher zensiert. Statt «cum» wurden also nur drei dürre Striche angezeigt.

Ein Algorithmus hatte seine Abschlussfeier versaut.

Koscinskis Mutter wies in dem Feld «Besondere Anweisungen» darauf hin, dass das System offensichtlich etwas missverstehe – und vertraute darauf, dass ein Mitarbeiter den Irrtum korrigieren würde. Doch daraus wurde nichts. Als die Familie die Box mit der Torte zu Hause öffnete, war das Entsetzen gross: Das Geschäft hatte die Torte wie im Online-Formular verziert. Auf der Torte stand in blauer Zuckermasse geschrieben: «Summa — laude». Die Überraschung war dahin, Koscinski fühlte sich gedemütigt, wie er der «Washington Post» sagte. Ein Algorithmus hatte seine Abschlussfeier versaut. Eigentlich könnte man über die Sache schmunzeln. Doch der Vorfall macht deutlich, wie Computer Werte mathematisch verabsolutieren und apodiktisch Entscheidungen in unseren Alltag einschreiben.

Es ist nicht das erste Mal, dass Algorithmen Wörter zensieren, respektive umcodieren. Die Autokorrektur von Microsoft Word unterringelte in der Office-Version von 2003 den Vornamen «Barack» als fehlerhaft und schlug als Alternative wenig schmeichelhaft «Baracks» (für Baracken) bzw. «Osama» vor – der Name des jungen Senators Obama war der Software damals offenbar weniger bekannt als der des Terrorfürsten Bin Laden. Erst mit der Microsoft Office 2007 wurde «Barack» dem Wortschatz als Standardname hinzugefügt.

Politisch korrekt, aber inhaltlich inkorrekt.

Auf der anderen Seite kann die politische Korrektheit, die man der Software einprogrammiert, auch zu völligem Nonsens führen. Rosemarie Jarski beschreibt in ihrem Buch «Dim Wit: The Funniest, Stupidest Things Ever Said», wie ein (namentlich nicht genannter) Journalist das von der Autokorrektur monierte Wort «black» aus einem Artikel strich und fast schon stereotyp und robotisch durch das politisch korrekte «African-American» ersetzte, um sich nicht des Vorwurfs des Rassismus auszusetzen. Das Problem war nur, dass dabei kein Mensch gemeint war, sondern eine Sache – nämlich der Terminus «schwarze Flecken» (black spots). Der Journalist prüfte die Sache nicht nochmal, und so wurde aus «black spots» «African-American spots». Politisch korrekt, aber inhaltlich inkorrekt. Der Computer, der kein Kontextwissen besitzt, hatte einen ziemlich blöden Fehler in den Artikel hineinredigiert.

Auf der anderen Seite codieren Autokorrekturprogramme von Messenger-Diensten unverfängliche Inhalte zu anzüglichen Botschaften um. So wurde aus dem Computerhersteller Asus «Anus», aus «Sauffähigkeiten» die eindeutig unzweideutigen «Saugfähigkeiten», aus Duschgel das unappetitliche «Durchfall». Kurznachrichten à la «Wir liegen nur im Bett und Papa spielt an meinem Anus», die vom Absender «Mama» stammen, sind an Peinlichkeit kaum zu überbieten. Die Beispiele belegen, dass Algorithmen nicht prüde sind, wie zuweilen unterstellt wird, sondern schlicht keine Lebenserfahrung haben – aber unsere Gesprächsinhalte immer mehr strukturieren. Und formatieren.

Porsche, Portugal, Porto – statt Porno.

Auch Google spurt mit seinen Suchalgorithmen bzw. seiner Funktion Autocomplete algorithmisch vor, wonach seine Nutzer suchen. Bei der Eingabe von «por» ergänzt der Vervollständigungsmechanismus nicht «Porno» oder «porn», einem der meistgegoogelten Begriffe, sondern «Porsche», «Portugal» und «Porto». Das widerspricht der Behauptung des Konzerns, wonach Vervollständigungen «anhand von Faktoren wie der Häufigkeit und Aktualität von Suchbegriffen generiert» würden.

Der US-Kommunikationswissenschaftler Nick Diakopoulos wollte mithilfe einer Reverse-engineering-Methode, bei der eine Suchmaschine aufgrund ihrer Outputs durchleuchtet wird, herausfinden, welche Begriffe die Autocomplete-Funktion blockiert. Für 110 sexbezogene Wörter, die er aus linguistischen Extremen und Slang-Begriffen des Urban Dictionary zusammentrug, führte er jeweils einen Suchtest durch. Das Ergebnis: Bei Suchwörtern wie «Prostituierte» ergänzte der Vervollständigungsmechanismus bereitwillig «Telefonnummer» und «Webseiten», Begriffe wie «erotisch» und «nackt» wurden dagegen blockiert (mit einer Reihe weiterer vulgärer Begriffe wie «Titten» oder «Schwanz»). Wobei Erotik durchaus ein Merkmal von Ästhetik sein kann und fester Bestandteil der Bildenden Kunst ist. Dass Google kein Durchlauferhitzer für Pornoseiten sein will, ist legitim. Und dass die Suchmaschine Anfragen nach Kinderpornografie unterbindet und Pädophile in die Schranken weist, ist ebenso rechtlich wie moralisch geboten. Doch das Problem ist, dass nicht der Mensch der Maschine, sondern die Maschine dem Menschen Sprachregelungen aufoktroyiert. Nach dem Motto: Das darf man suchen oder sagen, und das nicht. Der Programmierer sagt dem Computer, das Wort «cum» sei unangemessen und setzt es auf die schwarze Liste, wenig später verbannt das System in maschinellem Rigorismus alles, was damit in Verbindung steht.

«*****schnitzel» statt «Zigeunerschnitzel»

Man kann das Szenario noch weiterdenken: Was, wenn die Sprachsoftware Alexa oder Siri bestimmte Sprachkommandos ignoriert, weil sie ein verfemtes Wort beinhalten? Wenn eine Software beim Druck einer Speisekarte aus «Zigeunerschnitzel» «*****schnitzel» macht? Oder ein Roboterjournalist den Begriff «Obdachloser» in Anführungszeichen setzt bzw., um der Political Correctness Rechnung zu tragen, in «Wohnungssuchender» abändert, was unnötige Ambivalenzen schafft und den sozialen Status des Betroffenen ridikülisiert?

Je mehr opaken algorithmischen Systemen die Redaktion von Sprache überantwortet wird, desto weniger Mitsprache und Wortgewalt hat die bürgerliche Öffentlichkeit. Und desto mehr verliert sie auch die Deutungshoheit über Begriffe und die kommunikative Kontrolle. In der mittlerweile gesperrten chinesischen Version von Skype konnten Nutzer Wörter wie «Wahrhaftigkeit», oder «Amnesty International» schon gar nicht mehr eingeben. Die Zensur begann schon bei der Tastatureingabe. Wo Kommunikationsprozesse immer automatisierter werden, besteht die Gefahr, dass Softwareingenieure nicht nur Programmcodes, sondern auch sprachliche Codes formulieren – und damit autoritativ entscheiden, was sagbar und schicklich ist.

Leserbeiträge

Hansueli Hof 02. Juni 2018, 14:43

Selbst schuld, wer die Autokorrektur aktiviert. Punkt.