von Adrian Lobe

Soll man Maschinen zu Debatten zulassen?

Meinungsroboter galten nach dem Brexit und der US-Präsidentschaftswahl als verfemt. Doch es gibt Beispiele, wie Bots fair und transparent an Debatten mitwirken können.

Von dem Twitter-Account «Abolish_ICE_Now» werden seit ein paar Wochen in schöner Regelmässigkeit Fotos und Informationen zu US-Flüchtlingszentren, sogenannten «detention centers», gepostet: Luftaufnahmen, Ortsangaben, Kapazitäten, Kosten für den Steuerzahler. Wie der Account bereits in seinem Namen erkennen lässt, hat er eine kritische Haltung zur US-Einwanderungsbehörde ICE (Immigration and Customs Enforcement). Und wie dem Profil ebenfalls zu entnehmen ist, handelt es sich um keinen Menschen, sondern um einen Bot, also einem intelligenten Computerprogramm, das automatisiert Tweets generiert – versehen mit dem entschuldigenden Hinweis: «Dieser Bot sollte eigentlich gar nicht existieren.» Der Betreiber hinter dem Twitter-Bot ist der US-Künstler Everest Pipkin, der damit gegen die Asylpolitik von US-Präsident Donald Trump protestieren will, der Familien an der Grenze separieren liess.

Meinungsroboter sind nach der US-Präsidentschaftswahl und dem Brexit in die Kritik geraten, weil sie Meinungen maschinell unterdrücken und diskursive Verfahren aushebeln. Wer die Hintermänner sind, ist häufig unklar. Es ist ein Gefecht mit einem Gegner mit geschlossenem Visier. Bekannt sind insbesondere die Twitter-«Armeen» und Troll-«Fabriken» in Russland, die ganz im Sinn und Geist der Regierung den Kurznachrichtendienst, systematisch mit Propaganda bombardieren. Der deutsche Politikwissenschaftler Simon Hegelich, der das Phänomen intensiv erforscht hat, argumentiert, dass Bots Debatten aggressiver machen: Gemässigte Stimmen ziehen sich aus der Diskussion zurück, radikale Meinungen werden bestärkt.

Wenn von der Tabaklobby gesteuerte Meinungsroboter sich in politische Diskussionen einschalten, ist dies ein Problem für die Demokratie.

Gemäss einer Studie der San Diego State University dominierten Bots auf Twitter auch die Diskussion um E-Zigaretten in den USA. Wenn möglicherweise von der Tabaklobby gesteuerte Meinungsroboter sich in politische Diskussionen einschalten, ist dies ein Problem für die Demokratie, weil das Prinzip „One man, one vote“ ausgehebelt wird. Mit Botnetzwerken kann man seine Stimme in sozialen Netzwerken kurzerhand multiplizieren. Was die Frage aufwirft: Sind Roboter legitime Akteure der politischen Willensbildung? Darf man Maschinen zu Debatten zulassen?

Der «Immigration Detention Facilities Bot», der rund 2000 Follower zählt, nimmt vom Design her zunächst keine Wertung vor. Jeder Tweet beinhaltet Foto sowie Informationen über Adresse, Inspektionen, Einwohnerzahl des Ortes sowie den Bürgermeister. Der Bot informiert über ein politisches Problem, und er macht seine Roboterexistenz dem Leser transparent. Ironie am Rande: Der Datensatz, mit dem der Bot gefüttert wurde, speiste sich zum Teil aus Kartenmaterial der kritisierten Einwanderungsbehörde ICE. In der Gesamtschau steckt darin natürlich eine Anklage. Und insofern, als über den Account Wertungen und keine falschen Tatsachenbehauptungen verbreitet werden, dürften die Inhalte vom Schutzbereich der Meinungsfreiheit gedeckt sein, auch wenn sie von einer Maschine artikuliert werden. Nur: Darf man sich einer Maschine als Werkzeug bedienen, um ein perpetuiertes Klageleid anzustimmen und Missstände in einer Endlosschleife zu skandalisieren? Gewinnt am Schluss, wer mehr Bots programmiert?

Einmal programmiert, generiert der Bot wie am Fliessband Meinung.

Man verschafft sich gegenüber dem politischen Gegner einen strategischen Vorteil: Einmal programmiert, generiert der Bot wie am Fliessband Meinung. Aufwand und Kosten dieser programmierbaren Kommunikationsform sind viel geringer, als wenn man einen Protestzug durch Washington mit Transparenten organisieren würde. Allein, wir reden hier nicht von einer Roboter-Armada oder einem organisierten Botnetzwerk, das zum Zwecke der politischen Manipulation eingesetzt wird, sondern von einer einzigen Programmierschnittelle. Ist so ein alleiniger Bot nicht doch ein legitimes Werkzeug analog zu einem Megaphon, um sich in der politischen Debatte von Echokammern Gehör zu verschaffen? Ist der Account ein digitales Billboard, das ein Aktionskünstler als Ausdruck des Protests in die Internetlandschaft platziert hat?

Mark Sample, Professor für digitale Studien Davidson College in North Carolina, plädierte bereits 2014 in einem Essay für die Zulassung von «Protest-Bots». In der digitalen Gesellschaft seien sie das Äquivalent zu Protestsongs. «Ein Computerprogramm, das die Ungerechtigkeiten und Ungleichheiten auf der Welt offenbart und über Alternativen nachdenkt. Ein Computerprogramm, das sagt, wer zu loben und tadeln ist. Ein Computerprogramm, das fragt, wie, wann, wer und warum. Ein Computerprogramm, dessen Anklagen so spezifisch sind, dass man sie nicht für Blödsinn verwechselt. Ein Computerprogramm, das all das automatisch macht.» Sample sprach sich für den Einsatz sogenannter «Überzeugungs-Bots» (Bots of conviction) aus, die themenspezifisch, datenbasiert, kumulativ, oppositionell und unheimlich sind. Als Beispiel nannte er den Twitter-Bot «congress-edits», der Änderungen von Wikipedia-Artikeln, die von IP-Adressen aus dem Kongress vorgenommen werden, trackt und der Öffentlichkeit transparent macht.

Es kann nicht darum gehen, maschinelle Systeme zu verbannen, sondern Wege zu finden, wie man Bots demokratisch einhegt.

Nun ist jeder Bot in irgendeiner Weise datenbasiert. Doch Samples Plädoyer für eine zivilisierte maschinelle Debattenkultur ist durchaus diskussionswürdig. Es kann nicht darum gehen, maschinelle Systeme aus der «automatisierten Öffentlichkeit» (Frank Pasquale) zu verbannen (dann müsste man soziale Netzwerke wie Facebook, wo Algorithmen Nachrichten filtern, abschalten und dürften Nachrichtenagenturen keine automatisierten Schreibprogramme einsetzen), sondern Wege zu finden, wie man Bots demokratisch einhegt – zum Beispiel, indem man eine Kennzeichnungspflicht einführt. Solange der Mensch die Spielregeln definiert und Skripte formuliert, droht auch kein Aufstand der Roboter.

Dieser Artikel ist zuerst am 10. Juli 2018 auf spektrum.de erschienen.