Freunde, es ist in Englisch, und es ist wichtig. Es dauert eine Stunde. Viel Spaß!

Wie kommt es, dass Politiker 2008 einen Akt zur Bekämpfung von Online-Belästigung für Kinder verabschiedeten, obwohl es dafür wenig belastbare Zahlen gab und Kinder beispielsweise im eigenen Zuhause weitaus öfter sexuell belästigt oder missbraucht werden? Wie kann es sein, dass Teenager auf dem Imageboard 4chan Wege finden, Oprah Winfrey im Fernsehen Worte in den Mund zu legen?

Gestern, am ersten Tag der re:pulica nimmt Danah Boyd in ihrer Keynote diese und viele ähnliche Beispiele zum Anlass, einmal zu versuchen, die Frage nach der Verantwortung in zunehmend algorithmisierten Gesellschaften anzugehen. Sie erforscht sozio-politische und kulturelle Aspekte von sozialen Medien bei Microsoft und leitet das Forschungszentrum Data & Society in New York.

Doch zunächst, wie kommt es zu solchen Spektakeln? Auf den ersten Blick gibt es nur Motive: Sicherlich liegt es am Spaß daran, große Systeme zu manipulieren. Auch an den Kenntnissen, die Jugendliche sich über digitale Öffentlichkeiten und ihr Zusammenspiel mit traditionellen Medien aneignen. Oder, im Fall der Politiker, daran, alte Ängste auf das Internet zu projizieren, damit Mehrheiten zu bekommen und zu zeigen, dass man dieses Internet im Griff hat. Heute sehe man, so steht es in der Ankündigung ihres einstündigen Vortrags, dass „algorithmische, datenbasierte Technologie nicht notwendigerweise eine soziale Welt, in der viele von uns leben möchten, unterstützt“.

Die Kernfrage von Boyd war: „Was heißt es, nicht nur Nationalstaaten oder Unternehmen zur Verantwortung zu ziehen, sondern große Netzwerke von Menschen, die mit verschiedenen Technologien arbeiten?“ Vor der Antwort nannte Boyd einige Beispiele, die die Tragweite dieser Frage zeigen sollten.

Ein amerikanischer Geistlicher stellt an einer Landstraße drei islamfeindliche Schilder auf und lässt sich mit ihnen fotografieren. Damit bekommt er die Aufmerksamkeit lokaler Medien. Als er aber ankündigt, dass er einen Koran verbrennen will, dauerte es nicht lange, bis er bei CNN dazu interviewt wird. Denn viele argumentieren dagegen, wollen ihn davon abhalten. Was er danach auch tut. Bis die Aufregung sich wieder legt und er mit einer Gruppe von Leuten wirklich einen Koran verbrennt. Woraufhin es in muslimischen Ländern Ausschreitungen gibt. Wer ist schuld? Der Initiator? Die Menschen, die sich aus gutem Grund dagegen aussprachen? Die Blogger und Journalisten? Die Idee vom Nachrichtenwert?

Über eine Stunde zeigte danah boyd viele Beispiele dafür, wie unsere algorithmische Welt derzeit untergraben wird. CC-BY-SA 2.0 netzpolitik.org

Wer mit Suchmaschinen nach Bildern sucht, wird mit Klischees beworfen: Der Suchbegriff „Baby“ spuckt weiße Neugeborene mit hellblauen beziehungsweise rosa Stramplern aus. Wer nach CEO sucht, bekommt einen männlichen Anzugträger im mittleren Alter, der vor einer verglasten Bürokulisse nachdenklich die Hände ineinander legt oder sich auf einem Bürostuhl abstützt. Das ist offensichtlich und auch den für die Suchinfrastruktur zuständigen IT-Unternehmen bewusst. Doch wenn sie daran etwas ändern, indem sie etwa Fotos von anderen Menschen in die Suchergebnisse spülen, hilft das laut boyd auch nicht wirklich. Denn die Nutzerinnen und Nutzer, die gerade ein Foto für ihre Präsentation suchen, klicken doch wieder auf die alten Stereotype und verstärken die Effekte damit wieder.

Anderes Beispiel: Ein Journalist schreibt über eine Verschwörungstheorie. Obwohl er sie im Text widerlegt, reproduziert er sie im Titel seines Erklärartikels. Eine andere Plattform greift die Überschrift auf, bricht sie aber nach den ersten sechs Wörtern ab. Stehen bleibt die Anschuldigung mit einem Link zu einer bekannten Nachrichtenseite. Auch wenn ein Richter die Entscheidung einer polizeilichen Vorhersage-Software revidieren kann, mag es aus seiner Sicht rationaler sein, ihr zu folgen, da das weniger Widerstand innerhalb des Justizsystems produziert.

Was diese Beispiele laut boyd zusammenhält, ist, dass sie zeigen, wie Unternehmen, Blogger, Jugendliche, Politiker und Aktivisten alle Teil eines digitalen Verstärkungsökosystems sind. Das mag neu klingen. Aber auch wenn wir die Mechanik, die Art und Weisen der Verstärkung noch nicht alle kennen: Die Situation, in der sich diese Menschen befinden, ist uns allen bekannt, so boyd.

Bei den digitalen, algorithmischen Verstärkungseffekten handele es sich um eine neue Form von Bürokratie. Wie die alte zeichnet sie sich dadurch aus, Verantwortung zu verwässern und auf das Ökosystem zu verteilen. Boyd sagt: „Wir haben über ein Jahrhundert Erfahrung mit Bürokratie“. Sie erstrecke sich von den absurden Episoden in Franz Kafkas Der Prozess bis zu Adolf Eichmann, der eine tragende Rolle in der Organisation des Holocaust spielte, und vor Gericht stumpf wiederholte, er habe nur Befehle befolgt.

In der neuen Bürokratie gebe es Akteure, die sich mehr auskennen und solche, die weniger wissen. Viele haben ökonomische Interessen. Heute sei es wichtig zu fragen, wie Äußerungen, Entscheidungen, Provokationen, Spektakel, ja menschliches Handeln, digital weitergetragen werden – „wie die Verstärkungseffekte sich auswirken und wem sie schaden“, so Boyd. Und dementsprechend auch strategisch zu handeln. Dafür braucht es neben Wissen über die bürokratischen Techniken und Technologien auch Reflexion. Hannah Arendt verurteile Eichmann genau dafür: nicht gedacht zu haben.


Ein Beitrag von Netzpolitik.org. CC-BY-SA 2.0
Netzpolitk.org finanziert sich zu fast 100 % aus Spenden von Leserinnen und Lesern. Unterstütze unsere Arbeit mit einer Spende oder einem Dauerauftrag.

Roboterjournalisten

19. März 2018

Neue Entwicklungen in Großbritannien und andernorts lassen mich frösteln. Und damit ist nicht das Wetter gemeint sondern Roboterjournalisten. Sie sollen die Lokalpresse retten. Wer rettet uns vor den Robotern? Netzpolitik.org berichtet:

Nachrichtenagenturen von London bis Helsinki setzen seit neuestem Algorithmen für ihre Lokalberichterstattung ein. Doch statt neutraler Datenberichte liefern die automatischen Textgeneratoren Spin am laufenden Band. Die Öffentlichkeit steht mit dem Beginn des Roboterzeitalters im Journalismus vor einer neuen Herausforderung.

Roboter in einem Berliner Spielzeugladen. Marschieren die demnächst bei der BZ ein? Public Domain Alexander Fanta

Die Press Association liefert seit 150 Jahren die Nachrichten, auf die sich Großbritannien verlässt. Die Nachrichtenagentur bietet unabhängige, neutrale Berichterstattung, ein bisschen langweilig vielleicht, aber zuverlässig. Doch ihre besten Kunden, die Lokalzeitungen, sterben in den letzten Jahren dahin wie die Fliegen: Knapp 200 Blätter wurden im Vereinigten Königreich allein seit 2005 eingestellt. Die Lage ist so schlimm, dass die britische Premierministerin Theresa May kürzlich warnte, der Niedergang der Lokalpresse stelle eine Gefahr für die Demokratie dar.

netzpolitik.org finanziert sich zu fast 100 % aus Spenden von Leserinnen und Lesern. netzpolitik.org: „Unterstütze unsere Arbeit mit einer Spende oder einem Dauerauftrag.“

Um der Krise Herr zu werden, sendet Press Association (PA) ihren Kunden seit Kurzem eine neue Art von Texten. Das Zauberwort lautet Roboterjournalismus. Mit 700.000 Euro von Google und der Hilfe eines Start-ups bauen die Journalisten von PA gefinkelte Vorlagen, die aus Datensätzen für jede Region, ja jede Postleitzahl in Großbritannien eigene Geschichten schreiben.

Viel Journalismus mit wenig Aufwand

Roboter bedeuten viel Inhalte für wenig menschlichen Aufwand. Das wirft eine brisante Frage auf: Wie wirkt es sich auf den öffentlichen Diskurs aus, wenn Algorithmen immer mehr solcher Texte generieren?

Dazu muss erklärt werden, wie Roboterjournalismus funktioniert. Eine Software frisst Statistiken und erstellt daraus eine faktenbasierte Geschichte. Im Fall von PA geht es um Datensätze der Regierung, etwa zu Geburtenraten, den Wartezeiten in Krankenhäusern oder Kindern mit Gewichtsproblemen. Die Stories gießen trockene Zahlen in Worte und produzieren ganze Artikel samt Schlagzeilen, etwa: „Nahezu eines von drei Kindern in Lewisham ist dickleibig, enthüllen Daten“.

Die Lokalzeitung brachte kurz vor Neujahr eine computergenerierte Story über die städtische Abfallwirtschaft auf ihrem Titelblatt. Beim Titel hat wohl ein Mensch nachgeholfen. All rights reserved Norwich Evening News

Die Roboter-Geschichten finden willige Abnehmer. In Blättern wie den Norwich Evening News und dem Cambridge Independent schreibt die Software von PA bereits Titelgeschichten. Noch läuft das „Radar“ genannte Projekt in der Testphase. In Kürze, wenn Radar voll einsatzfähig ist, soll es monatlich bis zu 30.000 Geschichten produzieren. Damit will die Nachrichtenagentur den Hunger der finanziell ausgebluteten Lokalblätter nach Inhalten stillen. „Was Radar uns erlaubt, ist, mit einer kleinen Anzahl zusätzlicher Journalisten mehr lokale Geschichten zu produzieren“, sagt Pete Clifton, der Chefredakteur von PA.

Der Roboterjournalist berichtet über lokale Daten, die menschliche Journalisten zuvor nur auf nationaler Ebene behandeln konnten. Das erlaube selbst in kleinen Orten Berichterstattung und damit eine faktenbasierte Debatte, sagt PA-Chefredakteur Clifton. „Es ist eine fantastische Übung in Demokratie.“

Automatisierung macht die Massenproduktion von etwas möglich, das bisher Handwerk war. In der Welt, die wir kannten, suchte jede Lokalzeitung ihren eigenen Zugang zu einem Thema, jeder Journalist schrieb auf Basis der selben Fakten eine zumindest leicht andere Geschichte. In Großbritannien zeichnet sich nun ein neuer Weg ab: Selbst lokale Nachrichten werden nun aus der selben Vorlage gegossen, aus dem gleichen Blickwinkel geschrieben.

Konservativ, kontextfrei, konfrontativ

Wie problematisch die Roboternachrichten sein können, macht ein Blick auf zuletzt veröffentlichte Geschichten der Press Association deutlich. Hier drei [aktuelle] Beispiele:…

weiter bei Netzpolitik.org

(ein Beitrag von 

Hold my beer

1. Mai 2017

Sagt mal, fragt fefe gerade, „könnte eine Webseite wie Facebook nicht erkennen, in welchem emotionalen Zustand verwundbare Teenager sind, und dann entsprechend teurere Werbung nehmen? Also beispielsweise wenn es jemandem besonders gut geht?

Hold my beer, sagt Facebook!

According to the report, the selling point of this 2017 document is that Facebook’s algorithms can determine, and allow advertisers to pinpoint, „moments when young people need a confidence boost.“ If that phrase isn’t clear enough, Facebook’s document offers a litany of teen emotional states that the company claims it can estimate based on how teens use the service, including „worthless,“ „insecure,“ „defeated,“ „anxious,“ „silly,“ „useless,“ „stupid,“ „overwhelmed,“ „stressed,“ and „a failure.“

Ach du Armer, komm, hier, eine Palette Häagen Dasz und ein paar wertlose selbstwertsteigernde Bullshit-Produkte!“