Longread: Tiktok

26. November 2019

Noch nie ist eine Plattform so schnell gewachsen wie TikTok. Wir haben exklusiven Einblick in die Moderation bekommen und veröffentlichen Ausschnitte aus den Moderationsregeln: TikTok betreibt ein ausgeklügeltes System um Inhalte zu identifizieren, zu kontrollieren, zu unterdrücken und zu lenken. Die Plattform kann nach ihren Regeln Videos von Protesten und Demonstrationen drosseln.

Tiktok Screenshot mit Chinaflagge und Logo
TikTok steht für Spaß und Kreativität. Um die Meinungsfreiheit auf der Plattform ist es aber schlecht bestellt. Alle Rechte vorbehalten Screenshot TikTok.com / Montage netzpolitik.org

Keine App wurde im vergangenen Jahr so oft herunter geladen wie TikTok. Die Videosharing-Plattform wächst rasant. Im November 2019 durchbrach TikTok die 1 Milliarde-Nutzer:innen-Schallmauer – so schnell wie kein anderes soziales Netzwerk je zuvor. Die Video-App und ihre Kultur ist bei Kindern und Jugendlichen derzeit so angesagt, dass selbst die Tagesschau inzwischen einen eigenen Account dort betreibt.

Recherchen von netzpolitik.org zeigen jedoch: TikTok kann bis heute Videos von politischen Protesten und Demonstrationen unterdrücken und darüber hinaus auf vielfältige Weise bestimmen, welche Inhalte sichtbar und welche unsichtbar sind.

Exklusiver Einblick in die Moderation

Für diese Recherche hat netzpolitik.org mit einer Quelle bei TikTok gesprochen, Moderationskriterien und Kommunikationen eingesehen sowie mit eigens dafür erstellten Accounts Versuche gemacht, wie gut Videos mit chinakritischen Inhalten auf der Plattform sichtbar sind.

TikToks Moderationsregeln, von denen netzpolitik.org unterschiedliche Versionen einsehen konnte, sind bemerkenswert dünn und weit interpretierbar – auch für die Moderator:innen selbst. Die Strategie ist jedoch klar: Bestimmte Inhalte bekommen eine möglichst große Reichweite, während andere systematisch unterdrückt werden.

Die Erfolgsplattform gehört dem chinesischen Technologieunternehmen ByteDance. Bereits im September hatte der Guardian aus geleakten Dokumenten berichtet, wie TikTok politische Äußerungen zum Tiananmen-Massaker oder der Unabhängigkeit Tibets zensiert. Auch die Proteste in Hongkong, die derzeit weltweit mediale Aufmerksamkeit erregen, sind auf TikTok zwischen Selfies und Duetten so gut wie unsichtbar. Dabei ist die App auch in Hongkong verfügbar.

Nachts moderiert Peking

Die deutschsprachigen Videos auf TikTok werden von drei Standorten aus moderiert, berichtet die Quelle: Berlin, Barcelona und Peking. Am deutschen Standort sei die Führung chinesisch. Gearbeitet wird in 8-Stunden-Schichten, während denen um die 1.000 Tickets abgearbeitet werden sollen. Das ist knapp eine halbe Minute pro Ticket, für Videoinhalte ist das sehr wenig Zeit. Die Löhne sind sehr unterschiedlich, der Druck auf einzelnen Moderator:innen hoch, die Stimmung im Team sei „toxisch“, berichtet die Quelle.

Screenshots aus TikTok-Videos
Gute Laune, kaum Politik. Doch das liegt nicht nur an den Nutzer:innen. Alle Rechte vorbehalten Screenshots TikTok.com

Moderiert wird laut der Quelle in drei Review-Stufen. Der erste Review findet schon nach 50 bis 150 Videoansichten in Barcelona statt. Berlin ist für den zweiten Review bei 8.000 bis 15.000 Ansichten und den dritte Review bei etwa 20.000 Ansichten zuständig. Nachts moderieren deutschsprachige Chines:innen von Peking aus Inhalte. Das bestätigt auch TikTok gegenüber netzpolitik.org.

Im Gegensatz zu Facebook sind die Moderationsregeln sehr knapp gehalten: Sie passen nach Auskunft der Quelle in eine wenige Seiten lange Tabelle. Die Anweisungen, die netzpolitik.org einsehen konnte, sind verwirrend vage. Das lässt viel Spielraum für Interpretationen, die Einschränkung von Inhalten kann sehr weit ausgelegt werden, weil das Regelwerk nicht den in vielen Fällen deutlich klareren Charakter von Facebooks-Moderationskriterien hat.

Löschen, Bremsen, Pushen

Die Regeln unterteilen unliebsame Inhalte in vier Kategorien. Das berichtet die Quelle und zeigen die Moderationsregeln, die netzpolitik.org einsehen konnte. Videos, die komplett gegen die Auflagen der Plattform verstoßen, werden gelöscht („Deletion“). Andere Inhalte werden als „visible to self“ markiert. Dadurch kann eine Nutzerin das Video selbst noch sehen, andere aber nicht mehr.

Eine Markierung als „not for feed“ oder „not recommend“ bedeutet, dass das Video nicht mehr im algorithmisch kuratierten Newsfeed auftaucht, den die Nutzer:innen beim Öffnen der App sehen. Die Markierung kann auch zu einer Benachteiligung bei der Suche und Auffindbarkeit in Hashtags führen, sagt die Quelle. Solche Beiträge werden also streng genommen nicht gelöscht – sie haben aber faktisch kein Publikum mehr.

Die Videos erhalten unterschiedliche Sichtbarkeitsstufen, die über die Reichweite entscheiden. CC-BY 4.0 netzpolitik.org

Für die nicht eingeschränkten Videos gibt es hingegen zwei Stufen. Die meisten werden als „General“ bezeichnet, hier können allerdings über die Markierung von „Risks“ die Inhalte regional gesperrt oder heruntergedrosselt werden.

Videos, deren Verbreitung die Marketingabteilung extra verstärken will, kann sie mit der Markierung „Featured“ pushen. TikTok bestätigte netzpolitik.org gegenüber nur die Existenz von „Deletion“, „visible to self“ und „Risks“. Die „Risks“ seien notwendig, damit die Videos nicht gegen lokale Gesetze in bestimmten Ländern verstoßen.

Nicht nur Inhalte können ausgebremst werden, auch ganze Hashtags, erzählt uns die Quelle. Überhaupt scheint TikTok ein System des Promotens und Ausbremsens zu fahren, bei dem bestimmte Inhalte sichtbar und viral sind, andere hingegen nie durchstarten und keine Sichtbarkeit erhalten. Die Kontrolle über das, was Menschen auf TikTok sehen, liegt vor allem in der Hand des Unternehmens.

Gelenkte Inhaltspolitik

Proteste seien generell nicht gerne gesehen auf der Plattform, sagt die Quelle. Grundsätzlich gäbe es aufgrund der Ausrichtung von TikTok weniger Protest-Inhalte als auf anderen Plattformen, aber oftmals schafften es solche Videos gar nicht erst bis ins Marketing, sondern würden vorher schon beim ersten Sichten in der Moderation an anderen Standorten wie Barcelona gelöscht. Dabei sehen die „Löschteams“ gar nicht die Videos, sondern nur einzelne Frames an, der Ton wird nur auf Verdacht angehört. Tiktok bestreitet, dass es Inhalte aufgrund ihrer politischen Ausrichtung moderiere.

Kommt ein Inhalt zum Marketing-Team durch, bestimmt dieses über die Zusammenstellung des kuratierten For-You-Feeds, der den Nutzer:innen algorithmisch zugeschnitten ausgespielt wird.

Während der Moderation markieren die Moderator:innen Inhalte nicht nur für Löschung oder Bremsung, sie klassifizieren auch, was sie sehen. „Das soll beim Aufbau einer maschinellen Moderation helfen“, erzählt uns die Quelle, die Einblick in die Moderation hat. Tiktok dementierte gegenüber netzpolitik.org eine Verschlagwortung zum Anlernen von Künstlicher Intelligenz, algorithmische Systeme würden aber „zur Überprüfung beim Einstellen von Inhalten“ eingesetzt.

Kritik an Politik war früher aus Feed ausgeschlossen

Laut der Quelle habe TikTok nach der der Berichterstattung des Guardian im September und der darauf folgenden Kritik seine Moderationsregeln geändert. Dabei habe das Unternehmen gegenüber Mitarbeiter:innen explizit auf die schlechte Presse verwiesen, erzählt die Quelle. Das Ausmaß der Änderungen im September sei bis heute einzigartig gewesen, kleinere Modifikationen gebe es hingegen häufiger.

Tiktok hatte dem Guardian gegenüber von Mai gesprochen, gegenüber netzpolitik.org sagt das Unternehmen nun die signifikanten Änderungen seien „deutlich früher“ vorgenommen worden.

Bis zu dieser großen Änderung haben die Moderationsregeln Kritik an Politik und politischen Systemen quasi komplett ausgeschlossen. Ausgebremst wurde etwa, wer die konstitutionelle Monarchie, parlamentarische Systeme, Gewaltenteilung oder sozialistische Systeme kritisierte. Erst mit der großen Änderung wurde dieses „Politikverbot“ aus den Moderationsregeln getilgt.

Einen Ausschnitt aus der Moderationspolicy von TikTok (PDF), in dem mehrere Regeln vor und nach der Änderung festgehalten sind, veröffentlichen wir an dieser Stelle. Es handelt sich aus Quellenschutzgründen nicht um das Originaldokument, sondern um eine Abschrift.

Demonstrationen weiterhin einfach zensierbar

Geändert wurde auch das Ausbremsen der Darstellung so genannter „kontroverser Ereignisse“. Bis dahin zählten dazu generell Proteste, Ausschreitungen und Demonstrationen. Eine Liste zählte zusätzlich Beispiele auf wie die kurdische, tibetische oder taiwanesische Unabhängigkeitsbewegung. Nach der Änderung ist die Darstellung von Demonstrationen und Protesten nicht mehr per se eingeschränkt.

Allerdings können Demonstrationen mit dem Hinweis auf „mögliche gewalttätige Konflikte“ nach den aktuellen Regeln nach wie vor mit „not for feed“ markiert und heruntergeregelt werden. TikTok sagt, dass es keine solchen Inhalte enferne. Das allerdings war keine Antwort auf die gestellte Frage. Netzpolitik.org hatte nach der drosselnden Klassifizierung „not for feed“ gefragt, eine komplette Entfernung sahen die uns vorliegenden Versionen der Moderationspolicy sowieso nicht vor.

Screenshot Moderationskriterien
Im September hat TikTok die Moderationsregeln stark überarbeitet. Inhalte, die Demonstrationen zeigen, sind als „kontroverse Ereignisse“ weiterhin ausbremsbar – dank eines Gummiparagrafen.

Aus dem Feed verbannt waren früher auch Kritik an öffentlichen politischen Figuren, der Polizei und am Militär. Diese Regeln hat TikTok in Deutschland mittlerweile gestrichen, was das Unternehmen auch bestätigt.

LGTBQI-Inhalte werden in vielen Ländern nicht ausgespielt

Zudem wurden früher bestimmte Dinge als „Islam Offence“ markiert. Inhalte, die mit diesem Schlagwort markiert wurden, beispielsweise zwei küssende Männer, lösten einen Geoblock für bestimmte Regionen aus. Betroffen gewesen seien vor allem LGTBQI-Inhalte. Diese Regelung wurde nach Berichterstattung des Guardian abgeschafft. Oder besser gesagt: umbenannt.

Inhalte, die sich mit der sexuellen Orientierung beschäftigen, erhalten heute das Schlagwort „Risk 3.4“ – die Folge ist, wie auch beim „Islam Offence“ zuvor, dass diese Inhalte in islamischen Ländern ausgebremst werden. Die Markierung mit einem Risk, es gibt viele weitere, führten zu Geoblocking, sagt die Quelle. TikTok argumentiert, dass man sich an lokale Gesetze halten müsse.

Proteste in Hongkong sind kaum sichtbar

Da TikTok einem chinesischen Unternehmen gehört, ist besonders der Umgang mit den Demokratie-Protesten in Hongkong ein guter Gradmesser für Zensurversuche.

Schon im September hatten wir in der App und in der Webversion nach bestimmten auf anderen Netzwerken prominenten Hashtags wie #hongkongprotest, #freehongkong oder #antielab gesucht und keine oder nur sehr wenige Ergebnisse gefunden. Stattdessen wurden unter den Hashtags in der App Videos gezeigt, die nichts mit den Protesten zu tun hatten. Erst nach einer Presseanfrage bei TikTok in Deutschland wurden einige Videos sichtbar, auch solche, deren Upload wir mit einem eigens dafür erstellten Account versuchten.

Bei unserer Recherche im September waren die Proteste in Hongkong weitflächig ausgeblendet. Hashtags wie #joshuawong wurden nicht angezeigt (ganz links), angezeigte Videos hatten keinen Themenbezug (siehe andere drei Screenshots). Alle Rechte vorbehalten Screenshots App TikTok

Gegenüber netzpolitik.org sagte die Sprecherin des Unternehmens damals:

Nutzer sind auf TikTok, da die App ihnen eine positive, lustige Erfahrung bietet, bei der sie ihre Kreativität einbringen können. Kurzformatige, unterhaltsame Videos sind, was unsere Nutzer überwiegend auf TikTok hochladen und ansehen. TikToks Moderation folgt unseren Community Richtlinien und Nutzungsbedingungen und entfernt keine Videos rund um die Proteste in Hongkong.

Dieses überspezifische Statement kann heißen: Unsere Nutzer:innen laden gar nichts politisches hoch, es gibt kaum Videos zu den Protesten in Hongkong und wir löschen die auch nicht. Das Statement lässt aber komplett offen, ob TikTok Videos zu Hongkong mittels der unterschiedlichen Sichtbarkeitsstufen systematisch benachteiligt und so für die Öffentlichkeit unsichtbar macht oder gemacht hat. Die Suche nach dem Hashtag #JoshuaWong führte im September in der TikTok-App beispielsweise zu keinem Ergebnis. Es gab den Hashtag überhaupt nicht.

TikTok sagt gegenüber netzpolitik.org, dass es heute keine Inhalte zu den Protesten in Hongkong und auch zu Joshua Wong einschränke.

Die Welt am Sonntag hatte kürzlich bei einem Test festgestellt, dass die Suche nach aus Sicht der chinesischen Regierung brisanten Stichworten wie „falungong“, „tiananmenmassacre“ und „Tiananmensquare“ keine oder nur sehr wenige passende Beiträge liefere. Zahlreiche Suchen von netzpolitik.org in der App kommen zu einem ähnlichen Ergebnis.

„Handzahm und gelenkt“

Für Christian Mihr von Reporter ohne Grenzen bestätigen die Recherchen von netzpolitik.org die Befürchtungen, dass TikTok unter dem Einfluss des chinesischen Staates steht – obwohl es ein privates Unternehmen sei. Es sei Teil der Medienstrategie Pekings, seine totalitäre Vision handzahmer, gelenkter Medien auch international durchzusetzen.

„Wenn auf TikTok die Reichweite von Inhalten etwa über Proteste gedrosselt werden, passt das genau ins Bild, da Proteste in Hongkong oder Xinjiang, genauso wie im Ausland ein Tabuthema für Medien in China sind“, sagt Mihr. Er kritisiert das Vorgehen von TikTok als ein „Zeichen von großer Intransparenz“.

Update, 25.11.2019:

Nach Veröffentlichung des Artikels beharrt TikTok darauf, folgendes Statement zu ergänzen:

TikTok moderiert keine Inhalte basierend auf politischen Ausrichtungen oder Sensitivitäten. Unsere Moderationsentscheidungen sind durch keine fremde Regierung beeinflußt,was die chinesischen Regierung einschließt. TikTok entfernt weder Videos rund um die Proteste in Hongkong noch werden Videos rund um die Proteste in Hongkong in ihrer Reichweite unterdrückt. Das umschließt Inhalte zu Aktivisten.

Über diese Recherche und die Quellen:

Unser Wissen über die Moderation bei TikTok in Deutschland beruht auf einem mehrstündigen Gespräch von netzpolitik.org mit einer Quelle, die Einblick in die Moderationsstrukturen und die Policy hat. Wir haben die Identität der Quelle und ihren Arbeitsvertrag überprüft. Wir können und wollen die Quelle aus Gründen des Informantenschutzes nicht näher beschreiben.

—-

Sollten Sie weitere Informationen oder Dokumente zu TikTok haben, freuen wir uns über eine Kontaktaufnahme oder die direkte Zusendung von Informationen – gerne verschlüsselt. Nutzen Sie dafür keine Mailadressen, Telefonnummern, Netzwerke und Geräte des Unternehmens


ein netzpolitik.org-Beitrag von Markus Reuter und Chris Knöver auf http://www.netzpolitk.org. CC BY-NC-SA 4.0. Klickt mal rein.

Erfolgsmeldung

14. August 2019

Man hat dort heute Kraft seiner dienstlichen Wassersuppe in Landau an der Isar eine (1) „Ecstasy-Tablette“ gefunden und sicher gestellt. EINE! Und das als Erfolg verkauft. Kann irgendwer diesen Leuten vielleicht bitte mal das Internet wegnehmen?!

(Quelle: @das_kfmw

Der Hass kommt vor allem von rechts: Zwischen 80 und 90 Prozent aller Straftaten im Bereich Hasskriminalität gehen auf das Konto von Rechtsradikalen. In der neuen Kategorie „Hassposting“ stammen drei von vier der strafbaren Inhalte aus dem rechten Lager.

Seit dem Januar 2017 erfasst das Bundeskriminalamt Hasspostings in einer eigenen Kategorie. In den Jahren 2017 und 2018 dominierten rechte Hasspostings mit überwältigender Mehrheit die neu eingeführte Zählung: Etwa drei Viertel aller Hasspostings hatten einen rechten Hintergrund. Das geht aus der Antwort der Bundesregierung auf eine Kleine Anfrage der Linkspartei hervor.

Das Bundesinnenministerium hat im Jahr 2018 bundesweit 1.472 Hasspostings gezählt. Davon wurden 1.130 der Politisch Motivierten Kriminalität (PMK) Rechts zugeordnet, 126 PMK Links, 49 einer religiösen Ideologie, 45 der PMK Ausländer und 122 waren nicht bestimmbar.

Im Jahr 2017 gab es mit insgesamt 2.270 Fällen mehr Hasspostings. In der Verteilung sieht es aber ähnlich aus. 1.681 Hasspostings gingen auf das Konto von Rechten, 198 basierten auf religiöser Ideologie, 122 kamen von links und 58 aus dem Bereich Ausländer. 211 Postings wurden nicht zugeordnet.

Unterschiedliche Definitionen für Hasspostings

Was ein Hassposting ist, wird mitunter leicht unterschiedlich definiert. Das Bundesamt für Verfassungsschutz sagt:

Hasspostings sind Beiträge im Internet, die in allen Phänomenbereichen im Rahmen von Debatten zu aktuellen Themen eine Emotionalität und zum Teil auch Schärfe aufweisen, die jenseits der freien Meinungsäußerung liegen beziehungsweise bei denen die Schwelle zur Strafbarkeit mitunter deutlich überschritten wird.

Das umfasse Drohungen, Nötigungen, Verunglimpfungen, extremistische Inhalte sowie unverhohlene Aufrufe zu Straf- und Gewalttaten.

Während der Verfassungsschutz die Strafbarkeit einer Aussage nicht zur zwingenden Bedingung macht, rechnet das Bund-Länder-Gremium „Kommission Staatsschutz“ (KST) nur Straftaten zu Hasspostings. Sie müssten …

[…] Anhaltspunkte dafür geben, dass diese wegen einer zugeschriebenen oder tatsächlichen politischen Haltung, Einstellung und/oder Engagements, Nationalität, ethnischer Zugehörigkeit, Hautfarbe, Religionszugehörigkeit, Weltanschauung, sozialen Status, physischer und/oder psychischer Behinderung oder Beeinträchtigung, sexuellen Orientierung und/oder sexuellen Identität oder äußeren Erscheinungsbildes kausal gegen eine oder mehrere Person(en), Gruppe(n), oder Institution(en) gerichtet sind.

Hasskriminalität mit dem „Tatmittel Internet“

Auch beim Oberthema Hasskriminalität, die mit dem Tatmittel Internet begangen wurde, dominieren Rechte das Feld. In den vergangenen Jahren gingen zwischen 80 und 90 Prozent aller Straftaten in diesem Gebiet auf das Konto von rechten Täter:innen. Insgesamt sind die Straftaten in diesem Themenfeld vor allem in den Jahren 2015 und 2016 stark angestiegen, und dann wieder etwas zurückgegangen. Sie blieben jedoch auf einem hohem Niveau.

Im Jahr 2017 fiel die Kategorie „Ausländer“ weg, stattdessen wird seitdem zwischen „Ausländische Ideologie“ und „Religiöse Ideologie“ unterschieden.

Die Zahlen im Überblick

  • 2010 –   377 Straftaten (303 Rechts, 35 Ausländer, 5 Links, 34 nicht zuzuordnen)
  • 2011 –   407 Straftaten (357 Rechts, 17 Ausländer, 8 Links, 25 nicht zuzuordnen)
  • 2012 –   492 Straftaten (437 Rechts, 18 Ausländer, 5 Links, 32 nicht zuzuordnen)
  • 2013 –   660 Straftaten (590 Rechts, 21 Ausländer, 10 Links, 39 nicht zuzuordnen)
  • 2014 – 1.119 Straftaten (945 Rechts, 108 Ausländer, 6 Links, 60 nicht zuzuorden)
  • 2015 – 3.084 Straftaten (2.853 Rechts, 92 Ausländer, 10 Links, 129 nicht zuzuordnen)
  • 2016 – 3.177 Straftaten (2.891 Rechts, 78 Ausländer, 16 Links, 192 nicht zuzuordnen)
  • 2017 – 2.458 Straftaten (2.283 Rechts, 54 Religiöse Ideologie, 38 Ausländische Ideologie, 12 Links, 71 nicht zuzuordnen)
  • 2018 – 1.962 Straftaten (1.798 Rechts,  39 Ausländische Ideologie, 38 Religiöse Ideologie, 11 Links, 76 nicht zuzuordnen)

Quelle: Netzpolitik.org, Markus Reuter –   CC BY-NC-SA 4.0.; Archivbild: Pegida-Demo in Dresden 2015) – CC-BY 3.0 Kalispera Dell

Entwicklung

31. Januar 2019

Dass das Internet immer kommerzieller wird, ist eine Binsenweisheit. Das heißt aber auch, dass es nicht durchgetaktete Angebote, die in den ersten Jahrzehnten das Netz prägten, immer schwerer haben. Wir sehen dies gerade auch in unserer Region. Es gibt da diese drei Beispiele:

Im vergangenen Sommer machte bspw. KEIFußball Schluss. Die Plattform war ganz nah dran an Spielern, Trainern und Vereinen im Fußball-Emsland und in der Grafschaft. Deutlich besser als Konkurrent fupa. Aber sie war betriebswirtschaftlich nicht so  aufgestellt wie der bisweilen aufgesetzt wirkende Konkurrent fupa, den NOZ-Medien in unserer Region trägt.

Dann hörte vor einigen Wochen lingen-ems.de auf. Die Seite brachte Gründer Jens Guschmann nämlich trotz aller Programmierkenntnisse viel Arbeit, aber dafür zu wenig Ertrag. Jetzt landet man auf einer Kommerzplattform, die mit Lingen so viel zu tun hat wie Lingens OB mit planvoller Stadtentwicklung. Also nichts.

Und heute nun ist nach knapp acht Jahren der letzte Tag für stadtblatt-lingen.de. Die Webseite (Logo links) hatte zwar mit dem historischen Stadtblatt nichts zu tun, das vor 40 Jahren zum ersten Mal eine, wenn auch nur monatlich erscheinende Gegenöffentlichkeit zur Lokalzeitung bot. Doch die stadtblatt-lingen.de-Internetseite kann den Verdienst in Anspruch nehmen, alle Presseerklärungen im Originaltext veröffentlicht zu haben. „Bei uns wird nicht gekürzt, gestrichen und verändert“, hieß es bislang auf der Stadtblatt-Webseite über das eigene Selbstverständnis. Daher lohnte sich mancher Vergleich mit dem, was dann zB die bereits erwähnte Lokalpresse daraus machte. Und jetzt liest man, dass die Energie der Macher erschöpft ist: „Noch eintreffende Meldungen werden wir bis zum 31.01.2019 einstellen. Am 31.03.2019 geht das Stadtblatt Lingen endgültig vom Netz.“

„Wir bedanken uns besonders bei allen Werbepartnern, Medienpartnern, Absendern von Nachrichten und Berichten für ihre Unterstützung. Unser Dank geht auch an die Leserschaft, die uns so lange die Treue gehalten hat. Ohne sie alle wäre das Stadtblatt nicht so lange lebensfähig gewesen.“

Wir alle nähern uns also nach Jahren der Alternative wieder dem Meinungsmonopol der Lingener Tagespost und ihrer Schwesterblätter. Das, so finde ich, ist keine gute Entwicklung…

Doxing

13. Januar 2019

Es geht also bei dem, was in der vergangenen Woche bekannt wurde, weniger um einen Hacker-Angriff aus Mittelerdehessen als um Doxing. Den Begriff kannte ich bisher nicht. Netzpolitik.org klärt in einem Kommentar die Leserschaft dieses kleinen Blogs an diesem regnerisch-stürmischen Sonntag auf, um was es bei Doxing geht:

„Nach dem Doxing-Angriff auf Politiker und Prominente liegen nun zahlreiche Reaktionen und Vorschläge für Gegenmaßnahmen auf dem Tisch. Wir haben sie angeschaut und bewertet.

Die Aufregung war groß. Die Bild-Zeitung sprach von einem Hacker-Angriff auf Deutschland und rief in giftgrünem Layout einen „Cyber-Alarm“ aus. Doch am Ende war es nur ein 20-jähriger Mann, der mit viel Eifer und Geschick, aber wenig technisch elaboriert viele Daten von Politikern und Prominenten sammelte – und öffentlichkeitswirksam im Internet publizierte. Der anfangs von vielen Medien als großer Hack eingeordnete Datendiebstahl fiel mehr und mehr in sich zusammen.

Der Angreifer ist eher ein so genanntes Scriptkiddie als ein echter Hacker. Am Ende blieb das, was die Fachwelt Doxing nennt: das Zusammentragen und Veröffentlichen personenbezogener Daten. Doxing ist im besten Fall jugendliche Angeberei, im schlechtesten Fall eine strategische Einschüchterung von politischen Gegnern. Die jetzige Attacke liegt vermutlich irgendwo dazwischen, hatte der junge Mann aus Nordhessen dem Angriff doch einen erkennbar rechten Drall verpasst und sich zuvor in einschlägigen Foren rechtsextrem geäußert. Auffällig war auch, dass er die rechtsradikale AfD bei seinen Veröffentlichungen aussparte, während Prominente wie Jan Böhmermann, die sich gegen rechte Umtriebe engagieren, besonders in den Fokus gerieten. Das Bundeskriminalamt will dennoch keinen politisch motivierten Hintergrund der Tat sehen.

Die große persönliche Betroffenheit von Politikern führte schnell zu einer breiten und überfälligen Debatte um Datensicherheit – und direkt zu Vorschlägen, wie solche Angriffe in Zukunft verhindert und auch die Bürgerinnen und Bürger besser geschützt werden könnten. Diese Diskussion ist erst einmal gut, auch wenn der Auslöser den Betroffenen schadet. Denn der Vorfall zeigt schmerzhaft, wie schlecht die Daten vieler Menschen vor unbefugtem Zugriff geschützt sind.

Breite Debatte um Datensicherheit

So machte auch das Bundesamt für Sicherheit in der Informationstechnik (BSI) keine gute Figur. Es wurde schon im Dezember 2018 auf einzelne Fälle aufmerksam gemacht, brachte diese aber bis zur Veröffentlichung der gesamten Daten am 3. Januar offenbar nicht im Zusammenhang. Bundesinnenminister Seehofer (CSU) versprach der Behörde 350 neue Stellen. Das ist ein richtiger Schritt, doch wichtiger wäre es, das BSI als unabhängige Behörde aufzubauen. Derzeit ist es dem Innenministerium unterstellt.

Nur ein unabhängiges BSI könnte auch zum Schutz des Bundestagsnetzwerks und der Abgeordneten eingesetzt werden. Bisher kann das BSI hier nur beratend und unterstützend tätig werden, die Regierungsnetze schützt es jedoch operativ. Solange das BSI dem Innenministerium unterstellt ist, ist eine solche Konstellation für den Bundestag schwer verstellbar: Die Exekutive hätte sonst Einblick in die Netze, Daten und Kommunikation der Legislative.

Bundesinnenminister Seehofer (CSU) sprach als Reaktion auf den Doxing-Fall vom Aufbau eines „Cyber-Abwehrzentrum Plus“, konkretisierte die Pläne aber nicht. Außerdem kündigte sein Ministerium ein neues IT-Sicherheitsgesetz an, das eine bessere Früherkennung der Veröffentlichung gestohlener Daten ermöglichen solle. Aussagen des Innenstaatssekretärs Stephan Mayer (CSU) in der ZDF-Sendung „Maybritt Illner“ am Donnerstagabend deuten darauf hin, dass es sich dabei um eine Echtzeit-Überwachung der gesamten Kommunikation in sozialen Netzwerken handeln könnte. Eine solche Überwachung würde jedoch einen schwerwiegenden Eingriff in Grundrechte darstellen.

Neue Grundrechtseingriffe durch Frühwarnsystem?

Im Gespräch sind auch gesetzliche Regelungen, die eine schnellere Reaktionszeit von sozialen Netzwerken wie Twitter verlangen. Der jugendliche Angreifer hatte mehrere Accounts auf dem Kurznachrichtendienst zur Verbreitung seiner Veröffentlichungen genutzt. Der Dienst sperrte erst einige Stunden nach Hinweisen die Accounts, allerdings hatten da schon viele Nutzer die Daten gesehen und weiterverbreitet. Eine geringere Reaktionszeit könnte zwar die Verbreitung solcher Veröffentlichungen eindämmen, bringt aber auch Probleme mit sich. Die von staatlichen Stellen angefragten Unternehmen hätten nur sehr wenig Zeit, den Fall selbst zu überprüfen und (juristisch) einzuschätzen. Es bestünde die Gefahr, dass zu viel gesperrt und gelöscht würde, wenn staatliche Stellen auf Zuruf und ohne Gerichtsbeschluss die Löschung von Inhalten und Accounts – unter Androhung von Strafgeldern – erwirken können. Hier wäre ein Eingriff in das Grundrecht auf Meinungsfreiheit die Folge.

Den wohl unsinnigsten Vorschlag in der Debatte machte der Union-Fraktionsvize Thorsten Frei. Er forderte, man solle die rechtlichen Rahmenbedingungen für einen „Hackback“ schaffen. Darunter versteht man eine Art digitalen Gegenschlag nach dem Motto „Angriff ist die beste Verteidigung“. Diese Art von Gegenangriffen sind mit mannigfaltigen rechtlichen Problemen verbunden und nicht immer technisch sinnvoll. Sie sind es definitiv nicht in einem Fall, wo Nutzerinnen und Nutzer schlechte Passwörter benutzen, deswegen ein Angreifer an persönliche Daten gelangt und diese dann im Netz breitflächig veröffentlicht. Der staatliche digitale Gegenschlag müsste in diesem Fall die Server von Twitter, aber auch die von zahlreichen Internet-Hostern, auf denen die personenbezogenen Daten lagern, attackieren, diese lahmlegen und vielleicht sogar die Daten auf diesen Servern löschen, um die Verbreitung abzustellen. Das ist mit keinem Recht der Welt vereinbar.

Defensive Strategie und Aufbau von Digitalkompetenz nötig

Überhaupt schwächt staatliches Hacking die IT-Sicherheit für alle Bürger. Dies zeigt der Einsatz von Staatstrojanern. Diese Maßnahme wurde in den letzten Jahren auf Bundesebene und in vielen Bundesländern eingeführt. Für den Einsatz von Staatstrojanern benötigt man Sicherheitslücken in Computerprogrammen. Wird der Staat zum Hacker, der seine Staatstrojaner nutzen will, hat er plötzlich ein Interesse, dass diese Sicherheitslücken offen bleiben. Dafür muss er sie selbst finden oder auf dem Schwarzmarkt einkaufen. Staatstrojaner und Online-Durchsuchungen sind also nicht nur aus bürgerrechtlicher Sicht eine Bedrohung, sondern auch für die Datensicherheit aller.

Denn sinnvoller als staatliches Hacking ist eine breit angelegte Kampagne zur Verbesserung der Datensicherheit. Neben einer personellen Stärkung der Datenschutzbehörden könnte digitale Kompetenz unterschiedlichster Zielgruppen gefördert werden, damit diese lernen, wie sie sich besser schützen. Dabei ist Datensicherheit nur ein kleiner Teil der zu vermittelnden Digitalkompetenz.

Frank Rieger vom Chaos Computer Club schlug im ZDF eine defensive Cyberstrategie mit über lange Zeit fortgesetzten Investitionen in sichere Informationstechnik vor: „Der beste Ansatz dazu ist die staatliche Finanzierung einer breiten Landschaft von Open-Source-Komponenten, die in sicheren Programmiersprachen nach modernen Kriterien geschrieben, regelmäßig auditiert und die auch kommerziell verwendet werden können.“ Zu diesen Werkzeugen gehören auch Passwortmanager und eine einfach zu bedienende E-Mail-Verschlüsselung, die dahingehend entwickelt werden müssen, dass sie überall funktionieren und leicht zu bedienen sind. Denn ein großer Teil der Schlacht um Datensicherheit kann nur auf den Computern und Smartphones der Bürgerinnen und Bürgern gewonnen werden.

Für die Stärkung der Datensicherheit und des Datenschutzes kann viel getan werden. Bislang ist nur ein kleiner Teil der Vorschläge aus der Politik dazu geeignet, vergleichbare Fälle in Zukunft zu einzudämmen oder zu verhindern. Es wird sich allerdings zeigen müssen, ob die Politik sinnvolle Maßnahmen ergreift oder solche, die wieder einmal die Grundrechte der Bürgerinnen und Bürger beschneiden.


Ein Beitrag von  auf netzpolitk.org (CC  Creative Commons BY-NC-SA 4.0.

mehr…

Hurensohn

25. Februar 2018

Inzwischen treib ich mich jetzt schon eine Ewigkeit im Netz herum. Meine erste Webseite hatte ich 1996. Damals gab es noch angenehme Diskussionen um Netiquette; so hieß das aus dem englischen net für das „Netz“ und dem französischen etiquette stammende Wort für „Verhaltensregeln“, die das gute oder angemessene und achtende (respektvolle) Benehmen im Internet bezeichnete. Das hat sich inzwischen ebenso weiter entwickelt wie die deutsche Politik, in der der Pöbel jetzt Nazigeschrei bejubelt.

Und wie geht es heute zu? Guck’ste mal hier:

(gefunden bei Schlecky Silberstein)

Füttern? Füttern!

23. Oktober 2016

„Don’t feed the troll“ – so lautet eine alte Weisheit aus den frühen Internettagen. Im Grundsatz hat sie auch heute noch Relevanz: Netzkommentatoren mit einem Faible für Provokation oder dem Bedürfnis, ihren Frust an anderen zu entladen, drehen dann so richtig auf, wenn sie Beachtung erfahren. Auf Trolle nicht weiter einzugehen, kann somit ein Ansatz sein, um sich Zeit, Ärger und schlechte Laune zu ersparen.

Doch angesichts einer um sich greifenden Polarisierung in der digitalen Welt hat das Nichtreagieren auf Trolle einen enormen Nachteil: Der fehlende Widerspruch auf hetzerische, pöbelnde und populistische Parolen produziert ein verzerrtes Gesamtbild. So werden aus Minderheitsmeinungen für den flüchtigen äußeren Beobachter, für Journalisten und Politiker, aber auch für die Trollenden selbst scheinbare Mehrheitsmeinungen. Erst recht, seit immer mehr Social Bots [mehr hier…] in den Debatten bei Facebook und Twitter mitmischen.

Ein verlässliches Bild davon, wie viele Personen tatsächlich hinter einer extremen Position und dem dazugehörigen Hashtag stehen, lässt sich ohne tiefgehende Analysen kaum erhalten. Bots, Trolle aus Fleisch und Blut (teilweise mit mehreren Accounts) sowie Sympathisanten und Mitläufer agieren in gemeinsamer Mission und schaffen es teilweise, mit fragwürdigen Standpunkten, Desinformation und der Verbreitung falscher Fakten alle moderaten Anwendergruppen zu übertönen.

Trollen widersprechen, ohne sie überzeugen zu müssen

Das Ausbleiben konfrontierender Reaktionen wird in einer solchen Umgebung zum Problem. Bislang sind es primär einige wenige Aktivisten und Einzelkämpfer, die sich mit Trollen anlegen. Doch die breite, die Extrempositionen der Populisten und Radikalen nicht teilende Netzöffentlichkeit kann etwas tun: Sie kann aufhören, die Trolle* zu ignorieren, und sie stattdessen zur Rede stellen.

Wohlgemerkt nicht mit…

[weiter bei t3n.de]

ländlicher Raum

10. August 2016

Das SommerlochPeter Hauk ist in Baden Württemberg seit dem 12. Mai 2016 im Kabinett Kretschmann II in der grün-schwarzen Koalition der verantwortliche Landesminister für den Ländlichen Raum, Verbraucherschutz und Landwirtschaft. „Verbraucherschutz“ ist das wenigste, was er kann, ansonsten ist er Diplom-Forstwirt. Als strammer Katholik im ländlichen Raum ist er außerdem seit vier Wochen standesgemäß das dritte Mal verheiratet

Wikipedia weiß über den Mann: „Im Mai 2014 distanzierte sich Hauk nach massiver innerparteilicher Kritik von seinem Vorschlag, dass die CDU auch künftig mit der AfD koalieren könnte.“

Die CDU hat die jüngste Landtagswahl in Baden Württemberg verloren, und für sie sitzen fast nur noch Kandidaten aus dem „ländlichen Raum“ im Stuttgarter Landtag. Also da, wo die Menschen auch einen schwarzen Stock wählen, wenn das Schild CDU dran geklebt ist. [Das soll ja auch andernorts nicht unbekannt sein].

Peter Hauk also fordert aktuell ein härteres Vorgehen gegen Straftaten und Hetze im Internet. Außerdem plädiert er für eine Deutschpflicht in sozialen Netzen. Auch Gewaltspiele sollten unter die Lupe genommen werden.

„Welch‘ ein Befreiungsschlag“, kommentiert sarkastisch Felix von Leitner! Man sieht die ganzen liberalen Grundwerte, die hier vertreten werden, wenn der Staat den Menschen mehr Freiheiten geben will! 

Bei der Deutschpflicht in sozialen Netzen geht es übrigens um die Türken, die sich jetzt als Erdogan-Anhänger herausgestellt haben. Offensichtlich hat das baden württembergische Landesamt für Verfassungsschutz das vorher nicht mitbekommen, weil ihnen Übersetzer für die türkische Sprache fehlten. Daher sollen die Leute jetzt eben angehalten werden, alles  gleich auf Deutsch zu schreiben. Das geht ja auch wirklich nicht, dass die Bürger die wohlmeinende Totalüberwachung des Staates durch die Nutzung von Feindsprachen als Chiffre sabotieren!

(Quelle Fefe; Bild Peter Hauck CC-BY-SA 4.0)

Netzsperren

21. Juni 2016

Die EU-Abgeordnete Monika Hohlmeier von der CSU ist aktuell die treibende Kraft für die Einführung von Netzsperren innerhalb der Europäischen Union. Und sie könnte sich damit erfolgreich durchsetzen. Netzpolitik.org warnt und informiert:

Als Reaktion auf die Anschläge in Paris hat die EU-Kommission einen Prozess für eine Richtlinie zur Terrorismusbekämpfung gestartet. Um Aktionismus zu simulieren und das subjektive Sicherheitsgefühl zu stärken wurde dabei die Überholspur innerhalb der EU gewählt und die Richtlinie anschließend ohne ein „Impact Assessment“ (Folgenabschätzung) in den Gesetzgebungsprozess gebracht. Ein solches Impact Assessment gleicht den Gesetzesentwurf mit empirischen Befunden ab und zeigt mögliche Alternativwege auf. Dies ist üblicherweise für alle Gesetzesvorschläge notwendig. In diesem Fall nicht und das sollte bereits zu denken geben.

Die EU-Staaten nahmen die Einladung für den schnellen Gesetzgebungsprozess dankend an und wünschten sich für die Richtlinie neue Absätze, welche die Blockade von Webseiten erlauben, die „öffentlich zur Begehung terroristischer Straftaten auffordern“, ohne Hinweise darauf, ob der Inhalt legal oder illegal ist oder warum solche Websperren ihrer Ansicht nach eine gute Idee sind. Dazu kommt noch der Vorschlag der Mitgliedstaaten, die „Erfassung, Registrierung und Aufnahme von Äußerungen und Gesprächen in privaten oder öffentlichen Fahrzeugen oder an privaten oder öffentlichen Orten sowie von Bildmaterial von Personen in öffentlichen Fahrzeugen und an öffentlichen Orten […]“ vorzusehen.

Nun kommt Monika Hohlmeier von der CSU ins Spiel. Sie ist Mitglied im Innenausschuss des EU-Parlaments und wurde zur Berichterstatterin der Richtlinie zur Terrorismusbekämpfung gewählt. Als Berichterstatterin hat man viel Macht und Einfluss, vor allem wenn der Gesetzgebungsprozess wie in diesem Fall durch das Schnellverfahren sehr intransparent ist und das Thema im EU-Parlament alleinig im Innenausschuss debattiert wird.

Heute steht im Innenausschuss die entscheidende Abstimmung an, mit welchen Positionen das EU-Parlament, vertreten durch Monika Hohlmeier, in die sogenannten Trilog-Verhandlungen mit EU-Kommission und EU-Rat gehen wird. Und plötzlich liegt ein „Kompromissvorschlag“ von Monika Hohlmeier auf dem Tisch, der die Idee der EU-Staaten zur möglichen Einführung von Netzsperren weiterdenkt und das verbindlicher formuliert….“

weiter bei Netzpolitik.org