Facebook und die Hassprediger

internet-hetze-facebook-landgericht-wuerzburg

Facebook und Co. sollen gegen Hasskommentare, Hetze und Fake News vorgehen. Doch gerade Facebook, der größte Social Media-Konzern, zeigt nicht wirklich großes Interesse daran, solchen Content zu löschen. Es scheint fast, als wäre das Gegenteil der Fall…?

Die Debatte um Hetze, Fake-News und Hasskommentare in den sozialen Medien bebt seit der Kandidatur von Donald Trump und dem Aufstieg der AfD unermüdlich. Nachdem sich schließlich alle darauf verständigten, die Sozialen Medien sollten diesen Content löschen, wurde der Spielball der Verantwortung zu eben diesen gespielt. Man sei nun an der Reihe, etwas zu tun.

Facebook gibt sich engagiert

Die Betreiber der Sozialen Netzwerke beteuerten, dass sie bereits Mitarbeiter für die Prüfung von nutzerbasiertem Content abgestellt hätten. Facebook zum Beispiel, möchte durch die Mitgliedschaft in der „Freiwilligen Selbstkontrolle Multimedia-Dienstleister“ (FSM) signalisieren, dass die Thematik auch für die Betreiber von großer Relevanz sei. Denn mit der Mitgliedschaft im FSM geht nicht nur die Anerkennung des deutschen Jugendschutzes sondern auch die Verpflichtung zu Stichproben einher.
Dafür müssen die Mitglieder auch Mitarbeiter einstellen, welche sich um die Qualitätskontrolle kümmern.

Die Wahrheit ist anders: Es herrscht akuter Personalmangel

Auf Anfrage des NDR, wie viele Mitarbeiter man dafür nun konkret abgestellt hätte, lautete die Antwort des Konzerns so: Man habe genug und justiere bei Bedarf nach.
Laut einem Report der Zeitung Spiegel-Online beschäftige Facebook in Irland, den USA sowie Indien Mitarbeiter in diesem Bereich, nicht aber in Deutschland.
Der Tagesspiegel fügte hinzu, dass diese Mitarbeiter pro Meldung auch nur 10 Sekunden Zeit hätten, wobei sie auch noch diverse Handbücher mit ständig aktualisierten Regeln beachten müssten.
Zwar beteuert Facebook, jede Meldung werde von einem Muttersprachler in ausreichender Art und Weise bearbeitet, dennoch kann und darf niemand überprüfen, wie viele Mitarbeiter Facebook dafür beschäftigt und wie gewissenhaft diese arbeiten.
Das kann im Grunde genommen nur eines heißen:
Facebook beschäftigt in diesem Bereich offenbar definitiv zu wenige Mitarbeiter. Denn wäre die Anzahl hoch genug gewesen, hätte für den Konzern kein Grund bestanden, diese nicht anzugeben.
Schließlich hätte die Nachricht von einer ausreichenden Mitarbeiterzahl in diesem Bereich Facebook endlich mal wieder aus den Negativschlagzeilen holen können.

Selbstversuch: Wir haben Hate-Speech gemeldet

Auf Anfrage, wie die Überprüfung gemeldeter Nachrichten ablaufe, verweist Facebook nur auf eine komplizierte Infografik. Hilfreich ist die allerdings nicht.

Scheinbar gibt es einen Kontrollmechanismus. Doch der funktioniert nicht wirklich.

Scheinbar gibt es einen Kontrollmechanismus. Doch der funktioniert nicht wirklich.

Daher haben wir einen konkreten Fall getestet.
Ein Nutzer forderte in einer Kommentarsektion die öffentliche Auspeitschung der Bundeskanzlerin sowie das Erhängen von Flüchtlingen. Und das wäre noch der halbwegs „höflich“ formulierte Inhalt der Nachricht.
[Hinweis: Aus Respekt vor den betroffenen Personen(-gruppen) ist der entsprechende Kommentar hier nicht abgebildet.]
Daraufhin meldete unsere Redaktion den Kommentar als „Verherrlichung von drastischer Gewalt“. Wir erhielten nach etwa einem Tag die Antwort von Facebook:
„Wir haben den von dir […] gemeldeten Kommentar geprüft und festgestellt, dass er nicht gegen unsere Gemeinschaftsstandards verstößt.“

Was sind denn Facebooks interne Gemeinschaftsstandards?

Trotz strafbaren Inhalts weist Facebook die Meldung zurück.

Dieses Verhalten wurde auch schon des Öfteren von anderen Nutzern gemeldet.
Wer das nachprüfen möchte, muss sich nicht allzu große Mühe geben. In jeder Kommentarsektion, bspw. der Tagesschau, finden sich unangemessene, beleidigende und teils rassistische Kommentare, die trotz Meldung größtenteils nicht gelöscht werden.
Da stellt sich schon die Frage: War das eine automatisierte Antwort ohne oder mit mangelhafter Überprüfung? Oder was entspricht denn nicht den „Gemeinschaftsstandards“ von Facebook?

Facebook tut wenig bis nichts. Und das mit Absicht.

Facebook beteuert zwar, es tue bereits viel – dies entspricht aber bei weitem nicht dem Handeln der Plattform. Laut einer Studie von jugendschutz.net löscht Facebook nur 39 % aller Hasskommentare. Im Vergleich: YouTube löscht mehr 90 % aller Hasskommentare.
Wie in unserem Fall zeigt Facebook weder in seinen Gemeinschaftsstandards, noch bei deren Ausführung großes Interesse daran, auch rechtswidriges Gedankengut von seiner Plattform zu verbannen.
Dass Facebook anstößige Beiträge und Kommentare nicht löscht, hat aber auch einen Grund: Schuld ist eine Facebook-innere Logik.
Zum einen tut sich das Unternehmen mit Zensur schwer, da Meinungsfreiheit im Mutterland, also den USA, viel breiter definiert ist.

Zum anderen sieht Facebook eher die Nutzer in der Verantwortung.
Damit ist aber nicht gemeint, dass die entsprechenden Publishers der anstößigen Kommentare dies einfach nicht tun sollen. Viel eher stehe die Verantwortung bei allen anderen, die sich korrekt verhielten.
Diese Logik nennt man das Counter-Speech Prinzip. Demnach soll eine Hassbotschaft durch die Nutzer mit gegenteiligen Meinungen neutralisiert werden, was fatale Folgen nach sich zieht.
Der Post bleibt stehen und andere Nutzer werden weiter davon beeinflusst, beleidigt und polarisiert.
Für uns klingt das nicht nur pervers, sondern auch viel eher nach einer bequemen Das-geht-uns-doch-nichts-an-Haltung.

Auch gegen Fake-Profile, Social Bots und ähnliches geht der Konzern nicht vor – schließlich kann man daran verdienen. Was die Sache leider nicht besser macht.

FAZIT – Ein Gesinnungswandel bei Facebook muss her.

Eigentlich wäre gerade eine Qualitätskontrolle des nutzerbasierten Contents besonders wichtig, denn gerade solche Posts gefährden die Demokratie und die Basis, auf der sie fußt, also die Grundrechte, in erheblicher Weise.
Zudem distanzieren sich schon einige Unternehmen von Online-Werbung bei Facebook wegen dieses Verhaltens.
Der Konzern hat zwar schon ein paar wenige Gegenmaßnahmen angekündigt, viel wichtiger wäre aber ein Gesinnungswandel. Was in den USA in Ordnung scheint, muss nicht auch im europäischen Kulturraum O.K. sein.
Für den angepöbelten Nutzer bleibt einfach nur eine Strategie:
Melden und Anzeige erstatten. Mehr lässt sich leider nicht tun.

Julian Dennig

Julian ist 17 Jahre alt und Redakteur bei E4SY. Er besucht die 11. Klasse eines Gymnasiums in Baden-Württemberg. Hauptsächlich schreibt er über Politik, Wirtschaft sowie Filme und Serien.

Das könnte auch interessant sein...

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *