Technische Maßnahmen gegen Hass im Netz

Im Kampf gegen Hass im Netz entstehen nicht nur zahlreiche neue Initiativen, es werden auch neue Tools entwickelt, wie z.B. der Hate speech blocker. Es handelt sich dabei um ein Browser-Plugin, das Hate Speech auf Sozialen Netzwerken wie Twitter und Facebook aufspürt und bekämpft. Es wurde als Gewinner des #peacehack 2016 ausgezeichnet, einem Wettbewerb, der innovative und praktische Lösungen für Konflikte auf der Welt auszeichnete.

Weiters ist die nicht kommerzielle Initiative Algorithm Watch zu erwähnen, die sich damit auseinandersetzt, wie eine Gesellschaft mit automatisierten, auf Algorithmen basierten Entscheidungen umgehen soll (Stichwort Algorithmic Decision Making – ADM). Die Initiative beschreibt ihre Ziele folgendermaßen: „Algorithm Watch ist eine nicht-kommerzielle Initiative mit dem Ziel, Prozesse algorithmischer Entscheidungsfindung zu betrachten und einzuordnen, die eine gesellschaftliche Relevanz haben – die also entweder menschliche Entscheidungen vorhersagen oder vorbestimmen, oder Entscheidungen automatisiert treffen“ (vgl. algorithmwatch.org).

Gegen den beschriebenen Trend der Algorithmen entstehen in jüngerer Vergangenheit Anwendungen, die User*innen ermöglichen, ihre eigenen Inhalte zusammenzustellen. Zu nennen wäre hier z.B. piqd. Der Name ist abgeleitet vom englischen to pick (auswählen). Piqd nennen ihr Projekt „Die Programmzeitung für das gute Netz“. Sie beschreiben ihr Ziel folgendermaßen: „Wir wollen zu einer informierten Öffentlichkeit im Netz beitragen. Piqd ist der Gegenentwurf zu den reichweitenoptimierten Algorithmen sozialer Netzwerke. Was relevant ist, bestimmen bei uns ausschließlich unsere Kuratoren und Mitglieder“ (vgl. piqd.de). Eine weitere ähnliche Anwendung ist thescope.com (früher Niuws), die wie piqd eine Kuratierung durch ExpertInnen anbietet.

Die Gefahren, die von Social Bots ausgehen, führen zu verschiedenen Gegenmaßnahmen (Beitrag Über die möglichen Gefahren von Social Bots im Working Paper). Eine Initiative mit dem Namen botswatch analysiert auf Twitter die Auswirkungen von Social Bots auf politische Debatten. Die Ausweitung auf andere Soziale Medien ist geplant.

Neben Algorithmen und Social Bots stellt der respektlose Umgang von User*innen miteinander eine Herausforderung dar – ein Umstand, dem mittlerweile versucht wird, auch auf technischer Ebene zu begegnen. Die Software-Plattform Civilcomments hatte sich zum Ziel gesetzt, Internet-User*innen durch Selbstmoderation zu einem respektvollen Umgang in Internet-Foren zu motivieren. User*innen mussten vor dem Absenden des eigenen Beitrags andere Kommentare bewerten. Dann hatten sie die Möglichkeit, ihren eigenen Beitrag zu verändern, bevor er freigeschaltet wurde. Das sollte Benutzer*innen dafür sensibilisieren, dass ihre Beiträge von anderen wahrgenommen werden (vgl. derstandard.at). Laut Ingrid Brodnig ist nämlich die „Unsichtbarkeit“ des virtuellen Gegenübers einer der Hauptfaktoren, warum Onlinegespräche schnell eskalieren (vgl. Brodnig 2016, 13f.; Kapitel Debattenkultur im Netz).

 

Beitrag von David Röthler im Working Paper, S. 47:
Über die möglichen Gefahren von Social Bots