zur normalen Ansicht

Themen > Mediengesellschaft > Virtuelle Agora und digitale Zivilcourage > Technische Maßnahmen gegen Hass im Netz 

Technische Maßnahmen gegen Hass im Netz

Im Kampf gegen Hass im Netz entstehen nicht nur zahlreiche neue Initiativen, es werden auch neue Tools entwickelt, wie z.B. der Hate speech blocker. Es handelt sich dabei um ein Browser Plugin, das Hate Speech auf Sozialen Netzwerken wie Twitter und Facebook aufspürt und bekämpft. Es wurde als Gewinner des #peacehack 2016 ausgezeichnet, einem Wettbewerb, der innovative und praktische Lösungen für Konflikte auf der Welt auszeichnet (vgl. peacehack.io; techcitynews.com

Weiters ist die nicht kommmerzielle Initiative Algorithm Watch zu erwähnen, die sich damit auseinandersetzt, wie eine Gesellschaft mit automatisierten, auf Algorithmen basierten Entscheidungen umgehen soll (Stichwort Algorithmic Decision Making – ADM). Die Initiative beschreibt ihre Ziele folgendermaßen: „Algorithm Watch ist eine nicht-kommerzielle Initiative mit dem Ziel, Prozesse algorithmischer Entscheidungsfindung zu betrachten und einzuordnen, die eine gesellschaftliche Relevanz haben – die also entweder menschliche Entscheidungen vorhersagen oder vorbestimmen, oder Entscheidungen automatisiert treffen.“ (vgl. algorithmwatch.org).

Gegen den beschriebenen Trend der Algorithmen entstehen in jüngerer Vergangenheit Anwendungen, die UserInnen ermöglichen, ihre eigenen Inhalte zusammenzustellen. Zu nennen wäre hier z.B. piqd. Der Name ist abgeleitet vom englischen „to pick“ (auswählen). Piqd nennen ihr Projekt „Die Programmzeitung für das gute Netz“. Sie beschreiben ihr Ziel folgendermaßen: „Wir wollen zu einer informierten Öffentlichkeit im Netz beitragen. Piqd ist der Gegenentwurf zu den reichweitenoptimierten Algorithmen sozialer Netzwerke. Was relevant ist, bestimmen bei uns ausschließlich unsere Kuratoren und Mitglieder.“ (vgl. piqd.de). Eine weitere ähnliche Anwendung ist thescope.com (früher Niuws), die wie piqd eine Kuratierung durch ExpertInnen anbietet.

Die Gefahren, die von Social Bots ausgehen, führen zu verschiedenen Gegenmaßnahmen (→ Kap. Algorithmen und Social Bots | → Beitrag Über die möglichen Gefahren von Social Bots: -> Working Paper Virtuelle Agora und Digitale Zivilcourage, S.47). Eine Initiative mit dem Namen botswatch analysiert auf Twitter die Auswirkungen von Social Bots auf politische Debatten. Die Ausweitung auf andere Soziale Medien ist geplant.

Neben Algorithmen und Social Bots stellt der respektlose Umgang von UserInnen miteinander eine Herausforderung dar – ein Umstand, dem mittlerweile versucht wird, auch auf technischer Ebene zu begegnen. Die Software-Plattform Civilcomments hat sich zum Ziel gesetzt, Internet-UserInnen durch Selbstmoderation zu einem respektvollen Umgang in Internet-Foren zu motivieren. UserInnen müssen vor dem Absenden des eigenen Beitrags andere Kommentare bewerten. Dann haben sie die Möglichkeit, ihren eigenen Beitrag zu verändern, bevor er freigeschaltet wird. Das soll BenutzerInnen dafür sensibilisieren, dass ihre Beiträge von Anderen wahrgenommen werden (vgl. derstandard.at). Laut Ingrid Brodnig ist nämlich die „Unsichtbarkeit“ des virtuellen Gegenübers einer der Hauptfaktoren, warum Onlinegespräche schnell eskalieren (vgl. Brodnig 2016, 13f.; → Kap. Debattenkultur im Netz).


Beitrag von David Röthler:

Über die möglichen Gefahren von Social Bots
-> Working Paper Virtuelle Agora und Digitale Zivilcourage, S.47

 

Verwendete Literatur:

Brodnig, Ingrid (2016): Hass im Netz. Wien: Brandstätter.

 

© Demokratiezentrum Wien

Demokratiezentrum Wien
Hegelgasse 6 / 5, A - 1010 Wien
Tel.: +43 / 1 / 512 37 37, Fax.: +43 / 1 / 512 37 37-20
office@demokratiezentrum.org