Forschung zu Hasskommentaren

BoTox – das ist nicht nur ein Nervengift, sondern auch ein Computerprogramm, das ein Forschungsteam der Hochschule Darmstadt gerade entwickelt. Das Ziel: Die Gefahr durch Hasskommentare im Netz schneller und leichter zu erkennen. Für die Meldestelle „Hessen gegen Hetze“ ist die neue Technologie eine tolle Unterstützung. So könnten Beleidigungen, Hetze und Falschmeldungen viel schneller strafrechtlich verfolgt werden.

#Kameltreiber Wegen einer harmlosen #Kameltreiber Aussage soll ein Trainer zurücktreten, während 3 #Vergewaltiger draußen frei herumlaufen. Hat einer dieser schwachsinnigen #Rassismus Sucher dazu was getwittert? Fehlanzeige! #Flüchtlinge
Stammt dieser Kommentar von einem Mensch oder von einem Bot, also von einem vollautomatischen Computerprogramm? Auf den ersten Blick ist das auch für das Forschungsteam von Professorin Melanie Siegel an der Hochschule Darmstadt schwer zu erkennen. Deshalb entwickeln die Wissenschaftler das Programm BoTox. Es analysiert unter anderem Schlagwörter, Satzstellung und Emojis. Dadurch findet es heraus, ob der Kommentar von einem Menschen oder einer Maschine stammt. BoTox soll nicht nur den Kampf gegen Hasskommentaren erleichtern. Für Melanie Siegel hat das Projekt eine große gesellschaftspolitische Relevanz.
Prof. Melanie Siegel, Hochschule Darmstadt
„Ursprünglich war ja mal die Idee, dass Social Media, dass die Leute teilen, dass es auch ein demokratischeres Gremium ist, dass alle Leute auch ihre Meinung äußern können. Und grade durch diese Hasskommentare werden ja Leute beschränkt in ihrer Meinungsäußerung. Die trauen sich ja gar nicht mehr, was zu sagen. Und ich finde, das ist extrem undemokratisch. Also wenn man jemanden bedroht, wenn er seine Meinung äußert. Da müssen wir als Gesellschaft dringend was dagegen tun.“
Das erste Ziel ist schon erreicht: BoTox kann mit großer Sicherheit zwischen Mensch und Bot unterscheiden.
Gibt man einen Kommentar in das Programm ein, kann es verschiedene Wahrscheinlichkeiten bestimmen, unter anderem ob Mensch oder Bot den Kommentar verfasst hat. Liegt die Wahrscheinlichkeit für einen Bot im unerheblichen Bereich, stammt der Kommentar sehr wahrscheinlich von einem Menschen.
Automatisiert zu erkennen, wer hinter Hasskommentaren steckt, soll die Arbeit von Axel Schröder und seinen Kollegen erleichtern. In der Meldestelle „Hessen gegen Hetze“ sichten und bewerten sie täglich 150 Hasskommentare. Bisher die reinste Fleißarbeit.
Axel Schröder, „Hessen gegen Hetze“
„Bei uns kommt es darauf an, möglichst frühzeitig zu erkennen, ob die Inhalte Gefährdungssachverhalte darstellen und ob sie strafrechtlich relevant sind. Das heißt, wenn wir dadurch eine gute Priorisierung hinbekommen, können wir natürlich viel effektiver arbeiten.“
Wenn BoTx fertig ist, soll es auch sagen können, nach welchem Paragraphen ein Kommentar strafrechtlich verfolgt werden kann.
Damit das Programm am Ende für die Arbeit der Meldestelle passgenau ist, steht die Hochschule Darmstadt mit ihr in engem Austausch.
Prof. Melanie Siegel, Hochschule Darmstadt
„Ich forsche nicht einfach so vor mich hin und mache irgendwelche wissenschaftlichen Dinge und kriege vielleicht in 0,03 Prozent bessere Erkennung. Ich kann dabei helfen, ich kann etwas bewirken mit meiner Forschung. Und deswegen ist das ganz wichtig.“
Noch arbeitet das Forschungsteam an einer Demoversion. Doch schon bald könnte BoTox die Meldestelle wesentlich entlasten.