Hass und Hetze im Netz – viele Internetnutzer kennen das. Da werden Kommentarspalten zur ideologischen Kampfzone umfunktioniert und soziale Medien mit extremen Meinungsäußerungen geflutet, die Redaktionen sind überfordert. Während für die englische Sprache bereits recht zuverlässige Verfahren entwickelt wurden, um Hassrede zu filtern, steckt dieser Bereich im deutschen Sprachraum noch in den Kinderschuhen. Die Computerlinguistin und h_da-Professorin Dr. Melanie Siegel arbeitet an automatisierten Erkennungsverfahren und daran, das Thema stärker in den Fokus zu rücken.
Von Christina Janssen, 8.3.2019
„Fettgondel“, „Evolutionsbremse“, „Aushilfsamöbe“… schon mal gehört oder gelesen? Für viele, die auf Twitter oder Facebook unterwegs sind, gehört das und Derberes zum Alltag. Einer Forsa-Umfrage von 2017 zufolge hat die Mehrheit der Internetnutzerinnen und -nutzer bereits unliebsame Erfahrungen mit beleidigenden, hasserfüllten Äußerungen im Netz gemacht. In einer Studie von Campact und dem Institut für Demokratie und Zivilgesellschaft (IDZ) gab mehr als die Hälfte der Befragten in Hessen an, sich im Internet seltener zu ihrer politischen Meinung zu bekennen – aus Angst davor, selbst zur Zielscheibe zu werden.
„Die sozialen Netzwerke werden in letzter Zeit regelrecht von extremen Äußerungen überhäuft“, konstatiert Professorin Melanie Siegel vom Fachbereich Media der Hochschule Darmstadt. „Die Posts werden oft massenhaft verbreitet, um den Anschein zu erwecken, hier handele es sich um ‚Volkes Stimme‘.“ Ein Beispiel: das Themenfeld Migration und Asylpolitik. Über Tweets wie „Flüchtlingsboote in Küstennähe torpedieren, dann lernen die Sozialschmarotzer schwimmen“ oder „Araber haben schon ekelhafte Fressen...!“ ist Siegel nicht mehr überrascht. Rassistische, antisemitische und sexistische verbale Übergriffe sind der Stoff, aus dem sie das Material für ihre Forschung bezieht – und ihre Motivation. „Hier wird die Meinungsfreiheit missbraucht und der breite gesellschaftliche Diskurs zerstört“, sagt die Expertin. „Das gefährdet letztlich unsere Demokratie.“
Tausende Tweets ausgewertet
Um das menschenverachtende Treiben im Netz zu stoppen, braucht es zunächst eines: Zahlen. Denn wer das Thema auf die politische Agenda hieven möchte, muss darlegen, um welche Dimensionen es geht. Wird die Hassrede im Netz immer mehr, immer radikaler? Keiner weiß es genau. Es mangelt an Programmen, um Texte zu durchsuchen und Hassrede präzise zu identifizieren. Das ist ein Problem, zu dessen Lösung die Computerlinguistin Melanie Siegel beitragen möchte. Im Rahmen des h_da-Forschungszentrums für Angewandte Informatik und im Arbeitskreis IGGSA, dem Forschende aus Deutschland, Österreich und der Schweiz angehören, arbeitet sie an automatisierten Verfahren zum Erkennen und Filtern von Hate Speech. In einem Programmierwettbewerb wurden im Herbst 2018 Methoden dafür getestet und auf einer Konferenz in Wien vorgestellt.
Die Konferenz bereitete Siegel gemeinsam mit zwei Kollegen aus Saarbrücken und Mannheim vor. Das Ganze war als sogenannte Shared Task konzipiert, als freundlicher Wettbewerb, bei dem Forschergruppen mit unterschiedlichen Methoden am selben Problem arbeiten. Hierfür mussten Siegel und Kollegen geeignetes Übungs- und Testmaterial auftreiben und einen sogenannten Textkorpus erstellen. Tausende Tweets werteten sie dafür aus. Am Ende stand eine Sammlung, die 8.000 Tweets umfasste. Sie stammten von Accounts, von denen häufig extreme Äußerungen gepostet werden. Häufig, aber nicht immer – ein wichtiges Kriterium: Da die Algorithmen den Unterschied zwischen extremen und normalen Tweets erkennen sollen, müssen sie mit entsprechend heterogenem Material „gefüttert“ werden. „Sonst wird unter Umständen jeder Kommentar, in dem Begriffe wie Flüchtling, Jude oder Merkel auftauchen, als Hassrede identifiziert“, erläutert Siegel.
Für den Wettbewerb wurden die 8.000 Tweets vorab im Dreierteam annotiert, wie es in der Fachsprache heißt, also kategorisiert: Beinhalten sie extreme Meinungsäußerungen oder nicht? Nicht immer waren sich die Wissenschaftler einig. Jeder Mensch sieht die Dinge nun mal anders. Strittige Beispiele wurden deshalb diskutiert, Bewertungskriterien erarbeitet und die als extrem eingestuften Tweets dann in die drei Subkategorien Beschimpfung, Beleidigung und Diskriminierung weiter unterteilt. „Nur die Kategorie Diskriminierung ist das, was wir im wissenschaftlichen Sinne als Hassrede bezeichnen“, sagt Siegel und verdeutlicht den Unterschied an zwei Beispielen: Der Tweet „So sieht Meinungsfreiheit in Deutschland aus, dank dieser Volksverräterin Merkel!! Herzlichen Willkommen in der DDR 2.0!“ wurde als Hassrede eingestuft, die Äußerung „Wie hohl muss man eigentlich sein, um nichts zu begreifen Frau Murksel?“ lediglich als Beleidigung.
Was ist Hate Speech?
Der Begriff Hassrede (englisch: hate speech) ist sprachwissenschaftlich bislang nicht klar definiert. Es ist ein politischer Begriff und umfasst Äußerungen, die unter Umständen strafrechtlich relevant sein können – zum Beispiel, wenn der Tatbestand der Volksverhetzung erfüllt ist. Die Bundeszentrale für politische Bildung definiert Hassrede so: „Wenn Menschen abgewertet, angegriffen oder wenn gegen sie zu Hass oder Gewalt aufgerufen wird, spricht man von Hate Speech. Oft sind es rassistische, antisemitische oder sexistische Kommentare, die bestimmte Menschen oder Gruppen als Zielscheibe haben. Hate Speech ist damit ein Oberbegriff für das Phänomen der gruppenbezogenen Menschenfeindlichkeit oder Volksverhetzung im Internet und Social-Media-Räumen.“
Fitnesstraining für Algorithmen
Nach intensiver Vorbereitung gaben Siegel und Kollegen das Startsignal für ein groß angelegtes Algorithmen-Fitnessprogramm: Rund 20 Forschergruppen in Deutschland, Österreich und der Schweiz, in Italien, den Niederlanden und sogar Indien machten sich über die Twitter-Daten her. Die Aufgabe: eine automatisierte Unterscheidung der Tweets in die beiden Kategorien „extrem“ und „normal“. 5.000 Tweets standen den Wissenschaftlerinnen und Wissenschaftlern als Trainingsmaterial zur Verfügung, die übrigen 3.000 wurden für die Testläufe auf der Konferenz in Wien einbehalten.
Professorin Siegel stellte für den Wettbewerb in Wien ein Team von Bachelor-Studierenden auf die Beine. Sie erarbeiteten Listen von Hasswörtern und Wortgruppen wie beispielsweise „unersättliches Dreckstück“ oder „menschliches Geschwür“, die in den Trainings-Tweets auftauchten und entsprechend in die Programmierung der Algorithmen einflossen. „Eine weitere Möglichkeit ist die Suche nach sogenannten Word-Embeddings“, erklärt die Expertin für Sprachverarbeitung. Die Grundidee: Viele Wörter haben typische Begleiter. So kommt das Wort „scheiß“ zum Beispiel gerne mal im Doppelpack mit „egal“ oder „dreck“. Auch dieses semantische Umfeld von Hate-Speech-Begriffen findet deshalb Eingang in die Algorithmen. „Zusätzlich arbeiten wir mit Methoden der Sentimentanalyse, wie sie bei der Analyse von Produktbewertungen angewandt werden.“ Nachdem der Textkorpus anhand dieser Methoden gefiltert wurde, spuckt er für jeden Tweet einen Zahlenwert aus. Wo genau die Schwelle für die Klassifizierung als Hassrede angesetzt wird, müssen Linguisten und Programmierer in einem komplexen Erfahrungs- und Lernprozess definieren. Auch Melanie Siegel und ihre Studierenden arbeiteten sich so in etlichen Testläufen und Optimierungsschleifen an immer bessere Trefferquoten heran.
Auf der Konferenz in Wien schlug dann die Stunde der Wahrheit. Mit Professorin Siegel und den beiden Bachelor-Studenten Chris Gernand und Rio Fiore war die h_da dort vertreten. Die Gruppe präsentierte ihre Ergebnisse, in einer Poster-Session standen die Studierenden internationalen Expertinnen und Experten Rede und Antwort, knüpften Kontakte zu anderen Fachleuten, die sich mit ähnlichen Themen befassen. „Wir haben für dieses Projekt viele Texte gelesen, die man lieber nicht lesen würde, aber es hat sich gelohnt“, sagt Rio Fiore. Denn für die beiden jungen Leute war Wien die erste internationale Konferenz: „Es war schön zu sehen, was Wissenschaftler aus anderen Ländern in diesem Bereich leisten. Das motiviert, sich selbst weiter anzustrengen und zu engagieren“, meint Chris Gernand. „Als Bachelorstudierenden konnte es uns natürlich nicht darum gehen, besser abzuschneiden als die internationalen Vollprofis, gegen die wir in Wien angetreten sind.“ Schlecht gelaufen ist es für das h_da-Team aber trotzdem nicht: Die beste Trefferquote bei den Testläufen in Wien lag bei knapp 80 Prozent, die h_da landete bei knapp 70, der schlechteste Versuch bei 43 Prozent. „Es ist uns gelungen, mit einer Gruppe Bachelorstudenten ein System zu entwickeln, das mit dem gestandener Wissenschaftler mithalten kann“, lobt Melanie Siegel. „Insgesamt sind wir bei der Entwicklung solcher Verfahren für die deutsche Sprache allerdings noch ganz am Anfang. Eine höhere Präzision bekommt man nur hin, indem möglichst viele Daten exakt annotiert und die Systeme auf dieser Basis weiterentwickelt werden.“ Für 2019 ist ein weiterer Wettbewerb geplant, den Professorin Siegel mit Kolleginnen und Kollegen aus Potsdam, Heidelberg, Mannheim und Zürich vorbereitet. Ende März wird der Aufruf zur Teilnahme international verbreitet. Eine Gruppe von Masterstudierenden der Informationswissenschaft an der h_da wird auch in diesem Jahr ein Programm entwickeln und am Wettbewerb teilnehmen.
Troll‘ Dich…!
Zum Teil kommt der Hass im Netz von sogenannten Trollen. Das sind Menschen, die durch Äußerungen im Netz gezielt emotional provozieren. Teilweise werden Trolle von Auftraggebern dafür bezahlt, ideologische Inhalte zu verbreiten. Der Begriff Troll ist gleichbedeutend mit Hater. Er wird häufig aus dem englischen „trolling with bait" hergeleitet, einer speziellen Angeltechnik. Ähnlich dem Angler „ködert“ der Internet-Troll Nutzerinnen und Nutzer, um Debatten im Netz zu (zer)stören.
Hassrede ohne Hassrede
Eines der ungelösten Probleme ist die Hassrede ohne Hassrede: Wie soll ein Algorithmus Ironie erkennen? Anspielungen, Sarkasmus, kulturelles Kontextwissen – hier stößt die Sprachverarbeitung (englisch: Text Mining) derzeit noch an ihre Grenzen. Selbst die effizientesten Programme, wie sie von Google oder Facebook bereits für die englische Sprache eingesetzt werden, erreichen aufgrund solcher Schwierigkeiten nicht die gewünschte Präzision. „Leider legen die großen Konzerne ihre Methoden nicht offen“, bedauert Siegel. „Wir wissen also nicht genau, wie sie arbeiten, dabei könnte uns das in der Forschung natürlich enorm weiterhelfen.“ Siegel geht davon aus, dass es in Zukunft möglich sein wird, sogenannte Trigramme zu identifizieren statt Hasswörter oder Wortverbindungen: Buchstabensequenzen wie beispielsweise „nam“, „dum“ oder „les“ könnten dann als Hate-Speech-Indikatoren für verschiedene Sprachen genutzt werden. Methoden des sogenannten Machine Learning werden außerdem weiter dazu beitragen, die Technik zu verbessern – dabei werden ausgefeilte statistische Verfahren genutzt, um aus riesigen Datenmengen Erkenntnisse abzuleiten.
In der deutschen Politik, meint Siegel, sei das Thema Hassrede noch nicht wirklich angekommen, die Gesetzgebung hinke – wie so oft im Technologiebereich – der Realität hinterher. „Wir wollen Aufmerksamkeit auf das Thema lenken, wir wollen sagen können: Seht her, so viel Hate Speech gibt es.“ Dabei sei nach derzeitigem Wissensstand eine relativ kleine Gruppe von Personen für einen Großteil der Hassrede im Netz verantwortlich: sogenannte Trolle. Sie besitzen zahlreiche Accounts, die automatisiert und massenhaft Tweets in die Welt setzen, um Stimmung zu machen. Siegels Methoden zielen auch darauf ab, solche Trolle im Netz entlarven zu können. „Denn wenn das so weitergeht, ohne dass jemand einschreitet, brauchen wir Twitter und Facebook bald nicht mehr.“ Die Idee der Social Media sei schließlich einmal gewesen, den gesellschaftlichen Diskurs zu beleben und die Menschen zu beteiligen. „Wenn sich das weiterentwickelt wie derzeit und man keine vernünftigen Mechanismen findet, um eine massive Beeinflussung zu verhindern, ist dieses Ideal zerstört – wie die Kommentarspalten schon jetzt.“
Dass ihre Forschung mit ethischer Wachsamkeit einhergehen muss, ist Melanie Siegel bewusst. „Die Sprachverarbeitung ist eine machtvolle Technik, die durchaus zu Missbrauch verleiten kann. Als Zensurinstrument sollte das, was wir entwickeln, nicht in Betracht kommen.“ Und ein Dilemma wird wohl immer bleiben: Ein guter Algorithmus kann zwar Hassrede eliminieren, nicht aber deren Ursachen.
Kontakt
Christina Janssen
Hochschulkommunikation
Tel.: +49.6151.16-30112
E-Mail: christina.janssen@h-da.de