Den Hass aus dem Netz fischen

Computerlinguistin Melanie Siegel vom Fachbereich Media der h_da arbeitet mit ihrem neuen Forschungsprojekt DeTox an der automatischen Erkennung von Hate Speech und Fake News. In Kooperation mit der Meldeplattform „Hessen gegen Hetze“ werden 2500 Tweets mittels automatisierter Verfahren Künstlicher Intelligenz analysiert. Innovativ ist der Fokus auf deutschsprachige Social-Media-Texte, wozu Siegel mit ihrer Kollegin Melina Alexa gerade auch ein zweites Lehrbuch veröffentlicht hat.

Von Alexandra Welsch, 20.9.2021

Annalena Baerbock will die Witwenrente abschaffen und das Geld für die Integration von Flüchtlingen verwenden. Im Ernst? Nein, im Gegenteil: Klarer Fall von Fake News. Die falsche Tatsachenbehauptung wurde der grünen Bundesvorsitzenden kurz nach Verkündung ihrer Kanzlerkandidatur über einen Post auf Facebook untergeschoben, massenhaft geteilt und provozierte einen gehörigen Shitstorm. Dass die Grünen-Politikerin „eine Schraube locker“ habe, gehörte dabei noch zu den gemäßigteren Kommentaren der anschließenden Hetze, bei der die Politikerin nicht das erste Mal Opfer von Hate Speech wurde.

Es mutet inzwischen wie eine Binsenweisheit an, doch aus dem berufenen Munde der Computerlinguistin Melanie Siegel ist es eine Erkenntnis, die auf eingehenden Untersuchungen gründet: „Wir haben festgestellt, dass es in den Social Media ein großes Problem mit Fake News und Hate Speech gibt“, sagt die Professorin für Informationswissenschaft am Fachbereich Media der Hochschule Darmstadt, die sich seit Jahren systematisch mit destruktiven Kommunikationsphänomenen beschäftigt. Nun vor der Bundestagswahl ist da wieder so einiges hochgekocht. „Gegen Annalena Baerbock wurde ganz viel verbreitet“, nennt Siegel ein Beispiel. Und das Streuen von Fake News findet Siegel in diesem Kontext besonders schlimm. „Weil es das Vertrauen ankratzt in Politik, das destabilisiert auch den Staat.“

Wie sich Lügen und Hass im Netz systematisch greifen und herausgreifen lassen, damit befasst sich die Informationswissenschaftlerin derzeit intensiv in einem neuen Forschungsvorhaben: „DeTox - Detektion von Toxizität und Aggressionen in Postings und Kommentaren im Netz“ heißt das Projekt, das in Zusammenarbeit mit der Meldeplattform „Hessen gegen Hetze“ des Hessen Cyber Competence Center automatisierte Erkennungs- und Klassifikationsverfahren von Hate Speech und Fake News unter Anwendung künstlicher Intelligenz untersucht und entwickelt. In Kooperation mit dem h_da-Forschungszentrum Angewandte Informatik und dem Fraunhofer Institut für Sichere Informationstechnologie SIT in Darmstadt geht es bei dem vom Hessischen Ministerium des Innern und für Sport geförderten Projekt nicht nur um die Identifizierung dieser toxischen Inhalte: Es beschäftigt sich auch mit der konkreten Ausbreitung und Überführung in einzelne Straftatbestände.

2500 Tweets als Futter für die Hass- und Lügenfischer

Die Grundlage bilden 2500 deutschsprachige Twitter-Postings, also Tweets, die Siegels Forscherteam von der beteiligten Meldestelle für Hasskommentare vorklassifiziert zur Verfügung gestellt werden. Die Plattform liefert Postings, Kommentare und Bilder, die Menschen aufgrund von Nationalität, Hautfarbe, ethnischer oder religiöser Zugehörigkeit, Weltanschauung, Behinderung, Geschlecht, sexueller Orientierung, politischer Haltung, äußerer Erscheinung oder sozialem Status angreifen. Eine zentrale Rolle spielt dabei die Erkenntnis, dass soziale Medien zunehmend von Menschen dominiert werden, „die diffamieren, beleidigen und bedrohen“, wie es in der Projektbeschreibung heißt. Dabei werde über automatisch generierte Nachrichten der Eindruck erweckt, dass diese extremen Meinungen in der Bevölkerung weit verbreitet seien. Den Betreibern dieser Plattformen gelinge es nicht mehr, das zu moderieren. „Daher besteht ein dringender Bedarf an Methoden zur automatischen Identifizierung verdächtiger Beiträge.“

Die Hass- und Lügenfischer arbeiten hierfür mit KI-Methoden zur automatischen Textklassifikation auf Basis von Algorithmen. Hinlängliche Erfahrungen damit hat Siegel bereits bei ähnlich gelagerten Vorhaben gesammelt. So wurde im Rahmen des von ihr mitinitiierten internationalen Forschungswettbewerbs GermEval in bislang drei Veranstaltungen mehrere Methoden maschinellen Lernens an tausenden Tweets angewandt, kombiniert und verglichen. Daran wolle man nun anknüpfen und die Systematik in der Anwendung weiter optimieren.

Fokus auf deutsche Social-Media-Texte

Ein zentrales Fachgebiet der Computerlinguistin ist dabei die Sentiment-Analyse, eine Methode zur automatischen Untersuchung von Meinungsäußerungen. Dabei werden aus Texten von Internet-Nutzern Informationen extrahiert und analysiert, wie sie sich zu bestimmten Themen, Produkten oder Ereignissen äußern. Zusammen mit h_da-Professorin Melina Alexa, die im Studiengang Online-Kommunikation lehrt, hat sie dazu gerade ein zweites Buch veröffentlicht („Tools für Social Listening und Sentiment Analyse“), das nicht nur mit einem starken Praxisbezug aufwartet: „Vorher gab es kein Lehrbuch bezogen auf die deutsche Sprache“, unterstreicht Siegel. Und ihre Co-Expertin Professorin Melina Alexa erklärt zum Stellenwert: „Nach Studienergebnissen gehört zu den wichtigsten Themen im Kommunikationsmanagement sowohl der Umgang mit den Anforderungen durch die Zunahme von Volumen und Geschwindigkeit des Informationsflusses als auch die Nutzung von großen Datenmengen und Algorithmen in der Kommunikation.“ Das Buch wie auch das DeTox-Projekt verfolgen also einen ähnlichen Ansatz: Es geht um anwendbare Textanalysen und Filter für deutschsprachige Internettexte, was bislang in der englischsprachigen Übermacht noch ein Nischendasein gefristet hat.

Für DeTox hat das Fraunhofer SIT ein Software-Tool entwickelt, mit dem sich die Tweets klassifizieren lassen, im Fachjargon „annotieren“ genannt. Damit lässt sich bei den einzelnen Tweets etwa markieren, inwiefern die Äußerung positiv, negativ oder neutral ist, ob es sich um Hate Speech handelt oder inwiefern es strafrechtliche Relevanz hat. Die beteiligten Akteure tragen dabei eine große Verantwortung, weiß Siegel: „Man muss die Leute schulen und miteinander diskutieren.“ Zudem werde jeder Tweet von drei Personen bewertet. „Das ist ein enormer Aufwand.“ Daher habe man vier Studierende als Hilfskräfte eingestellt, die sich jeweils zehn Stunden pro Woche dieser Aufgabe widmen. Das Tool werde dabei über das Füttern mit Tweets immer weiter trainiert, um relevante Merkmale in Texten automatisch erkennen zu können.

Verdächtig ist eine subjektive und offensive Sprache

Das Projekt läuft noch bis Mitte 2022, doch erste interessante Zwischenerkenntnisse werden bereits sichtbar. Zum Beispiel: „Dass man auch Fake News schon an der Art der Sprache erkennen kann“, nennt Melanie Siegel ein Beispiel und lobt hier die am Projekt beteiligte Doktorandin Mina Schütz, die das herausgearbeitet habe. Zwar lasse sich Hate Speech aufgrund der offensiven Sprache auf den ersten Blick einfacher greifen als eine Lüge, die mehr im Kontext bewertet werden muss. Aber, so unterstreicht Doktorandin Mina Schütz: „Es gibt linguistische Aspekte, die Fake News andeuten.“ So weise die Verwendung vieler Personalpronomen, Ausrufezeichen oder Emojis auf eine subjektive, emotionale Sprache hin, wie sie in seriösen wissenschaftlichen oder journalistischen Texten nicht verwendet werde. Auffällig seien auch große Headlines, unter denen nur wenig Text stehe. Auf Basis solcher Erkenntnisse passt die studierte Informationswissenschaftlerin und Informatikern das verwendete Machine-Learning-System an. „Da heißt es, ganz viele Codes schreiben“, sagt sie. Aber eine große Herausforderung in der Betrachtung von Fake News bleibe: „Ich kann den Wahrheitsgehalt nicht definieren, denn ich kann nicht alle Fakten gegenchecken.“

Doch wie Professorin Siegel betont, entwickeln sie bei DeTox ja auch keinesfalls ein System zur vollautomatischen Filterung von Hate Speech und Fake-News. „Die Meinungsfreiheit ist ein hohes Gut, das würde ich niemals komplett automatisiert Maschinen überlassen.“ Es gehe vielmehr um ein Tool zur Vorklassifizierung als Hilfe für Leute, die das dann letztlich bewerten und aussortieren müssen. Leute, wie sie bei der Meldestelle „Hessen gegen Hetze“ arbeiten. Denn Melanie Siegel findet ganz grundsätzlich: „Wir können es nicht den Plattformen selbst überlassen, die Sachen zu filtern.“

Lehrbücher der h_da-Expertinnen

Siegel, M. & Alexa, M. (2020). Sentiment-Analyse deutschsprachiger Meinungsäußerungen. Springer, Wiesbaden. www.springer.com/de/book/9783658296988

Alexa, M., & Siegel, M. (2021). Tools für Social Listening und Sentiment-Analyse. Springer, Wiesbaden. www.springer.com/de/book/9783658334673

Weiterführende Links

Projekt-Website: projects.fzai.h-da.de/detox/projekt/ 
Hessische Meldestelle für Hasskommentare: www.hessengegenhetze.de

 

 

Kontakt

Christina Janssen
Wissenschaftsredakteurin
Hochschulkommunikation
Tel.: +49.6151.16-30112
E-Mail: christina.janssen@h-da.de