Mina Schütz ist Master-Absolventin im Studiengang Informationswissenschaft (heute Information Science) am Fachbereich Media. In ihrer Master-Arbeit hat sie eine Künstliche Intelligenz (KI)-Software zur automatischen Erkennung von Fake News entwickelt. Diese Software möchte sie im Rahmen ihrer Doktorarbeit weiter verbessern, die im Promotionszentrum Angewandte Informatik an der h_da in Kooperation mit dem AIT Austrian Institute of Technology, Center for Digital Safety & Security/Wien entstehen soll. Im impact-Interview erklärt sie, warum ihr KI-Tool Fake News besser erkennt als andere Software und wie man Fake News in Zeiten von Corona auch selbst entlarven kann.
Ein Interview von Simon Colin, 8. Juni 2020
impact: Frau Schütz, die Simpsons haben nicht nur die Präsidentschaft von Donald Trump vorhergesagt, sondern auch das Coronavirus. Warum sind solche Fake News prädestiniert dazu, sich rasend schnell zu verbreiten?
Schütz: Bei dem Simpsons-Fake handelte es sich um ein so genanntes „Meme“. Das sind Bilder mit kurzem Text und ohne Quellenangabe, die unterhaltsam sein sollen und in Sozialen Medien häufig geteilt werden. Wenn diese Bilder verfälscht werden, können sich fehlerhafte Informationen rasend schnell verbreiten. Im Simpsons-Meme waren Ausschnitte aus einer Episode aus dem Jahr 1993 zu sehen, eines der Bilder wurde aber manipuliert. Die Episode gab es zwar damals wirklich, allerdings in einem anderen Kontext und nicht mit dem Coronavirus als Inhalt. Das grundlegende Problem ist, dass es bei der zunehmenden Fülle an Informationen für viele Menschen immer schwieriger wird, zwischen falschen Nachrichten und Fakten zu unterscheiden. Hinzu kommt, dass viele Bilder oder Überschriften nur noch überfliegen und sich nicht unbedingt den kompletten Inhalt anschauen. Hierdurch werden Fake News oft schnell verbreitet. Das ist gerade bei akuten politischen und weltweiten Themen der Fall, bei denen die Ursachen und Hintergründe noch unklar sind. So fällt es zusätzlich schwer, Informationen schnell zu verifizieren. Sind Fake News dann einmal im Umlauf, ist es nicht einfach, sie durch legitime Nachrichten zu widerlegen.
impact: Gibt es denn typische Merkmale, mit denen sich falsche Nachrichten und Informationen erkennen lassen?
Schütz: Ja, so werden zum Beispiel Clickbait-Artikel oft für Fake News benutzt. Sie lassen sich daran erkennen, dass sie mit übertriebenen Überschriften die Menschen dazu bringen sollen, auf den Link zum Artikel zu klicken. Dabei erzeugt die Formulierung eine Wissenslücke beim Nutzer, der neugierig wird und sie schließen will. Bei Clickbait-Artikeln ist der Inhalt meist auch nicht mit wertvollen Informationen angereichert, wodurch Titel und Text häufig nicht übereinstimmen. Weitere Hinweise auf Fake News können fehlende Autoren- oder Quellenangaben sein. Falls doch Quellen angegeben sind, muss man sich mitunter durch viele Webseiten bis zur Originalquelle durchklicken. Das machen natürlich nur wenige, da es sehr zeitaufwändig ist. Weitere Hinweise können subjektive Meinungen oder politische Hetze in Artikeln sein, da Propaganda oft polarisiert und Menschen in eine bestimmte politische Richtung zu drängen versucht. User sollten auch darauf achten, ob reale Informationen in einen falschen Kontext gesetzt werden, wie bei dem Simpsons-Fake.
impact: Gerade über Chats in Whats app oder Facebook scheinen sich Fake-Meldungen schnell zu verbreiten. Woran liegt das?
Schütz: Um keine Kritik von ihrem sozialen Kreis zu erhalten, verbreiten Menschen oft Nachrichten und Informationen, bei denen sie davon ausgehen, dass diese auf jeden Fall von ihrem Umfeld angenommen und bestätigt werden. Das soziale Umfeld besteht oft aus Menschen, die eine ähnliche Meinung vertreten. Hierdurch bekommen Nachrichten eine höhere Glaubwürdigkeit und Fake News haben leichteres Spiel. Social Media-Nutzer bekommen zudem meist nur Nachrichten angezeigt, die die eigenen Ansichten bestärken. Je öfter sie diese hören, desto mehr fühlen sie sich bestätigt. Das kann dazu beitragen, dass Menschen irgendwann in einer kommunikativen Filterblase sind. Das wird vor allem dadurch verschärft, dass Soziale Medien wie Facebook oft auch Werbung, Seiten oder Inhalte anzeigen, die auf den eigenen Interessen basieren. Darunter können auch Fake News sein. Allerdings versuchen Instagram und Facebook inzwischen Fake-Meldungen zu markieren. Instagram zeigt zum Beispiel eine Warnung an, dass ein Inhalt falsche Informationen enthalten könnte, und fragt vorab, ob man sich den Post wirklich ansehen möchte.
impact: Wie können wir denn selbst zur Eindämmung von Fake News beitragen? Gibt es verräterische Signale, die auch Laien erkennen können?
Schütz: Nutzerinnen und Nutzer sollten erst einmal Ruhe bewahren, wenn sie Artikel lesen, die Fake News enthalten könnten. Sie sollten nicht sofort jeden Artikel teilen, solange sie nicht sicher sind, dass der Inhalt faktisch stimmt. Das ist natürlich nicht einfach bei der Masse an Informationen. Oft werden Artikel auch so geschrieben, dass sich Fakten und falsche Informationen mischen. Viele der Fake News-Webseiten haben zudem URLs, die denen seriöser Zeitungen ähneln. Das können einfache Buchstabendreher sein oder andere Zahlenreihenfolgen. So kann man schnell übersehen, dass die URL falsch ist. Gerade auf Sozialen Medien kann man auch auf die Kommentare unter den Beiträgen achten. Studien haben herausgefunden, dass die Kommentare bei Fake News oft mehr emotionale Reaktionen hervorrufen, etwa Ablehnung und Überraschung über die präsentierten Informationen. Andersherum sind Kommentare zu realen Fakten meistens eher empathisch.
impact: Auch in Zeiten von Corona sind Unternehmen oder auch die Politik damit konfrontiert, Fake News dementieren zu müssen. Zur Enttarnung wird oft das Fact-Checking eingesetzt. Wie funktioniert das?
Schütz: Es gibt zwei Ansätze. Oft überprüfen Journalisten und Experten-Teams die Fakten von Artikeln. Dabei werden mehrere Personen eingesetzt, damit auch gewährleistet ist, dass die Überprüfung verifiziert ist. Bekannte Webseiten aus den USA sind PolitiFact und Snopes, die sich auf aktuelle Themen und Nutzer-Anfragen spezialisiert haben. PolitiFact deckt hauptsächlich politische Themen ab und Snopes beschäftigt sich mit allen Inhalten, an denen die Menschen interessiert sind. Expert-basiertes Fact-Checking ist durch den Einsatz von Menschen sehr zeitaufwändig und kostspielig. Außerdem können natürlich nicht alle Inhalte überprüft werden, da die Masse an Informationen im Internet dafür zu groß ist. Der zweite manuelle Ansatz des Fact-Checkings ist crowd-sourced. Das heißt, dass normale User die Fakten überprüfen und annotieren. So können auch große Datenmengen verarbeitet werden. Allerdings ist dies schwieriger zu managen, da sich hier subjektive Meinungen von Usern auswirken könnten, was wiederum von Experten-Teams gegengecheckt werden müsste. Manuell überprüfte Fakten und Nachrichten werden häufig als Basis für Datensätze zur automatischen Erkennung von Fake News eingesetzt.
impact: Blicken wir auf diese automatisierten Ansätze zur Erkennung von Fake News. Welche Tools kommen hier zum Einsatz und wo stoßen sie an ihre Grenzen?
Schütz: Hierbei kommen maschinelle Lernverfahren zum Einsatz. Dabei kann zum einen der textbasierte Inhalt auf linguistische Merkmale hin analysiert werden, also etwa der Titel und Artikel oder Beitrag auf einer Social Media-Plattform. Auf der anderen Seite werden die Metadaten von Accounts auf verräterische Merkmale hin untersucht, etwa mit Blick auf ihre Verbreitung und Vernetzung im Bereich Social Media. Auch Wissensdatenbanken können genutzt werden, um die Behauptungen in Artikeln mit aktuellem Wissen zu vergleichen. In der Regel werden die eingesetzten Tools darauf trainiert, selbständig erkennen zu können, ob ein Artikel richtig oder falsch ist. Die Fake News-Erkennungsrate schwankt bei allen diesen Ansätzen aber von teilweise nur 40 Prozent bis zu über 90 Prozent. Insgesamt problematisch ist, dass die Daten, die momentan zur Verfügung stehen, sehr divers sind und nicht immer vollständig, da die Datensätze für Fake News meist noch relativ klein sind.
impact: In Ihrer Master-Arbeit haben Sie einen anderen Ansatz gewählt und sich für ein von Google entwickeltes Tool entschieden, das eigentlich zur Verbesserung von Suchanfragen dient. Inwiefern lässt sich das auf die Erkennung von Fake News übertragen?
Schütz: Da es noch keinen standardisierten Datensatz zur Erkennung von Fake News gibt und die Datenmengen relativ gering sind, habe ich mich für das Transformer-Modell von Google entschieden. Es wurde ursprünglich zur Verbesserung der Suchfunktion erstellt. Ziel der Autoren war es, die Wahrscheinlichkeit eines Wortes in einem Satz zu erkennen. Zudem haben sie das Modell auch darauf trainiert, den nachfolgenden Satz zu erkennen. Vereinfacht gesagt, ist dieses Modell „sprachbegabter“ als bisherige Modelle und umfasst hunderttausende Daten. Da es an „normaler“ Sprache bereits trainiert wurde, konnte ich es komfortabler auf die Erkennung von Fake News übertragen.
impact: Mit Ihrem Modell haben Sie Fake News mit einer Treffergenauigkeit von fast 90 Prozent erkannt. Wie ist Ihnen das gelungen?
Schütz: Das Google-Modell kann den semantischen Kontext der Wörter in einem Satz verstehen. Ich habe das vortrainierte Modell benutzt, um es auf einen Datensatz mit realen und falschen Artikeln anzuwenden. Hierbei lernt das Modell mit einem Teil des Datensatzes, welche Begriffe wichtig sind, um zwischen real und fake zu unterscheiden. Danach wird das Modell getestet, indem es auf Basis der restlichen Daten versucht, eine Vorhersage zu machen, in welche Kategorie ein Artikel eingeordnet werden kann. Mit großem Erfolg: Die Treffergenauigkeit lag bei bis zu 87 Prozent. Zudem habe ich untersucht, ob es einen Unterschied macht, ob das Modell den kompletten Textinhalt der News oder lediglich den Titel nutzt. Meine Thesis hat gezeigt, dass mit den neuen Transformern im maschinellen Lernen auch schon kurze Textinhalte reichen, um potentielle Fake News zu erkennen. Hierdurch lassen sich Fake News schneller als bislang erkennen.
impact: In Ihrer anstehenden Doktorarbeit möchten Sie Ihren Ansatz weiterentwickeln. Wie möchten Sie dabei vorgehen und welchen Durchbruch erhoffen Sie sich?
Schütz: Ich werde mit meinem Modell weitere Tests durchführen. Ich könnte mir vorstellen, die Kommentare von Artikeln in Sozialen Netzwerken zu analysieren, da diese Hinweise auf Fake News geben können. Zudem werde ich meinen Ansatz mit verschiedenen ähnlichen Modellen testen, die mittlerweile entwickelt worden sind. Ich hoffe, dass ich mehrere Methoden zur Erkennung von Fake News verbinden und dadurch meine Ergebnisse verbessern kann. Außerdem erhoffe ich mir, durch die weiteren Tests besser verstehen zu können, welche linguistischen und semantischen Bestandteile von textbasierten Nachrichten den größten Einfluss auf die Ergebnisse und Genauigkeit bei der Erkennung von Fake News haben.
impact: Zum Schluss wollen wir noch einmal auf die Simpsons, Donald Trump und das Coronavirus zu sprechen kommen. Inwiefern wird es künftig Tools geben können, die solche Fake News unmittelbar erkennen, dem Lesenden direkt als solche anzeigen und so die Verbreitung verhindern?
Schütz: Momentan ist die Erkennung von Fake News meiner Meinung nach technisch noch nicht so weit entwickelt, dass wir in absehbarer Zeit Tools haben werden, die Fake News direkt erkennen. Auch ist die Forschungslage divers. Derzeit gibt es noch keine übereinstimmende Definition in Forschungskreisen für den Terminus Fake News. Das hat vor allem mit den unterschiedlichen Intentionen derjenigen zu tun, die Fake News verbreiten – je nachdem kommen etwa Clickbaiting, Propaganda oder Hate Speech zum Einsatz. Fake News unterscheiden sich daher auch sprachlich. Viele Forschende haben sich deswegen auf unterschiedliche Methoden und Datensätze fokussiert und noch keine einheitliche Lösung gefunden. Allerdings kann ich mir sehr gut vorstellen, dass in der nächsten Zeit weitere Tools für User entwickelt werden, die ihnen Hinweise geben können, ob Informationen legitim sind. Die Informationen müssten sie dann aber noch immer selbst überprüfen. Ein wichtiges Ziel ist daher natürlich die Echtzeit-Erkennung von Fake News, damit es erst gar nicht zur Verbreitung der Falschnachrichten kommt.
Kontakt
Simon Colin
Hochschulkommunikation
Tel.: +49.6151.16-38036
E-Mail: simon.colin@h-da.de