IPPEN.MEDIA deckt mittels künstlicher Intelligenz russische Propaganda auf

Wie lässt sich Propaganda erkennen? Diesem Problem stellen sich unsere Kollegen: Sie entwickeln eine künstliche Intelligenz gegen manipulierte Narrative.
Kann eine künstliche Intelligenz manipulierte Narrative aufdecken? Einige Monate ist es her, seit Alessandro Alviani und Simone Di Stefano von IPPEN.MEDIA sich zusammen mit Venetia Menzies und Ademola Bello (The Times & New York Times) auf den Weg gemacht haben, eine Antwort auf diese Frage zu finden. Gemeinsam sind sie Team „Parrot“ im JournalismAI Fellowship, einem Projekt der Polis, der Journalismus-Denkfabrik der London School of Economics.
Zu Beginn steht die Frage: Wie lernt die KI die Definition von Propaganda?
Begonnen hat das Projekt mit einer Art Schweizer Taschenmesser zur Verifikation von vertrauenswürdigen Inhalten. Dieses Ziel hat sich jedoch schnell als zu ambitioniert für das halbjährige Programm herausgestellt. Stattdessen konzentrieren sich die Teilnehmer nun auf ein Frühwarnsystem für Propaganda. „Besonders wichtig sind zwei Aspekte, wenn wir von einem Tool reden, das manipulierte Narrative erkennt: Einerseits die Verbreitung durch staatliche Medien und andererseits die Propaganda-Erzählung“, erklärt Alviani.
Manipulierte Narrative sind nur effektiv, wenn sie unbemerkt bleiben. Und das ist ein super wichtiger Punkt bei unserem Projekt. Denn das heißt: Das Entlarven solcher Narrative macht sie automatisch unschädlich. Ganz wichtig dabei: Sie basieren auf rhetorischen Mitteln, auf linguistischen Aspekten. Und der zweite Aspekt ist die Koordination. Das heißt, solche Narrative werden auf koordinierte Art und Weise gepusht. Und das ist ganz entscheidend. Immer wenn wir von Propaganda reden, dann reden wir sowohl von klassischen Medien und TV-Sendern, sie spannt sich weiter über Online-Medien und verbreitet sich über offizielle Social-Media-Accounts.
Begonnen haben er und seine Kolleg*innen mit russischer Propaganda zum Ukraine-Krieg – „aus Aktualitätsgründen und wegen der schieren Dimension“. Dabei stellt sich die Frage, wie kann die künstliche Intelligenz manipulierte Narrative erkennen? Die Rhetorik von Propaganda ist lange bekannt. Sie fußt auf den immer gleichen Mitteln wie emotional aufgeladener Sprache und Übertreibung.
Aus einem Datensatz von 410.000 Artikeln, den Alviani, Di Stefano und das Team aus London vom Focus Data Project erhalten, filtern sie verschiedene Themencluster. Parallel dazu wenden sie ein vortrainiertes KI-Modell an, um fragwürdige Stilmittel zu erkennen und ermitteln daraus einen Propaganda-Score
Für den Journalismus der Zukunft werden Warnsysteme immer wichtiger
Die große Frage des Projekts: Was soll passieren, wenn das Programm bestimmte Narrative aufdeckt? Eine sprachliche Analyse ist nicht immer ausreichend. Denn auch journalistische Kommentare können Propaganda-Stilmittel aufweisen, ohne staatlich manipuliert zu sein. Influencer*innen oder Social-Media-Hypes geben ebenfalls ähnliche Signale.
Das Ziel ist, eine eher „meinungslose“ Auflistung von Metriken bereitzustellen und eine Einsicht in die Verbreitung zu geben. Am Ende soll der Mensch entscheiden: „Hier ist Propaganda, ich sollte mir das genauer anschauen.“
So erhalten Journalist*innen Hinweise auf potentiell koordinierte Manipulationsversuche und können sie besser einschätzen und untersuchen. Ein Tool, das in jüngster Zeit zunehmend an Bedeutung gewinnt. Seit Elon Musks Übernahme von Twitter besteht das Risiko, dass Warnungen vor Fake News dort in Zukunft keine Rolle mehr spielen werden. Prominente Vertreter*innen staatlicher Medien aus Russland und China fordern bereits die Abschaffung des Labels als ‚state-affiliated media‘.
Noch bis Anfang Dezember arbeitet unser Team am Projekt „Parrot“. Dann mündet das Fellowship im großen JournalismAI Festival. Interessierte sind gerne eingeladen, daran teilzunehmen und tiefer in die Materie zu tauchen.