Wie KI gegen Desinformation helfen kann

  • Bundesregierung ⏐ Startseite
  • Schwerpunkte

  • Themen   

  • Bundeskanzler

  • Bundesregierung

  • Aktuelles

  • Mediathek

  • Service

Interview zu Forschungsprojekt Wie KI gegen Desinformation helfen kann

Künstliche Intelligenz, die Falschmeldungen in Messenger-Gruppen oder auf Social Media erkennt – und davor warnen kann. Daran arbeitet ein Projekt, das vom Bund gefördert wird. Leiter Jonas Fegert erklärt im Interview, wie „DeFaktS“ die KI trainiert – und warum sie den Menschen eine wichtige Entscheidung nicht abnehmen kann.

4 Min. Lesedauer

Symbolbild Künstliche Intelligenz

Daten gegen Desinformation: Die KI soll lernen, wie Falschmeldungen funktionieren.

Foto: Getty Images/Yuichiro Chino

Was ist der Inhalt des Forschungsprojektes DeFaktS?

Jonas Fegert: Es geht darum, sich die Erforschung und Bekämpfung von Online Desinformationskampagnen vorzunehmen – mit einem Blick darauf, wie Künstliche Intelligenz für diesen Zweck eingesetzt werden kann. Dazu werden wir auf Basis einer Taxonomie ein KI-Modell so trainieren, dass es Desinformation in Messenger-Gruppen oder Social-Media-Diensten erkennt und dann vor deren Auftreten warnen kann. Um das zu erreichen, haben wir viele Datensätze zum Beispiel aus Twitter- und Telegram-Kommunikation erstellt.

Das ist ein Kern-Inhalt des Projekts und wenn wir das geschafft haben, dann entsteht daraus eine sogenannte Explainable Artificial Intelligence (XAI). Diese erklärbare Künstliche Intelligenz soll nicht nur sagen: Hier liegt möglicherweise Desinformation vor. Stattdessen soll sie auch anzeigen können, warum es sich um Falschmeldungen handeln könnte.

Welche Faktoren und Stilmittel sind für Desinformation typisch?

Fegert: Da unterscheiden wir verschiedene. Es gibt stilistische Features, psychologische Features und welche, die wir als „complexity“-Features bezeichnen. Zu „complexity“ gehört beispielsweise, wenn die Schere zwischen dem Titel und dem Artikel sehr weit auseinandergeht. Bei den psychologischen Features wird zum Beispiel sehr auf emotionale Polarisierung gesetzt. Es gibt natürlich auch bestimmte Begriffe, die in bestimmten Kontexten immer wieder auftauchen und die, wenn Desinformation betrieben wird, von einigen Gruppen gezielt genutzt werden. Ein weiteres stilistisches Mittel ist, dass bestimmte Aussagen sehr vage formuliert oder nur angedeutet werden. Dazu gehört, dass Sachverhalte nicht entsprechend belegt werden.

Dr. Jonas Fegert

Dr. Jonas Fegert ist Leiter des Forschungsprojekts DeFaktS.

Foto: FZI

Was ist das Ziel Ihrer Forschung?

Fegert: Das Endprodukt wäre eine Schnittstelle (API), die auf unser KI-Modell aufbaut. Diese API ist eigentlich das, was entwickelt wird. Sie ist dann auch einsetzbar von anderen Plattformen, die mit Menschen interagieren und ihre Nutzerinnen und Nutzer auf heikle Inhalte aufmerksam machen wollen. 

Was wir nicht machen, ist die Entscheidung abzunehmen, ob es sich um Desinformation handelt oder nicht. Es geht also in keiner Weise darum, Inhalte zu filtern oder gar zu zensieren, sondern die Nutzerinnen und Nutzer dazu zu befähigen, Informationen, denen sie auf sozialen Medien begegnen, kritisch zu hinterfragen. 

Ich glaube, dass unsere Forschung daher für den Journalismus sehr interessant sein könnte, aber auch für Nonprofit- Organisationen oder staatliche Institutionen wie Ministerien oder andere öffentliche Einrichtungen, wenn sie über Plattformen mit einer größeren Anzahl an Bürgerinnen und Bürgern interagieren.

Wie zuverlässig wird die Künstliche Intelligenz sein?

Fegert: Dafür gibt es Studien für den englischsprachigen Raum. Sie haben gezeigt, dass diese Systeme etwa um die 90 Prozent der Informationen richtig einordnen. Wir werden es nicht schaffen, alles zu erkennen. Gerade in dem Bereich der Desinformation stehen wir auch vor der Herausforderung, dass sich die Narrative und Bezugspunkte relativ schnell verändern oder weiterentwickeln können. Das heißt, diese KI-gestützten Modelle müssen eigentlich immer weiter trainiert werden. Wie akkurat die KI arbeitet, ist eben auch davon abhängig, wie gut der Datensatz weiter gefüttert und gepflegt wird und daher braucht es kontinuierliche Unterstützung für die Erforschung und Bekämpfung von Desinformation.

Falschmeldungen besser erkennen, verstehen und bekämpfen: Das Bundesforschungsministerium fördert mehrere Projekte, die sich mit gezielt eingesetzten Desinformationen beschäftigen. Eines davon ist das Forschungsprojekt „Desinformationskampagnen beheben durch Offenlegung der Faktoren und Stilmittel“ – kurz: DeFaktS .

Studien zeigen, dass immer mehr Menschen Angst und Sorge vor Desinformationen haben. Wie schätzen Sie diese Entwicklung ein und glauben Sie, dass Ihre Forschung da entgegenwirken kann?

Fegert: Wir versuchen hier etwas zu leisten, was die Leute tatsächlich auch erreicht und ihnen hilft, eine bessere Medienkompetenz zu entwickeln. In einem Umfeld, das sich so schnell verändert, halten wir es für sehr wesentlich, den Menschen Werkzeuge an die Hand zu geben, die sie dabei unterstützen, Desinformation zu erkennen. Diese Art von Kompetenzen aufzubauen, ist auch angesichts der aktuellen geopolitischen Lage sehr wichtig. Eine besondere Rolle spielt dabei auch, dass die Menschen unserem Tool vertrauen können. Daher erforschen wir ebenfalls die Usability, also die Nutzerfreundlichkeit, solcher Anwendungen.

Was für Veränderung erhoffen Sie sich für den Umgang mit Desinformation in der Zukunft?

Fegert: Wir müssen als digitale Gesellschaft resilienter im Umgang mit Desinformation werden. Das bedeutet, dass wir beispielsweise auf deutscher und europäischer Ebene eigene Tools entwickeln, auf denen wir politische Debatten und Entscheidungsfindungsprozesse führen können. Zusätzlich geht es darum, uns unabhängiger zu machen von bestimmten Arten von Anbietern, über deren Plattform-Mechanismen wir keine Kontrolle haben. Wir müssen also einerseits Kompetenzen aufbauen, um Desinformation und digitale Polarisierungstendenzen zu verstehen, und andererseits Plattform-Alternativen für die digitale Demokratie entwickeln.

Also das wünsche ich mir und ich glaube, das bedeutet vor allem, dass wir uns als Gesellschaft klar machen, dass das tatsächlich eine ganz große Herausforderung ist, vor der wir stehen.

Hinter dem Forschungsprojekts DeFaktS steht das Forschungszentrum Informatik (FZI) . Außerdem sind das Unternehmen Murmuras GmbH , der Verein Liquid Democracy e.V.  und die Philipps-Universität Marburg beteiligt.
 
Dr. Jonas Fegert ist Leiter des Forschungsprojekts. Er ist Abteilungsleiter am FZI—Forschungszentrum Informatik und dort zugleich verantwortlich für das House of Participation - Kompetenzzentrum für Digitale Demokratie und Partizipation“.