Interview zum Forschungsprojekt „Fake-ID“
Desinformation oder Identitätsdiebstahl – die Möglichkeiten zum Missbrauch von Bildfälschungen sind vielfältig. Das Projekt „Fake-ID“ sucht nach Hilfsmitteln, um solche Manipulationen aufzuspüren. Im Interview erklären die Projektleiter, wie KI ihnen dabei hilft.
5 Min. Lesedauer
Hochwertige Fälschungen von Bildern und Videos – sogenannte Deep Fakes – können inzwischen mit einfachen technischen Mitteln angefertigt werden. Und sie tauchen immer öfter auf den Bildschirmen von Nutzerinnen und Nutzern auf. Ein Trend, der mit einem erheblichen Risiko einhergehen kann: Denn solche täuschend echt aussehenden Darstellungen, die Personen beispielsweise Falschaussagen in den Mund legen, können zur Verbreitung von Desinformation und ausländischer Propaganda missbraucht werden.
Um solche Deep Fakes zu identifieren, wollen die Forscherinnen und Forscher des Projekts „Fake-ID“ Künstliche Intelligenz (KI) einsetzen. Das Bundesministerium für Bildung und Forschung fördert das Projekt mit 2,5 Millionen Euro im Rahmenprojekt „Forschung für die zivile Sicherheit“.
Uwe Rabeler von der Bundesdruckerei leitet das Projekt. Klaus Herrmann ist sein Stellvertreter und Systemarchitekt. Im Interview erklären die beiden, warum es wichtig ist, Deep Fakes erkennen zu können und welche technischen Hilfsmittel sie zur Verfügung stellen wollen.
Herr Rabeler, Herr Herrmann, Ihr Forschungsprojekt arbeitet seit Mai 2021 daran, Deep Fakes besser erkennen zu können. Was hat Sie dazu bewegt, dieses Projekt zu starten?
Rabeler: Sicherheitsbedrohungen, die von gefälschten Bildern und Videos ausgehen, und der Umgang damit bei den Anbietern von Identifizierungsverfahren sowie in den Sicherheitsbehörden und der Justiz sind bislang nur wenig erforscht; diese Lücke wollen wir mit dem Projekt möglichst verkleinern.
Sie sprechen von Sicherheitsbedrohungen, die von Deep Fakes ausgehen. An welche Beispiele denken Sie dabei?
Bislang konzentrierte sich die Diskussion vor allem auf Identitätsbetrug: Der Besitz einer erfundenen, überlassenen oder gestohlenen Identität hat für Kriminelle einen großen Nutzen und geht oft einher mit anderen kriminellen Taten. Ein Konto unter einer anderen Identität, einer sogenannten „Fake-ID“, zu eröffnen, von diesem Konto Geld abzuheben, Überweisungen zu tätigen, einen Kredit aufzunehmen und so die Herkunft des Geldes zu verschleiern oder Geld betrügerisch zu erlangen – all das sind Missbrauchsmöglichkeiten. Der angerichtete Schaden für Betroffene solcher Finanzdelikte ist bereits jetzt sehr groß und geht in Deutschland in die Millionen.
Zusätzlich wird zunehmend und öffentlich über Bedrohungsszenarien diskutiert, in denen Bild- und Video-Fälschungen gezielt eingesetzt werden, um politische Entscheidungsprozesse zu manipulieren oder bestimmte Personen zu diskreditieren.
Aus der Perspektive von Polizei und Justiz ist ein weiteres Sicherheitsszenario für das „Fake-ID“-Projekt relevant: Bilder und insbesondere Videos, die heute mithilfe von mobilen Geräten im Alltag massenhaft angefertigt werden, sind zunehmend als Beweismittel in Straf- und anderen gerichtlichen Verfahren relevant. Ihre Beweiskraft hängt maßgeblich davon ab, dass die Echtheit des Bild- und Videomaterials nachweisbar ist. Die schiere Menge solcher digitalen Bild- und Videobeweismittel steigt stark an; daher besteht die Notwendigkeit, dass die Gerichte und Strafverfolgungsbehörden das Material automatisiert auf Echtheit prüfen können.
Wie wollen Sie Deep Fakes aufspüren?
Herrmann: Im Vorhaben „Fake-ID“ werden Merkmale und Eigenschaften echter und gefälschter Identitäten formal beschrieben und ihre jeweilige Erkennung mittels Künstlicher Intelligenz erlernt. Wir nutzen also KI-Verfahren, um Deep-Fakes aufzuspüren. Dabei wird das Bild- und Videomaterial nach sogenannten Artefakten und Ungenauigkeiten untersucht. Dies können etwa für den Menschen unsichtbare Merkmale von Fake-Generatoren oder Ungereimtheiten in den Gesichtsstrukturen sein, die bei der KI-basierten Bildmanipulation auftreten. Zudem wollen wir im Projekt auch weitere Detektionsverfahren entwickeln, wie die Pulsschlagerkennung bei Bildaufnahmen.
Künstliche Intelligenz beschreibt die Fähigkeit von Maschinen, basierend auf Algorithmen Aufgaben autonom auszuführen und dabei die Problemlösungs- und Entscheidungsfähigkeiten des menschlichen Verstandes nachzuahmen.
Wie weit sind Sie in Ihrer Forschung? Deuten sich schon erste Erfolge an?
Rabeler: Die Bundesdruckerei hat mit ihren Partnern einen Demonstrator entwickelt. Er soll Audio- und Video-Livestreams in Echtzeit analysieren, beispielsweise zur Personenidentifikation in Video-Ident-Verfahren. Außerdem soll er der gerichtsverwertbaren Analyse digitaler Bild- und Videobeweismittel dienen. Der Demonstrator enthält die von den Partnern entwickelten Deep-Fake-Detektoren, die Echtheitsmerkmale und Verdachtsmomente für das Vorliegen gefälschter IDs in Bildern und Videos identifizierbar machen.
Eine erste Version des Demonstrators ist bereits fertiggestellt und soll mittels Anwendertests im Sommer 2024 getestet werden. Die finale Version ist derzeit für Ende des dritten Quartals dieses Jahres geplant.
Wie können Ihre Erkenntnisse in der Praxis von Nutzen sein? Welche Form der Anwendung ist denkbar?
Herrmann: Wir planen, die im Projekt erarbeiteten Technologien als Lösung überall dort einzusetzen, wo Identitätsprüfungen im Netz es erfordern oder nahelegen. In vielen Fällen sehen die heutigen rechtlichen Rahmenbedingungen derartige Lösungen nicht vor, meist mangels technischer Durchführbarkeit oder nicht ausreichender Sicherheit. Wir sehen hier die Aufgabe, einen technologischen Vorlauf für künftige Entwicklungen zu schaffen. Mit dem in unserem Demonstrator verwendeten Ansatz der erklärbaren KI wollen wir Anwender bei ihren Entscheidungen unterstützen. Dies gilt insbesondere für die Verifikation von Bild- und Video-Beweismaterial im Bereich der Justiz. Hier wäre ein zweistufiger Prozess denkbar: der erste selektiert vor und im zweiten Schritt wird der Anwender in seiner Entscheidung bei der Echtheitsprüfung unterstützt.
Verfahren wie Video-Ident oder eID zeigen, dass im Markt ein Bedarf für Online-Authentifizierungen besteht. Diese durch verbesserte Identitätsdokumente und KI-basierte Unterstützung abzusichern – hierzu können unsere Projektergebnisse einen Beitrag leisten. Der Vorteil einer solchen Lösung: Experten und auch nicht geschultes Personal können nutzerspezifisch unterstützt werden.
Das heißt, auch private Internetnutzerinnen und -nutzer können von Ihrem Projekt profitieren, um zum Beispiel Desinformation besser zu erkennen?
Rabeler: Die Bildqualität der Deep-Fake-Generatoren verbessert sich stetig. Vor einigen Jahren waren Deep-Fakes von geschultem Personal häufig leicht zu erkennen. Inzwischen gilt dies aufgrund der hohen Bildqualität nicht mehr. Beim Projekt „Fake-ID“ wollen wir eine Demonstrator-Anwendung entwickeln, die sowohl beruflichen wie privaten Anwendern Hinweise auf das Vorliegen eines Fakes liefern.
Sollten die Detektoren Verdachtsmomente finden, werden diese dem menschlichen Anwender visualisiert – und zwar in Form einer von uns als Risiko- und Verdachtslandkarte bezeichneten Hilfe. Dabei wird eine sogenannte „schwache“ KI genutzt, um menschliches Handeln zu unterstützen, nicht zu ersetzen. Die Verdachtslandkarte soll formal relevante Merkmale von Original und möglicher Fälschung beinhalten. Über Mechanismen, wie ein Ampelfarbensystem, sollen die identifizierten Verdachtsmomente dem menschlichen Entscheider je nach Relevanz kommuniziert werden, um die KI-basierte Einteilung – echt oder möglicherweise gefälscht – für den Menschen nachvollziehbar zu machen.
Wie lange läuft das Projekt noch?
Herrmann: Das Projekt „Fake-ID“ lief bis Ende April und wurde kostenneutral bis Ende Oktober dieses Jahres verlängert. Aufgrund der hohen Dynamik der Entwicklungen in der KI besteht insbesondere seitens der Partner der Wunsch, die Arbeiten weiterzuführen. Zunächst sollen die Ergebnisse der Anwendertests abgewartet werden, um die nächsten Schritte zu planen.