Deepfakes: Ist das echt?

  • Bundesregierung ⏐ Startseite
  • Schwerpunkte

  • Themen  

  • Bundeskanzler

  • Bundesregierung

  • Aktuelles

  • Mediathek

  • Service

Künstliche Intelligenz Deepfakes: Ist das echt?

Auch Videos können heute gefälscht werden – indem sie Gesichter imitieren und Stimmen täuschend echt nachahmen. Solche Deepfakes werden häufig zum Spaß oder zur Unterhaltung veröffentlicht. Gefährlich kann es werden, wenn sie zur Verbreitung von Desinformation eingesetzt werden oder aber, um einzelne Personen zu diskreditieren.

2 Min. Lesedauer

Mit Künstlicher Intelligenz gegen Fake-Videos

Menschen sagen Dinge, die sie nie gesagt haben: Manipulierte Videos sind mitunter schwierig zu entlarven.

Foto: Presse- und Informationsamt der Bundesregierung

Mit Hilfe von Programmen, Apps und der entsprechenden Software ist jeder ohne Vorkenntnisse bereits heute in der Lage, täuschend echt wirkende Videos zu erstellen. In Echtzeit lassen sich Gesichter und Stimmen tauschen, Personen damit in einem anderen Kontext darstellen. Menschen sagen Dinge, die sie nie gesagt haben oder tun Dinge, die sie nie getan haben.

Die Qualität von Deepfakes verbessert sich stetig, weil die Rechenleistung steigt und sich die Leistungsfähigkeit von Künstlicher Intelligenz in großen Sprüngen entwickelt. Es wird zunehmend schwieriger, zwischen authentischem und künstlich erzeugtem beziehungsweise verändertem Material zu unterscheiden.

Deepfakes sind täuschend echt wirkende, manipulierte Bild-, Audio- oder auch Videoaufnahmen. Sie werden mit Hilfe von Künstlicher Intelligenz erzeugt.

Missbrauchspotenzial für die Gesellschaft

Deepfakes können eine große Gefahr für die Gesellschaft und Politik darstellen. Insbesondere dann, wenn sie genutzt werden, um die öffentliche Meinung zu manipulieren und politische Prozesse gezielt zu beeinflussen. Desinformationskampagnen könnten künftig immer häufiger durch Deepfakes begleitet und ihr Effekt damit verstärkt werden, zumal die vermeintliche Glaubwürdigkeit durch Bewegtbild hoch ist. Die schnelle Verbreitung über die Sozialen Medien erhöht das Gefahrenpotenzial.

Künstliche Intelligenz hilft

Die Bundesregierung bearbeitet das Thema Deepfakes ressortübergreifend. So kümmert sich das Bundesministerium für Bildung und Forschung , konkret die Abteilung „Forschung für technologische Souveränität und Innovationen“, um die Förderung von Forschungsprojekten zur Erkennung und Bekämpfung von Desinformationen und Deepfakes – auch innerhalb der IT-Forensik. Wissenschaftler entwickeln zum Beispiel Programme, die ebenfalls auf Basis Künstlicher Intelligenz die Echtheit von Videos und Audioinhalten prüfen und so Fälschungen identifizieren. 

Resilienz durch Digitalkompetenz

Die zielgruppengerechte Vermittlung von Digitalkompetenzen ist für die Bundesregierung eine Kernaufgabe in der digitalen Gesellschaft, die auch vor den Gefahren von Deepfakes schützen soll. Dafür setzt sich unter anderem das Bundesministerium für Familie, Senioren, Frauen und Jugend ein: Initiativen fördern die zeitgemäße und dem jeweiligen Stand der Technik entsprechende Kompetenz, Falschinformationen aller Art zu erkennen und bewerten zu können. 

Gleichzeitig ist der Bundesregierung die Stärkung der Medienkompetenz wichtig. Denn Nachrichten- und digitale Informationskompetenz sind entscheidend, um Desinformation im Allgemeinen und Deepfakes im Besonderen erkennen zu können.

Wie Sie Deepfakes erkennen – das rät das Bundesamt für Verfassungsschutz

  • Sorgen Sie für gute (Bild-)Qualität
    Je höher die Auflösung beziehungsweise die Bildgröße, desto leichter lassen sich Ungereimtheiten im Bild erkennen. Videos sollten daher nicht auf dem Handy, sondern auf einem größeren Monitor geschaut werden. Gute Farbeinstellungen zeigen ebenfalls Unstimmigkeiten, zum Beispiel im Hautbild. 
  • Achten Sie auf die Mimik der Person
    Natürliche Reaktionen, wie Blinzeln, Stirnrunzeln oder die berühmte „Zornesader“ können von einer KI ebenfalls noch nicht gut dargestellt werden. Ein genauer Blick auf die Augen und Stirn kann einen Fälschung schnell enttarnen. Schauen Sie dafür das Bild verlangsamt, um eventuelle Verzerrungen zu erkennen.
  • Prüfen Sie die Quelle
    Letztlich hilft natürlich auch immer eine Quellenprüfung oder bei Unsicherheit in Videoschalten die Bitte um Rückruf, um zumindest die Gelegenheit zu bekommen, den Videoanruf oder das Video zu verifizieren.

Weitere Informationen finden Sie im Informationsblatt Schutz vor Social Engineering  des Bundesamtes für Verfassungsschutz.