Deepfakes: Ist das echt?

Künstliche Intelligenz Deepfakes: Ist das echt?

Auch Videos können heutzutage gefälscht werden, in dem sie Gesichter imitieren und Stimmen täuschend echt nachahmen. Solche Deepfakes werden häufig zum Spaß oder zur Unterhaltung veröffentlicht. Gefährlich kann es werden, wenn sie zur Verbreitung von Desinformation eingesetzt werden oder aber um einzelne Personen zu diskreditieren.

2 Min. Lesedauer

01:57

Video Deepfakes – mit Künstlicher Intelligenz gegen gefälschte Fotos und Videos

Deepfakes sind täuschend echt wirkende, manipulierte Bild-, Audio- oder auch Videoaufnahmen. Sie werden mit Hilfe von künstlicher Intelligenz erzeugt.

Stand der Technik

Mit Hilfe von Programmen, Apps und der entsprechenden Software ist jeder ohne Vorkenntnisse bereits heute in der Lage, täuschend echt wirkende Videos zu erstellen. In Echtzeit lassen sich Gesichter und Stimmen tauschen, Personen damit in einem anderen Kontext darstellen. Menschen sagen Dinge, die sie nie gesagt haben oder vollziehen Handlungen, die nie stattgefunden haben.

Die Qualität von Deepfakes verbessert sich stetig, weil die Rechenleistung steigt und sich die Leistungsfähigkeit von künstlicher Intelligenz in großen Sprüngen entwickelt. Es wird zunehmend schwieriger, zwischen authentischem und künstlich erzeugtem bzw. verändertem Material zu unterscheiden. 

Missbrauchspotential für die Gesellschaft

Deepfakes können eine große Gefahr für die Gesellschaft und Politik darstellen. Insbesondere dann, wenn sie genutzt werden, um die öffentliche Meinung zu manipulieren und politische Prozesse gezielt zu beeinflussen. Desinformationskampagnen könnten künftig immer häufiger durch Deepfakes begleitet und ihr Effekt damit verstärkt werden, zumal die vermeintliche Glaubwürdigkeit durch Bewegtbild hoch ist. Die schnelle Verbreitung über die Sozialen Medien erhöht das Gefahrenpotential.

Künstliche Intelligenz hilft

Die Bundesregierung bearbeitet das Thema Deepfakes ressortübergreifend. So kümmert sich das Bundesministerium für Bildung und Forschung , konkret die Abteilung „Forschung für Digitalisierung und Innovationen“, um die Förderung von Forschungsprojekten zur Erkennung und Bekämpfung von Desinformationen und Deepfakes – auch im Rahmen der IT-Forensik. Wissenschaftler entwickeln z.B. Programme, die ebenfalls auf Basis Künstlicher Intelligenz die Echtheit von Videos und Audioinhalten prüfen und so Fälschungen identifizieren. 

Resilienz durch Digitalkompetenz

Die zielgruppengerechte Vermittlung von Digitalkompetenzen ist für die Bundesregierung eine Kernaufgabe in der digitalen Gesellschaft, die auch vor den Gefahren von Deepfakes schützen soll. Dafür setzt sich u.a. das Bundesministerium für Familie, Senioren, Frauen und Jugend ein: Initiativen fördern die zeitgemäße und dem jeweiligen Stand der Technik entsprechende Kompetenz, Falschinformationen aller Art zu erkennen und bewerten zu können. 

Gleichzeitig ist der Bundesregierung die Stärkung der Medienkompetenz wichtig. Denn Nachrichten- und digitale Informationskompetenz sind entscheidend, um Desinformation im Allgemeinen und Deepfakes im Besonderen erkennen zu können.

Wie Sie Deepfakes erkennen – das rät das Bundesamt für Verfassungsschutz

Sorgen Sie für gute (Bild-)Qualität!
Je höher die Auflösung bzw. die Bildgröße, desto leichter lassen sich Ungereimtheiten im Bild erkennen. Videos sollten daher nicht auf dem Handy, sondern auf einem größeren Monitor geschaut werden. Gute Farbeinstellungen zeigen ebenfalls Unstimmigkeiten, z. B. im Hautbild. 

Achten Sie auf die Mimik der Person!
Natürliche Reaktionen, wie z. B. Blinzeln, Stirnrunzeln oder die berühmte „Zornesader“ können von einer KI—Künstliche Intelligenz ebenfalls noch nicht gut dargestellt werden. Ein genauer Blick auf die Augen und Stirn kann einen Fälschung schnell enttarnen. Schauen Sie dafür das Bild verlangsamt, um eventuelle Verzerrungen zu erkennen.

Prüfen Sie die Quelle!
Letztlich hilft natürlich auch immer eine Quellenprüfung oder bei Unsicherheit in Videoschalten die Bitte um Rückruf, um zumindest die Gelegenheit zu bekommen, den Videoanruf oder das Video zu verifizieren.

Weitere Informationen finden Sie im SPOC-Magazin des BfV.