1 00:00:12,479 --> 00:00:15,009 Damen und Herren, liebes Publikum, 2 00:00:16,378 --> 00:00:20,071 Es geht weiter mit unserem nächsten Thema: 3 00:00:20,171 --> 00:00:26,917 "Desinformation und Fake News erkennen. Wie werde ich Faktenchecker*in?" 4 00:00:27,017 --> 00:00:28,444 Herzlich willkommen an alle, 5 00:00:28,544 --> 00:00:33,526 die das erste Mal dabei sind in unserer Lounge des Bundespresseamts 6 00:00:33,626 --> 00:00:35,802 zu unserer Podiumsdiskussion. 7 00:00:35,902 --> 00:00:38,546 Wichtiger Hinweis an Sie alle: 8 00:00:38,646 --> 00:00:42,282 Wir streamen diese Diskussion und zeichnen sie auf. 9 00:00:42,382 --> 00:00:48,224 Schöne Grüße gehen an alle, die uns über den Live-Stream zugeschaltet sind. 10 00:00:48,324 --> 00:00:53,398 Der Talk erscheint dann somit auch an späterer Stelle in der Mediathek. 11 00:00:53,498 --> 00:00:55,996 Mediathek, damit meine ich bundesregierung.de 12 00:00:56,096 --> 00:00:59,873 Es gibt keine Maskenpflicht, aber natürlich ist es immer gut 13 00:00:59,973 --> 00:01:04,369 und vor allem, das ist das Wichtigste, denn Demokratie lädt ein, 14 00:01:04,469 --> 00:01:06,683 unter dieser Prämisse begegnen wir uns heute. 15 00:01:06,783 --> 00:01:12,183 Wir möchten in den Dialog treten, wenn Sie/ihr eine Frage habt, 16 00:01:12,283 --> 00:01:15,809 wir haben hier Experten, stellt sie. 17 00:01:15,909 --> 00:01:19,492 Wir beschäftigen uns mit dem Thema Desinformation, 18 00:01:19,592 --> 00:01:22,793 denn sie sind erfundene und gezielte Falschinformationen 19 00:01:22,893 --> 00:01:25,035 und vor allem, sie haben Macht 20 00:01:25,135 --> 00:01:28,925 und verbreiten sich sehr schnell auf Social-Media-Kanälen, 21 00:01:29,002 --> 00:01:31,197 können dadurch beispielsweise 22 00:01:31,297 --> 00:01:33,571 das Wahlverhalten beeinflussen 23 00:01:33,671 --> 00:01:36,835 oder im Extremfall zu realer Gewalt führen. 24 00:01:36,935 --> 00:01:40,889 Wir diskutieren über die Konsequenzen und fragen uns natürlich, 25 00:01:40,989 --> 00:01:43,735 wie werden wir Faktenchecker? 26 00:01:43,835 --> 00:01:46,509 Dafür begrüße ich Wolfgang Büchner, 27 00:01:46,609 --> 00:01:48,496 stellvertretender Regierungssprecher 28 00:01:48,596 --> 00:01:52,499 und stellvertretender Leiter des Bundespresseamts. Hallo. 29 00:01:53,846 --> 00:01:55,469 * Beifall * 30 00:01:58,841 --> 00:02:01,160 Außerdem dabei Henriette Löwisch, 31 00:02:01,260 --> 00:02:04,944 Schulleiterin und Leiterin der deutschen Journalistenschule. 32 00:02:05,044 --> 00:02:07,266 Herzlich willkommen auch an Sie. 33 00:02:07,566 --> 00:02:09,188 * Beifall * 34 00:02:11,738 --> 00:02:15,938 Sowie Josefine Ballon, Head of Legal bei hateaid, 35 00:02:16,038 --> 00:02:20,785 bietet Menschen, die von digitaler Gewalt betroffen sind, Hilfe an. 36 00:02:20,885 --> 00:02:22,536 Schön, dass Sie da sind. 37 00:02:22,769 --> 00:02:24,275 * Beifall * 38 00:02:26,483 --> 00:02:32,061 Und der Letzte: David Schraven, Gründer und Geschäftsführer von CORRECTIV. 39 00:02:32,161 --> 00:02:34,314 Er leitet dort das Recherchezentrum. 40 00:02:34,414 --> 00:02:36,111 Hallo und herzlich willkommen. 41 00:02:36,311 --> 00:02:37,808 * Beifall * 42 00:02:39,205 --> 00:02:44,350 Lassen Sie uns ein bisschen über den Aspekt sprechen 43 00:02:44,450 --> 00:02:48,608 bzw. ein bisschen aufklären über Desinformation. 44 00:02:48,708 --> 00:02:51,725 Herr Büchner, was versteht man eigentlich darunter? 45 00:02:52,461 --> 00:02:58,579 Unter Desinformation versteht man eine gezielte Falschinformation 46 00:02:58,679 --> 00:03:04,779 die Vertrauen zerstören soll, die auch tatsächlich Wirkung hat, 47 00:03:04,879 --> 00:03:09,295 indem sie Leuten die Orientierung nimmt, was richtig oder falsch ist. 48 00:03:09,395 --> 00:03:12,130 Und die auch dazu beiträgt, 49 00:03:12,230 --> 00:03:19,426 dass ganz gefährliche Situationen entstehen können. 50 00:03:19,526 --> 00:03:23,244 Es ist wichtig, dass wir da alle wachsam sind. 51 00:03:23,344 --> 00:03:27,729 Und Frau Ballon, wie beobachten Sie die aktuelle Entwicklung in Deutschland, 52 00:03:27,829 --> 00:03:31,249 wie viel Hatespeech gibt es mittlerweile im Netz? 53 00:03:31,637 --> 00:03:33,543 Es lässt sich schwer messen. 54 00:03:33,643 --> 00:03:37,125 Wir haben allerdings das Gefühl aus unserer Beratung, 55 00:03:37,225 --> 00:03:39,494 aus unseren Erfahrungen, die wir dort sammeln 56 00:03:39,594 --> 00:03:43,233 und vor allem aus den Zahlen, aus dem stetigen Zulauf, 57 00:03:43,333 --> 00:03:46,447 dass es nicht weniger geworden ist 58 00:03:46,648 --> 00:03:50,175 und eher noch zugenommen hat, auch im Zusammenhang mit der Pandemie 59 00:03:50,275 --> 00:03:53,706 und auch während des Krieges, den wir beobachten müssen. 60 00:03:53,806 --> 00:03:59,062 Wir sehen es auch an der Beratung, dass immer mehr Menschen sich an uns wenden 61 00:03:59,162 --> 00:04:01,789 und Hilfe suchen, was die richtige Entscheidung ist. 62 00:04:02,202 --> 00:04:04,750 Wäre das auch Ihre Einschätzung, Herr Schraven? 63 00:04:04,850 --> 00:04:07,156 Ich hätte die Frage an Sie weitergegeben. 64 00:04:07,256 --> 00:04:11,741 Inwieweit hat die Bedeutung von Falschinformationen zugenommen? 65 00:04:13,840 --> 00:04:19,902 Es gibt einen Unterschied zwischen Hatespeech und gezielter Desinformation. 66 00:04:20,158 --> 00:04:25,076 Ich persönlich glaub, dass der Hass im Netz zugenommen hat 67 00:04:25,176 --> 00:04:29,517 weil er leicht ist, Leute können sich schnell und leicht aufregen. 68 00:04:29,617 --> 00:04:32,336 Dieses Aufregen wird genutzt von Leuten, 69 00:04:32,436 --> 00:04:34,835 die die Gesellschaft auseinandertreiben wollen. 70 00:04:34,935 --> 00:04:39,128 Das ist die Desinformation, das ist die Vorstufe davon, wenn man so will. 71 00:04:39,228 --> 00:04:43,099 Und das Prinzip gibt es lange. 72 00:04:43,199 --> 00:04:45,461 Ich vermute, so lange es Menschen gibt. 73 00:04:45,590 --> 00:04:47,402 Wir können jetzt beobachten, 74 00:04:47,557 --> 00:04:49,743 dass wir in großen Konflikten stehen 75 00:04:49,843 --> 00:04:54,154 und in diesen großen Konflikten diese Erzählungen benutzt werden, 76 00:04:54,254 --> 00:04:57,600 damit grundsätzlich das Vertrauen zerstört wird. 77 00:04:57,700 --> 00:05:03,982 D.h., es geht nicht darum, eine falsche Erzählung in die Köpfe zu kriegen. 78 00:05:04,055 --> 00:05:06,955 Es geht darum, den Leuten die Fähigkeit zu nehmen, 79 00:05:07,055 --> 00:05:09,836 zu erkennen, was ist überhaupt wahr, was ist falsch. 80 00:05:09,936 --> 00:05:12,552 Was ist das, woran ich mich orientieren kann 81 00:05:12,652 --> 00:05:15,769 und was wird benutzt, um mich zu manipulieren. 82 00:05:15,869 --> 00:05:18,912 Und da vielleicht nur ein kleiner Hinweis: 83 00:05:18,975 --> 00:05:23,101 Es ist nicht notwendig, dass die Desinformation besonders klug ist. 84 00:05:23,201 --> 00:05:27,747 Es reicht auch ein völlig absurder Erzählungsstrang, 85 00:05:27,847 --> 00:05:29,001 der nur benutzt wird, 86 00:05:29,101 --> 00:05:32,031 damit weniger absurde Stränge implementiert werden können, 87 00:05:32,131 --> 00:05:34,882 weil die dann ausreichen, um Vertrauen zu zerstören. 88 00:05:34,982 --> 00:05:37,135 Wir haben gerade gehört, Frau Löwisch, 89 00:05:37,235 --> 00:05:40,259 die Frage auch an Sie, wie gefährlich Desinformationen sind. 90 00:05:40,359 --> 00:05:42,039 Es geht um den Vertrauensverlust, 91 00:05:42,139 --> 00:05:45,266 auch darum, die Gesellschaft auseinanderzutreiben. 92 00:05:45,432 --> 00:05:48,211 Würden Sie noch andere Aspekte markieren? 93 00:05:49,286 --> 00:05:54,101 Aus journalistischer Perspektive, ich bilde ja Journalist*innen aus, 94 00:05:54,201 --> 00:05:57,487 ist, glaube ich, ein ganz starker Aspekt, 95 00:05:57,561 --> 00:06:01,624 dass diejenigen, die versuchen, die Desinformation in Umlauf zu bringen, 96 00:06:01,724 --> 00:06:06,130 um das zu erreichen, was die Vorredner gesagt haben, 97 00:06:06,230 --> 00:06:10,264 dass versucht wird, die Journalist* innen dazu zu bringen, 98 00:06:10,288 --> 00:06:12,690 das Zeug noch weiterzuverbreiten. 99 00:06:12,790 --> 00:06:17,595 Die Situationen in den Medien noch weiter auszunutzen, 100 00:06:17,695 --> 00:06:20,812 die dazu führen, dass es noch den Stempel kriegt, 101 00:06:20,836 --> 00:06:23,953 dass es vermeintlich geprüft ist. 102 00:06:24,077 --> 00:06:25,145 Das ist der Punkt, 103 00:06:25,169 --> 00:06:30,635 wo wir als Journalist*innen versuchen müssen, anzusetzen. 104 00:06:31,276 --> 00:06:34,047 Haben Sie ein Beispiel, wie Sie dagegen vorgehen? 105 00:06:34,918 --> 00:06:41,142 Ganz viele Beispiele, ich weiß gar nicht, wo ich anfangen soll, 106 00:06:41,242 --> 00:06:45,302 an unserer Schule machen wir ein Magazin, 107 00:06:45,402 --> 00:06:50,072 die Studierenden produzieren selbst eine Zeitschrift 108 00:06:50,172 --> 00:06:54,493 und recherchieren und schreiben die Artikel dafür selbst. 109 00:06:54,593 --> 00:06:57,588 Und zum Schluss aber, bevor es veröffentlicht wird, 110 00:06:57,688 --> 00:07:01,600 müssen sie mir beweisen, dass alles gecheckt worden ist, 111 00:07:01,700 --> 00:07:05,533 dass alles, was in den Artikeln steht, geprüft wurde. 112 00:07:05,633 --> 00:07:10,773 Wir hatten gerade so eine Runde für das neue Magazin. 113 00:07:10,910 --> 00:07:18,449 Da ging es um eine Form von chronischer Krankheit 114 00:07:18,549 --> 00:07:20,225 und es ging darum, 115 00:07:20,325 --> 00:07:27,120 zahlen die Krankenkassen und die Sozialkassen den Leuten die Behandlung. 116 00:07:27,220 --> 00:07:31,067 Und es wurde eine Betroffene zitiert, die gesagt hat: 117 00:07:31,225 --> 00:07:34,496 Nein, sie bezahlen es nicht, das sei voll unmöglich. 118 00:07:34,596 --> 00:07:37,532 Ja, dass sie es nicht bezahlen. 119 00:07:37,632 --> 00:07:41,387 Jetzt kann man sagen, meine Journalisten, die das geschrieben haben, 120 00:07:41,487 --> 00:07:44,821 behaupten das ja nicht, sondern sie zitieren nur jemanden, 121 00:07:44,921 --> 00:07:46,315 der es behauptet hat 122 00:07:46,415 --> 00:07:50,910 und hinterher stellt sich heraus, dass es nicht so ist. 123 00:07:51,527 --> 00:07:56,978 Und es kann ja sein, dass die eine betroffene Person es so erlebt hat. 124 00:07:57,078 --> 00:08:00,974 Ich will gar nicht der Person abstreiten, dass sie es erlebt hat. 125 00:08:01,074 --> 00:08:04,406 Aber Sie und wir alle haben es schon 100.000 Mal gemacht, 126 00:08:04,406 --> 00:08:08,132 uns ist etwas passiert und wir verallgemeinern es. 127 00:08:08,695 --> 00:08:11,787 Und hier ist ein ganz konkreter Punkt, 128 00:08:11,887 --> 00:08:16,957 wo jeder einzelne Journalist unglaublich aufpassen muss, 129 00:08:17,057 --> 00:08:21,767 um nicht irgendwas immer weiter zu transportieren, was nicht geprüft ist. 130 00:08:21,867 --> 00:08:24,928 Sehr richtig, Herr Büchner, Sie wollten etwas ergänzen? 131 00:08:25,028 --> 00:08:31,018 Wir müssen genau unterscheiden zwischen journalistischen handwerklichen Fehlern 132 00:08:31,118 --> 00:08:36,225 wie Informationen, die nicht sauber recherchiert werden 133 00:08:36,325 --> 00:08:38,544 oder die man zu schnell weitergibt, 134 00:08:38,644 --> 00:08:43,558 wie Ihr Beispiel, oder Desinformation, die eine andere Qualität hat. 135 00:08:43,658 --> 00:08:46,820 Nämlich dass Dinge gezielt erfunden werden. 136 00:08:46,920 --> 00:08:51,568 Und das muss man zur Ehrenrettung des Journalismus in Deutschland sagen: 137 00:08:51,668 --> 00:08:54,771 Das gibt es in unserem Journalismus eigentlich nicht. 138 00:08:54,878 --> 00:08:57,631 Da gibt es einige wenige krasse Ausnahmen, 139 00:08:57,731 --> 00:09:01,233 da fallen uns Geschichten wie der Fall Relotius beim Spiegel ein, 140 00:09:01,333 --> 00:09:06,727 aber im Prinzip arbeiten, ich habe ja auch 30 Jahre als Journalist gearbeitet 141 00:09:06,827 --> 00:09:09,918 und kann es ganz gut einschätzen, arbeiten unsere Redaktionen 142 00:09:10,018 --> 00:09:14,668 sehr nach dem Prinzip, Quellen zu prüfen, Nachrichten zu überprüfen. 143 00:09:14,768 --> 00:09:16,806 Das, was du beschrieben hast, 144 00:09:16,906 --> 00:09:20,095 ist eher ein Phänomen von handwerklichen Fehlern, 145 00:09:20,195 --> 00:09:21,868 etwas war nicht sauber geprüft. 146 00:09:21,968 --> 00:09:26,905 Das liegt für mich auf einer anderen Ebene als: 147 00:09:27,005 --> 00:09:29,589 Jemand denkt sich ein Narrativ aus, 148 00:09:29,689 --> 00:09:34,414 es ist teilweise völlig abstrus und verrückt, 149 00:09:34,526 --> 00:09:37,083 und hilft trotzdem dabei, 150 00:09:37,183 --> 00:09:41,647 Glaubwürdigkeit in vernünftige Informationen zu zersetzen. 151 00:09:41,747 --> 00:09:45,913 Bleiben wir vielleicht noch mal bei konkreten Fällen von Desinformationen, 152 00:09:46,013 --> 00:09:47,805 um das Ganze zu veranschaulichen. 153 00:09:47,905 --> 00:09:52,427 Ich habe versucht, es schon ein bisschen zu skizzieren in meiner Anmoderation. 154 00:09:52,527 --> 00:09:57,229 Mir würde jetzt noch einfallen, russische Propaganda. 155 00:09:57,329 --> 00:09:59,229 Haben Sie noch konkrete Beispiele? 156 00:09:59,355 --> 00:10:03,062 Vielleicht für unsere Bürgerinnen und Bürger hier, 157 00:10:03,162 --> 00:10:07,023 damit wir ganz genau verstehen, was Desinformationen sind. 158 00:10:07,337 --> 00:10:09,720 Ich würde gerne eins erzählen. 159 00:10:09,851 --> 00:10:12,202 Das hat mich 2014 sehr geschockt. 160 00:10:12,302 --> 00:10:15,062 Ich finde es immer noch schrecklich, 161 00:10:15,176 --> 00:10:16,926 auch, dass es gelungen ist, 162 00:10:17,044 --> 00:10:21,004 die Desinformation ins gesellschaftliche Bewusstsein einzupflanzen. 163 00:10:21,078 --> 00:10:22,766 Viele Menschen glauben das. 164 00:10:22,878 --> 00:10:25,253 Als der Flug MH17 abgeschossen wurde, 165 00:10:25,284 --> 00:10:28,031 da waren russische Militärs, 166 00:10:28,131 --> 00:10:30,430 die russische Militärtechnik benutzt haben, 167 00:10:30,530 --> 00:10:32,484 in einer russischen Kommandostruktur. 168 00:10:32,584 --> 00:10:36,070 Das ist mittlerweile komplett durch bewiesen vor Gericht. 169 00:10:38,320 --> 00:10:40,199 Und von den russischen Seiten 170 00:10:40,299 --> 00:10:43,795 haben die Propaganda-Medien "Russia Today" benutzt, 171 00:10:43,994 --> 00:10:45,934 um falsches Narrativ zu bringen. 172 00:10:46,034 --> 00:10:50,363 Und jeden zweiten Tag gefühlt ein neues Narrativ. 173 00:10:50,463 --> 00:10:52,363 Irgendeinen neuen Quatsch. 174 00:10:52,444 --> 00:10:55,467 Immer mehr Leute haben sich davon beeindrucken lassen, 175 00:10:55,567 --> 00:10:57,567 weil immer wieder was Neues kam. 176 00:10:57,695 --> 00:11:00,507 "Ach, dann kann es so gar nicht gewesen sein." 177 00:11:00,670 --> 00:11:02,941 Das fand ich sehr bedrückend. 178 00:11:03,041 --> 00:11:06,743 Aufgrund des ersten Narratives zu Beginn des Krieges 179 00:11:06,843 --> 00:11:10,430 haben wir eine Menge weitere Narrative bis heute erlebt, 180 00:11:10,530 --> 00:11:15,078 wo am Schluss stand, die NATO will was weiß ich wen angreifen, 181 00:11:15,178 --> 00:11:17,019 um einen Grund zu liefern, 182 00:11:17,119 --> 00:11:19,883 damit Russland in die Ukraine einmarschieren kann. 183 00:11:19,983 --> 00:11:22,696 Das ist eine Operation, die seit Jahren läuft. 184 00:11:22,793 --> 00:11:24,193 Vielen Dank. 185 00:11:24,293 --> 00:11:27,852 Wir beschäftigen uns vor allem mit Betroffenen digitaler Gewalt, 186 00:11:27,952 --> 00:11:31,096 das heißt mit Menschen, die persönlich angegriffen werden. 187 00:11:31,196 --> 00:11:35,231 Und wir haben unter unseren Klient*innen viele Menschen, 188 00:11:35,331 --> 00:11:36,849 die aktivistisch aktiv sind, 189 00:11:36,949 --> 00:11:39,989 die journalistisch aktiv sind oder politisch, 190 00:11:40,089 --> 00:11:43,013 sowohl auf Bundesebene als auch auf kommunaler Ebene. 191 00:11:43,113 --> 00:11:47,365 Wir sehen da auch einen Trend, der nicht ganz neu ist, 192 00:11:47,552 --> 00:11:50,598 der aber immer mehr Zulauf bekommt, 193 00:11:50,698 --> 00:11:55,062 dass z.B. Falschzitate von Politiker*innen verbreitet werden. 194 00:11:55,162 --> 00:11:57,431 Das ist nach deutschem Recht eine Verleumdung 195 00:11:57,531 --> 00:11:59,172 oder eine üble Nachrede. 196 00:11:59,272 --> 00:12:01,521 Das ist vielen Leuten gar nicht bewusst. 197 00:12:01,621 --> 00:12:03,313 Wenn man so was ungeprüft teilt, 198 00:12:03,413 --> 00:12:06,198 kann man sich wegen übler Nachrede strafbar machen. 199 00:12:06,298 --> 00:12:10,183 Wir sehen, dass diese Zitate eingesetzt werden, 200 00:12:10,283 --> 00:12:14,254 um strategisch die Glaubwürdigkeit der Politiker*innen zu untergraben 201 00:12:14,354 --> 00:12:18,285 um sie zu diffamieren und für unwürdig für ihr Amt darzustellen. 202 00:12:18,385 --> 00:12:20,285 Indem sie so dargestellt werden, 203 00:12:20,471 --> 00:12:24,313 als hätten sie, sogar in wörtlicher Rede mit einem wörtlichen Zitat, 204 00:12:24,413 --> 00:12:27,782 Positionen vertreten, die sie gar nicht vertreten haben. 205 00:12:27,882 --> 00:12:30,743 Ein Beispiel ist z.B. Renate Künast. 206 00:12:30,843 --> 00:12:35,017 Die haben wir unterstützt im Rahmen unserer Prozesskostenfinanzierung. 207 00:12:35,117 --> 00:12:38,368 Durch einige Instanzen mittlerweile. 208 00:12:38,468 --> 00:12:40,368 In Bezug auf zwei Falschzitate. 209 00:12:40,475 --> 00:12:43,149 Ein Zitat, das uns zuletzt beschäftigt hat, 210 00:12:43,173 --> 00:12:45,847 sie soll in einer Talkshow gesagt haben, 211 00:12:45,947 --> 00:12:47,677 dass Integration damit anfängt, 212 00:12:47,701 --> 00:12:50,442 dass wir Deutschen erst mal alle Türkisch lernen. 213 00:12:50,542 --> 00:12:56,138 Die Intention dahinter ist nicht so ganz undurchsichtig, sag ich mal. 214 00:12:56,238 --> 00:12:58,465 Sie soll eben so dargestellt werden, 215 00:12:58,565 --> 00:13:03,415 als wäre das ihre politische Position zur Integrationspolitik. 216 00:13:03,515 --> 00:13:06,132 Das ist aber etwas, was sie nicht gesagt hat. 217 00:13:06,232 --> 00:13:08,230 Es ist auch im Fernsehen gelaufen, 218 00:13:08,330 --> 00:13:10,242 d.h. man kann es gut nachvollziehen. 219 00:13:10,342 --> 00:13:13,821 Ich glaub, CORRECTIV hat es auch schon mehrfach abgecheckt. 220 00:13:13,921 --> 00:13:16,300 Was bemerkenswert an diesem Zitat ist, 221 00:13:16,400 --> 00:13:20,547 dass es sich hundertfach über die sozialen Netzwerke verbreitet hat. 222 00:13:20,647 --> 00:13:22,547 Vor allem über Facebook. 223 00:13:22,688 --> 00:13:27,210 Wir haben Renate Künast bei einer Klage gegenüber Facebook unterstützt. 224 00:13:27,310 --> 00:13:33,096 Facebook musste nicht nur das eine gefundene und gemeldete Meme entfernen, 225 00:13:33,196 --> 00:13:35,789 sondern sich auch aktiv daran beteiligen soll, 226 00:13:35,889 --> 00:13:38,965 weitere aufzufinden, auch in geschlossenen Gruppen, 227 00:13:39,065 --> 00:13:42,379 auf privaten Seiten, um dafür zu sorgen, 228 00:13:42,479 --> 00:13:44,700 dass diese massenhafte Falschinformation 229 00:13:44,800 --> 00:13:47,529 über Frau Künast eingedämmt wird. 230 00:13:47,633 --> 00:13:50,094 Für die Betroffenen, wenn so etwas passiert 231 00:13:50,194 --> 00:13:52,209 ist es tatsächlich eine Lebensaufgabe, 232 00:13:52,309 --> 00:13:55,151 diese Inhalte zu suchen und die Löschung zu beantragen. 233 00:13:55,248 --> 00:13:59,157 Und dann darauf zu hoffen, dass das soziale Netzwerk auch mitmacht. 234 00:13:59,257 --> 00:14:02,894 Haben Sie noch ein Beispiel, das Ihnen ad hoc einfällt? 235 00:14:02,994 --> 00:14:07,791 Wir haben ganz gut verstanden, glaube ich, worum es geht. 236 00:14:07,891 --> 00:14:12,420 Ich kann einfach, ich glaube manchmal, es ist gut, 237 00:14:12,520 --> 00:14:16,139 sich manchmal weniger dramatische Beispiele vor Augen zu führen, 238 00:14:16,239 --> 00:14:18,491 weil sie so viel näher sind. 239 00:14:18,942 --> 00:14:20,700 Es gibt einen Meme, 240 00:14:20,800 --> 00:14:26,005 es gab vor vier Wochen einen Meme, das umlief, wo steht, 241 00:14:26,105 --> 00:14:31,780 es ist verboten, das Lied "Layla" in Deutschland zu spielen. 242 00:14:32,805 --> 00:14:35,589 Und es ist einfach nicht so. Es ist nicht verboten. 243 00:14:36,421 --> 00:14:41,579 Natürlich, wenn man zuerst dieses Bild sieht mit dieser Botschaft, 244 00:14:41,679 --> 00:14:44,376 dann findet man es vielleicht witzig oder man denkt: 245 00:14:44,476 --> 00:14:48,507 "Oh mein Gott, Hammer." Und zack, hat man es erst mal geteilt. 246 00:14:48,607 --> 00:14:51,557 Das ist so im Kleinen, 247 00:14:51,581 --> 00:14:56,283 auch wenn es nicht um Angriffe auf Menschen geht 248 00:14:56,383 --> 00:14:58,654 oder um Weltpolitik geht, 249 00:14:58,754 --> 00:15:02,975 ist es echt wichtig, jedes Mal einmal kurz durchzuatmen 250 00:15:03,075 --> 00:15:05,779 und zu überlegen: Stimmt das jetzt? 251 00:15:05,879 --> 00:15:10,242 Wer hat es verbreitet und steckt jemand dahinter, 252 00:15:10,342 --> 00:15:12,500 der damit etwas erreichen will? 253 00:15:12,600 --> 00:15:17,185 Ich würde gerne dazu eine Sache sagen, was ich ganz interessant finde. 254 00:15:17,285 --> 00:15:19,105 Alle Fälle gehören zusammen. 255 00:15:19,205 --> 00:15:21,092 Das ist das Interessante. 256 00:15:21,192 --> 00:15:24,103 Es geht weniger darum, eine Erzählung zu bringen, 257 00:15:24,203 --> 00:15:27,608 sondern ganz viele kleine zu einem großen Teppich zu machen, 258 00:15:27,708 --> 00:15:29,564 wo das Vertrauen verlorengeht. 259 00:15:29,664 --> 00:15:31,564 Da gibt es von der New York Times, 260 00:15:31,712 --> 00:15:35,687 hier kann man wahrscheinlich dummerweise keine Links reinsetzen, 261 00:15:35,787 --> 00:15:39,265 aber von der New York Times gibt es eine tolle Geschichte, 262 00:15:39,365 --> 00:15:42,745 "operation and faction", wo nachvollzogen wird, 263 00:15:42,845 --> 00:15:46,656 wie weit und gezielt eine Desinformation verbreitet wird 264 00:15:46,756 --> 00:15:49,011 und mit welchem Sinn und Zweck. 265 00:15:49,214 --> 00:15:53,667 Da geht es um AIDS, dass AIDS vom CIA erfunden wurde. 266 00:15:53,767 --> 00:15:56,969 Das ist eine Wirkungskette, die wird irgendwann ausgelöst, 267 00:15:56,993 --> 00:15:58,616 die wirkt in 30 Jahren noch. 268 00:15:58,716 --> 00:16:01,129 Mit dem Beispiel, das Sie gerade gebracht haben, 269 00:16:01,229 --> 00:16:03,455 geht es nur darum, zu sagen, 270 00:16:04,099 --> 00:16:06,007 die Regierung macht irgendwas. 271 00:16:06,198 --> 00:16:08,184 Die Verwaltung macht irgendwas. 272 00:16:08,284 --> 00:16:10,189 Einfach nur Unsicherheit. 273 00:16:10,289 --> 00:16:11,839 Mehr braucht man da gar nicht. 274 00:16:11,939 --> 00:16:15,413 Der Effekt, der im Nachhinein ausgelöst wird, 275 00:16:15,531 --> 00:16:19,052 ist eine komplette Verunsicherung und Auflösung 276 00:16:19,152 --> 00:16:21,281 der gesamten gesellschaftlichen Debatte. 277 00:16:21,381 --> 00:16:23,202 Das finde ich sehr schlimm. 278 00:16:23,302 --> 00:16:25,077 Deswegen, wie Sie gerade sagten, 279 00:16:25,177 --> 00:16:27,077 müssen wir uns alle überlegen: 280 00:16:27,151 --> 00:16:30,015 Wie können wir lernen, mit Desinformation umzugehen 281 00:16:30,291 --> 00:16:32,291 und sie zu erkennen? 282 00:16:32,391 --> 00:16:34,814 Ich hab mich gerade gefragt, aber ich weiß nicht, 283 00:16:34,914 --> 00:16:36,857 ob Sie mir das beantworten können: 284 00:16:36,957 --> 00:16:40,177 Gibt es Zahlen darüber, weiß man, wie viele Menschen 285 00:16:40,277 --> 00:16:46,542 vermeintliche Informationen konsumieren und für wahre Fakten erkennen? 286 00:16:48,400 --> 00:16:49,968 Richtige Zahlen gibt es nicht. 287 00:16:50,068 --> 00:16:52,188 Es gibt keine verlässliche Grundlage. 288 00:16:52,288 --> 00:16:55,992 Man kann nur sehen, welche Verbreitungsraten hat man, 289 00:16:56,092 --> 00:16:58,365 wo kommen die her und wo gehen die weiter. 290 00:16:58,465 --> 00:17:01,219 Wir haben bei CORRECTIV einige Erhebungen dazu gemacht. 291 00:17:01,319 --> 00:17:03,047 Wir können dann feststellen, 292 00:17:03,147 --> 00:17:05,832 dass ungefähr die Hälfte aller Desinformationskampagnen 293 00:17:05,932 --> 00:17:07,572 bei YouTube gestartet werden 294 00:17:07,672 --> 00:17:12,658 und in den anderen sozialen Kanälen bzw. WhatsApp, Telegram gestartet 295 00:17:12,758 --> 00:17:14,586 oder weiterverbreitet werden. 296 00:17:14,686 --> 00:17:19,228 Sehr viel kommt immer noch von Facebook, knapp 30%, ein bisschen weniger. 297 00:17:19,328 --> 00:17:21,922 Der Rest kommt aus den anderen Kanälen. 298 00:17:22,022 --> 00:17:25,696 Dann landet man evtl. im vermeintlichen Kaninchenbau. 299 00:17:25,796 --> 00:17:28,827 Man verfolgt eine Information, die falsch ist 300 00:17:28,929 --> 00:17:32,441 und klickt dann auf die nächste, die natürlich auch falsch ist usw. 301 00:17:32,541 --> 00:17:35,099 Wenn wir über die Maßnahmen sprechen wollen, 302 00:17:35,199 --> 00:17:39,355 Herr Büchner, welche Strategie hat die Bundesregierung? 303 00:17:39,455 --> 00:17:40,978 Gibt es eine? 304 00:17:41,509 --> 00:17:46,970 Ja, das Wichtige ist, was hier auch schon angesprochen wurde, 305 00:17:47,361 --> 00:17:51,353 wir wollen gern, dass möglichst viele Menschen sensibel sind 306 00:17:51,453 --> 00:17:53,923 für gezielte Falschinformation. 307 00:17:54,023 --> 00:17:58,800 Es geht um Medienkompetenz. 308 00:17:58,900 --> 00:18:01,185 Wir wollen gern Medienkompetenz stärken. 309 00:18:01,266 --> 00:18:04,599 Dafür gibt es ganz viele Programme, die die Bundesregierung, 310 00:18:04,699 --> 00:18:06,807 die auch das Bundespresseamt unterstützt. 311 00:18:06,941 --> 00:18:10,666 Die Bundeszentrale für politische Bildung macht da auch wunderbare Sachen. 312 00:18:10,766 --> 00:18:12,758 Auch in Zusammenarbeit mit Schulen. 313 00:18:12,858 --> 00:18:15,047 Es gibt eine ganze Menge Ansätze. 314 00:18:15,147 --> 00:18:18,584 Wenn Sie unsere Arbeit im Bundespresseamt meinen, 315 00:18:18,684 --> 00:18:21,362 dann beschäftigen wir uns auch damit. 316 00:18:21,462 --> 00:18:28,383 Es gibt in der Bundesregierung z.B. seit Beginn des russischen Angriffskrieges 317 00:18:28,483 --> 00:18:32,916 gegen die Ukraine eine Task Force im Bundesinnenministerium, 318 00:18:33,016 --> 00:18:36,883 die sich ausschließlich mit gezielter Desinformation beschäftigt 319 00:18:36,983 --> 00:18:38,883 durch russische Propaganda. 320 00:18:38,978 --> 00:18:43,358 Wir haben im Bundespresseamt auch eine Arbeitsgemeinschaft Desinformation. 321 00:18:43,499 --> 00:18:45,275 Wir beschäftigen uns täglich damit. 322 00:18:45,375 --> 00:18:47,391 Wenn wir morgens eine Morgenlage machen, 323 00:18:47,491 --> 00:18:50,164 in der wir uns die Nachrichten in der Welt anschauen, 324 00:18:50,264 --> 00:18:52,926 gibt es immer einen Punkt, wo wir darüber reden, 325 00:18:53,026 --> 00:18:59,893 entstehen in sozialen Medien gerade wirksame neue Narrative, 326 00:18:59,993 --> 00:19:02,628 die möglicherweise schon viele Likes haben 327 00:19:02,771 --> 00:19:04,181 und weiterverbreitet werden. 328 00:19:04,281 --> 00:19:07,586 Und wir sprechen darüber, ob es notwendig ist, darauf zu reagieren. 329 00:19:08,930 --> 00:19:10,814 Was würden Sie sagen, Frau Löwisch, 330 00:19:10,914 --> 00:19:13,187 "sensibilisieren" haben wir gerade gehört. 331 00:19:13,287 --> 00:19:16,483 Aber wenn wir es umdrehen, 332 00:19:16,583 --> 00:19:21,403 wie wir damit die Resilienz steigern könnten 333 00:19:21,503 --> 00:19:25,746 gegen Desinformation, was würden Sie da raten? 334 00:19:26,889 --> 00:19:29,447 Also, eine Sache, die natürlich sehr wichtig ist 335 00:19:29,547 --> 00:19:31,905 für Journalistinnen und Journalisten, ist schon, 336 00:19:32,005 --> 00:19:34,771 dass es Organisationen wie HateAid gibt. 337 00:19:34,871 --> 00:19:39,141 Zum Teil haben Journalistinnen und Journalisten ein bisschen Angst. 338 00:19:39,241 --> 00:19:46,349 vor diesen Leuten, die diese Attacken und Kampagnen starten können. 339 00:19:46,449 --> 00:19:50,323 Und nun, weil sie Resilienz sagen: 340 00:19:50,423 --> 00:19:53,972 Klar, ich glaube, 341 00:19:54,072 --> 00:19:57,184 es ist wichtig, Journalistinnen und Journalisten zu schulen, 342 00:19:57,284 --> 00:19:59,184 wie gehst du damit um. 343 00:19:59,268 --> 00:20:02,106 Oder welche Möglichkeiten gibt es, damit umzugehen. 344 00:20:02,206 --> 00:20:04,219 Das andere, was wir machen, ist, 345 00:20:04,319 --> 00:20:06,364 seit ungefähr vier Jahren, 346 00:20:06,464 --> 00:20:10,381 es gibt auch eine Reihe von anderen Organisationen, die das machen, 347 00:20:10,481 --> 00:20:14,778 unsere ehemaligen Schülerinnen und Schüler gehen an Schulen, 348 00:20:14,878 --> 00:20:17,738 an Hauptschulen, an Realschulen, an Gymnasien, 349 00:20:17,838 --> 00:20:20,931 um über das Thema zu reden. 350 00:20:21,031 --> 00:20:24,307 Um zu zeigen, wie funktionieren diese Fakes, 351 00:20:24,407 --> 00:20:26,671 wie funktionieren Deep Fakes. 352 00:20:26,771 --> 00:20:31,342 Es gibt inzwischen Dinge, die sind sehr schwer zu erkennen. 353 00:20:31,442 --> 00:20:35,030 Wie kann man das machen, wie kann man damit umgehen? 354 00:20:35,130 --> 00:20:36,988 Das ist eine Sache, die wir machen. 355 00:20:37,088 --> 00:20:40,444 Dann ist bei uns natürlich klar, es ist auch im Stundenplan: 356 00:20:40,600 --> 00:20:44,053 Fakten checken und digitale Verifikation. 357 00:20:44,153 --> 00:20:48,914 Jeder einzelne Mensch, der bei mir ausgebildet wird, 358 00:20:49,014 --> 00:20:53,712 muss diese Fächer belegen und das lernen. 359 00:20:53,812 --> 00:20:59,182 Ich mein, wie soll man von den 360 00:20:59,282 --> 00:21:03,907 sagen wir mal 16-Jährigen in einer Realschule in Bayern verlangen, 361 00:21:04,007 --> 00:21:08,700 dass sie das machen, wenn wir Profis, die dafür bezahlt werden, 362 00:21:08,800 --> 00:21:12,898 so was nicht können und das nicht machen. Das ist ganz wichtig. 363 00:21:13,098 --> 00:21:16,764 Wir sprechen gerade eigentlich über Prävention, 364 00:21:16,864 --> 00:21:19,356 was lässt sich tun, was muss gemacht werden. 365 00:21:19,456 --> 00:21:22,276 Wie geht man mit Menschen um, 366 00:21:22,376 --> 00:21:27,961 die schon so viel Falschinformationen gelesen, konsumiert haben, 367 00:21:28,061 --> 00:21:31,486 dass sie sich nicht mehr überzeugen lassen, 368 00:21:31,586 --> 00:21:34,468 dass es eine Falschinformation war? 369 00:21:36,266 --> 00:21:39,614 Frage an Sie alle. Fangen wir mit Ihnen an, Herr Büchner. 370 00:21:40,265 --> 00:21:46,883 Ich würde grundsätzlich nie aufgeben den Versuch, 371 00:21:46,983 --> 00:21:48,880 Menschen zu überzeugen, 372 00:21:48,980 --> 00:21:52,548 mit klaren Fakten, dass sie falsch liegen 373 00:21:52,648 --> 00:21:57,486 oder einer falschen Erzählung aufsitzen an der Stelle. 374 00:21:58,418 --> 00:21:59,946 Und da noch mal: 375 00:22:00,046 --> 00:22:01,946 Es geht nicht um Einschätzungsfragen. 376 00:22:02,011 --> 00:22:06,117 Die Bundesregierung muss das aushalten, 377 00:22:06,217 --> 00:22:08,461 wenn sie kritisiert wird für Entscheidungen. 378 00:22:08,561 --> 00:22:11,077 Es geht nicht darum, die Leute davon zu überzeugen, 379 00:22:11,177 --> 00:22:13,800 dass es richtig ist, was die Regierung tut. 380 00:22:13,900 --> 00:22:18,563 Es geht nur um die Frage: Werden gezielt Falschinformationen verbreitet? 381 00:22:18,663 --> 00:22:23,768 Ich würde gerne noch mal den berühmten Fall aus dem März nennen, 382 00:22:23,868 --> 00:22:25,809 der sich schnell hat aufklären lassen, 383 00:22:25,909 --> 00:22:27,917 wo plötzlich behauptet wurde, 384 00:22:28,019 --> 00:22:33,922 da wäre ein Russe von Ukrainern umgebracht worden. 385 00:22:34,036 --> 00:22:36,223 Das hat ein TikTok-User verbreitet. 386 00:22:36,289 --> 00:22:38,451 Es wurde relativ schnell aufgeklärt. 387 00:22:38,551 --> 00:22:42,584 Der konnte auch dingfest gemacht werden, der User, der das verbreitet hat. 388 00:22:42,684 --> 00:22:45,603 Das trägt wirklich dazu bei, sozialen Unfrieden zu stiften, 389 00:22:45,703 --> 00:22:48,960 möglicherweise Leute gegeneinander aufzuhetzen. 390 00:22:49,060 --> 00:22:54,342 Da müssen wir sehr schnell und sehr klar sagen, 391 00:22:54,442 --> 00:22:56,342 was die Fakten sind. 392 00:22:56,473 --> 00:22:58,348 Da ist es natürlich auch gut, 393 00:22:58,512 --> 00:23:00,847 wenn sich nicht nur die Bundesregierung 394 00:23:00,947 --> 00:23:03,522 aus einer relativ hohen Flughöhe zu so was äußert, 395 00:23:03,622 --> 00:23:06,403 sondern dass die Polizei zur Aufklärung beitragen kann. 396 00:23:06,503 --> 00:23:11,602 Dass also Autoritäten sich mit klaren Fakten zu den Dingen äußern. 397 00:23:11,702 --> 00:23:15,001 Es gibt Menschen, die können Sie fast nicht mehr erreichen. 398 00:23:15,101 --> 00:23:19,163 Auch in der Corona-Pandemie gab es viele Menschen, 399 00:23:19,263 --> 00:23:21,377 die so fest davon überzeugt waren, 400 00:23:21,477 --> 00:23:27,652 dass mit der Impfung ganz üble Sachen beabsichtigt wären. 401 00:23:27,752 --> 00:23:31,487 Wenn sich Leute in so ein Gedankenbild eingraben, 402 00:23:31,587 --> 00:23:33,176 kann es sehr schwer werden. 403 00:23:33,276 --> 00:23:39,287 Und trotzdem, wir dürfen nicht müde werden zu versuchen, 404 00:23:39,387 --> 00:23:40,964 Leute davon zu überzeugen, 405 00:23:41,064 --> 00:23:43,351 dass sie da Scharlatanen aufsitzen 406 00:23:43,451 --> 00:23:48,196 und sie im Zweifel sogar ihr eigenes Leben riskieren. 407 00:23:48,296 --> 00:23:50,708 Möchten Sie das ergänzen? 408 00:23:50,816 --> 00:23:53,363 Ich würde gerne daran anknüpfen. 409 00:23:53,463 --> 00:23:55,932 Auch an das, was davor gesagt wurde. 410 00:23:56,032 --> 00:23:58,807 Wenn wir mit solchen Falschinformationen zu tun haben, 411 00:23:58,907 --> 00:24:02,263 dann in erster Linie deswegen, weil damit 412 00:24:02,363 --> 00:24:04,643 zu Hass und Hetze angestachelt wurde. 413 00:24:04,743 --> 00:24:08,465 Das ist im Endeffekt sicherlich, widersprechen Sie mir gern, 414 00:24:08,565 --> 00:24:11,217 aber mindestens ein Ziel, das damit verfolgt wird, 415 00:24:11,317 --> 00:24:13,217 um Menschen gegeneinander aufzuhetzen 416 00:24:13,358 --> 00:24:15,824 oder sie gegen die Regierung aufzuhetzen, 417 00:24:15,924 --> 00:24:19,403 um die Polarisierung und die Gräben in der Gesellschaft zu verstärken. 418 00:24:19,503 --> 00:24:21,646 D.h., Desinformation führt regelmäßig dazu, 419 00:24:21,746 --> 00:24:25,110 dass Menschen aufs Übelste angegriffen werden im Netz, 420 00:24:25,210 --> 00:24:28,240 dass sie Hassnachrichten bekommen, 421 00:24:28,340 --> 00:24:30,240 aber auch Morddrohungen, 422 00:24:30,325 --> 00:24:32,932 dass ihre privaten Informationen gedoxt werden. 423 00:24:33,032 --> 00:24:35,521 Auch mit Deep Fakes hatten wir schon zu tun. 424 00:24:35,621 --> 00:24:37,430 Es ist einfacher denn je, 425 00:24:37,530 --> 00:24:39,435 Deep Fakes über Menschen zu erstellen. 426 00:24:39,535 --> 00:24:42,808 Man kann sich eine App runterladen, dann bekommt man Vorschläge, 427 00:24:42,908 --> 00:24:45,928 was man mit den Gesichtern seiner Freunde anfangen könnte. 428 00:24:46,028 --> 00:24:48,934 Es ist einfach wahnsinnig einfach, 429 00:24:49,074 --> 00:24:50,721 möchte ich damit sagen. 430 00:24:50,821 --> 00:24:53,872 Wir müssen uns vor Augen halten, dass das, was da passiert, 431 00:24:53,972 --> 00:24:55,872 eine Strategie verfolgt, 432 00:24:55,917 --> 00:25:03,081 die wird von wenigen befeuert, aber kann große Effekte erzielen. 433 00:25:03,276 --> 00:25:05,369 Warum können sie das? 434 00:25:05,469 --> 00:25:09,665 Das, was da stattfindet, findet auf Online-Plattformen statt. 435 00:25:09,765 --> 00:25:14,223 Private Akteur*innen, die wirtschaftliche Interessen verfolgen 436 00:25:14,323 --> 00:25:16,642 mit dem Angebot ihrer Plattform 437 00:25:16,742 --> 00:25:19,263 und die zum Beispiel dafür Algorithmen einsetzen, 438 00:25:19,363 --> 00:25:21,088 die dann wieder dafür sorgen, 439 00:25:21,188 --> 00:25:23,410 dass, wenn ich einmal etwas angeklickt habe, 440 00:25:23,510 --> 00:25:25,410 was Falschinformationen enthält, 441 00:25:25,493 --> 00:25:27,993 dass mir immer mehr davon angezeigt wird 442 00:25:28,138 --> 00:25:32,062 und dass ich immer mehr in das "rabbit hole" hineingesaugt werde. 443 00:25:32,162 --> 00:25:35,453 Da sehe ich auch eine Mitverantwortung der Plattform, 444 00:25:35,553 --> 00:25:37,931 die unbedingt in den Blick genommen werden muss. 445 00:25:38,031 --> 00:25:41,357 Natürlich kann man Menschen persönlich ansprechen und denen sagen: 446 00:25:41,457 --> 00:25:44,121 "Das ist falsch, bitte fall darauf nicht rein." 447 00:25:44,221 --> 00:25:46,099 Wenn wir uns entschieden haben, 448 00:25:46,221 --> 00:25:49,246 unseren öffentlichen Diskurs und auch den Ort, 449 00:25:49,346 --> 00:25:51,770 wo wir unsere meisten Informationen herbekommen, 450 00:25:51,870 --> 00:25:53,957 Studien zeigen, dass gerade junge Menschen 451 00:25:54,057 --> 00:25:56,387 v.a. über Social Media Nachrichten konsumieren, 452 00:25:56,487 --> 00:25:59,567 wenn wir uns entschieden haben, dass wir diese Aufgabe 453 00:25:59,667 --> 00:26:03,715 in die Hände von privaten Akteur*innen wie Facebook, Twitter usw. 454 00:26:03,815 --> 00:26:07,468 oder eben auch schlimmeren Beispielen wie Telegram legen wollen, 455 00:26:07,568 --> 00:26:10,243 müssen wir uns auch überlegen, wie wir damit umgehen, 456 00:26:10,343 --> 00:26:12,573 wenn die wirtschaftlich incentiviert sind 457 00:26:12,707 --> 00:26:15,182 und solche Informationen befeuern 458 00:26:15,282 --> 00:26:18,639 und dafür sorgen, dass einem nichts anderes mehr angezeigt wird. 459 00:26:18,739 --> 00:26:20,583 Wie will man die Leute erreichen? 460 00:26:20,703 --> 00:26:22,802 Wenn man Plakate aufhängt, ja, okay, 461 00:26:22,902 --> 00:26:26,732 auch Leute, die viel auf Facebook unterwegs sind, müssen mal rausgehen. 462 00:26:26,832 --> 00:26:30,367 Aber sobald sie die digitalen Medien anschalten, sehen sie nur noch das 463 00:26:30,467 --> 00:26:31,798 sehen sie nur noch das 464 00:26:31,898 --> 00:26:35,141 und die Informationen der Bundesregierung erreichen sie nicht. 465 00:26:35,241 --> 00:26:37,498 Möchten Sie dazu auch noch etwas sagen? 466 00:26:37,598 --> 00:26:40,401 Sonst würde ich die Runde öffnen ins Publikum. 467 00:26:40,501 --> 00:26:43,310 Gibt es schon die ein oder andere Frage? 468 00:26:43,410 --> 00:26:48,909 Dann einfach gerne die Hand heben und wir kommen mit einem Mikrofon zu Ihnen. 469 00:26:49,009 --> 00:26:51,220 Sie können sich gern mit Namen vorstellen 470 00:26:51,320 --> 00:26:55,698 und dann Ihre Frage in die Runde oder an eine bestimmte Person richten. 471 00:26:58,130 --> 00:27:00,994 Es war eben schon von Deep Fakes die Rede. 472 00:27:02,744 --> 00:27:06,932 Jetzt an Herrn Büchner die Frage: 473 00:27:08,028 --> 00:27:10,845 Ist es sinnvoll oder gibt es da 474 00:27:10,945 --> 00:27:13,875 oder wird darüber schon diskutiert, 475 00:27:13,975 --> 00:27:18,655 generell die Glaubhaftigkeit von Videos und Bildmaterial, 476 00:27:18,755 --> 00:27:21,835 vor allem auch in der judikativen Ebene infrage zu stellen? 477 00:27:25,214 --> 00:27:28,263 Wir schauen uns grundsätzlich 478 00:27:28,363 --> 00:27:31,698 Material, das in sozialen Medien verbreitet wird, ja auch an. 479 00:27:31,798 --> 00:27:34,745 Aber man muss auch sagen, es gibt Grenzen dessen, 480 00:27:34,845 --> 00:27:37,438 was wir als Bundespresseamt tun können. 481 00:27:38,140 --> 00:27:39,917 Sie wissen alle, 482 00:27:40,017 --> 00:27:42,755 wenn Fakes verbreitet werden 483 00:27:42,855 --> 00:27:47,320 über Messenger, Telegram ist ja ein bisschen beides, 484 00:27:47,420 --> 00:27:50,987 sowohl eine Art Broadcasting-System als auch ein Messenger, 485 00:27:51,087 --> 00:27:53,309 aber wenn es innerhalb von Telegram passiert, 486 00:27:53,409 --> 00:27:57,284 innerhalb von WhatsApp, bekommen wir das ja nicht mit. 487 00:27:57,384 --> 00:28:02,777 Sowohl Medien als auch die Regierung können nur reagieren 488 00:28:02,877 --> 00:28:04,777 und Dinge wahrnehmen, 489 00:28:04,924 --> 00:28:08,245 die eine gewisse Wahrnehmungsschwelle überschritten haben. 490 00:28:09,551 --> 00:28:11,976 Das beobachten wir sehr genau. 491 00:28:12,096 --> 00:28:15,491 Und damit beschäftigen sich auch schon verschiedene Arbeitsgruppen. 492 00:28:15,591 --> 00:28:19,903 Da gibt es auch sehr wertvolle Arbeit, die geleistet wird 493 00:28:20,003 --> 00:28:22,840 nicht von der Regierung, sondern von Leuten, 494 00:28:22,940 --> 00:28:24,904 die sich um Fact-Checking kümmern. 495 00:28:25,004 --> 00:28:29,276 Da machen auch Nachrichtenagenturen einen sehr guten Job. 496 00:28:29,376 --> 00:28:31,963 AFP, du warst mal Chefredakteurin, 497 00:28:32,063 --> 00:28:33,889 hat ein eigenes Fact-Checking-Team, 498 00:28:33,989 --> 00:28:36,520 das z.B. Bilder und Videos überprüft. 499 00:28:36,620 --> 00:28:39,753 Es wird z.B. geprüft, kann das überhaupt stimmen, 500 00:28:39,853 --> 00:28:42,960 dass die Bilder von einem bestimmten Ort sind. 501 00:28:43,469 --> 00:28:47,735 Oder ob bestimmte Zeitangaben zutreffend sind. 502 00:28:47,835 --> 00:28:50,635 Aber eben auch so Recherche-Kooperationen 503 00:28:50,735 --> 00:28:54,982 und Recherche-Stiftungen wie CORRECTIV leisten hier wertvolle Arbeit 504 00:28:55,082 --> 00:28:57,843 im Aufdecken von solchen Fakes. 505 00:28:57,943 --> 00:29:01,265 Das ist nicht primär Aufgabe einer Regierung. 506 00:29:01,365 --> 00:29:04,095 Aber wir versuchen das natürlich auch wahrzunehmen 507 00:29:04,195 --> 00:29:07,534 und dort, wo wir es für gefährlich halten, auch zu reagieren. 508 00:29:07,634 --> 00:29:10,759 Darf ich dazu etwas hinzufügen? 509 00:29:10,859 --> 00:29:12,801 Ich find diese Frage total gut. 510 00:29:12,901 --> 00:29:15,436 Das ist jetzt keine Schmeichelei. 511 00:29:15,536 --> 00:29:18,818 Ein Teil der Frage ist noch nicht beantwortet. 512 00:29:18,918 --> 00:29:22,111 Nämlich: Gibt es einen Punkt, an den wir kommen, 513 00:29:22,211 --> 00:29:24,528 wo der Videobeweis nichts mehr gilt? 514 00:29:24,628 --> 00:29:27,452 Nehmen wir mal an, wir reden ja alle oft, 515 00:29:27,552 --> 00:29:31,473 z.B. im Zusammenhang mit Rassismus bei der Polizei 516 00:29:31,573 --> 00:29:35,855 davon, dass die alle solche Kameras tragen sollen. 517 00:29:35,955 --> 00:29:39,390 Damit man hinterher sehen kann, was wirklich passiert ist. 518 00:29:39,490 --> 00:29:42,669 Was ist, wenn wir uns nicht mehr darauf verlassen können, 519 00:29:42,769 --> 00:29:44,669 dass das, was da gezeigt wird, 520 00:29:44,768 --> 00:29:46,768 irgendwie der Realität entspricht. 521 00:29:46,868 --> 00:29:49,018 Auch das kann man irgendwann manipulieren. 522 00:29:49,118 --> 00:29:55,060 Kann das vor Gericht noch ein Beweis - 523 00:29:55,160 --> 00:29:58,234 Also, können Bilder eigentlich in Zukunft 524 00:29:58,258 --> 00:30:01,024 vor Gericht noch Beweiskraft haben? 525 00:30:01,124 --> 00:30:03,461 Das finde ich eine total spannende Frage. 526 00:30:03,561 --> 00:30:05,766 Ehrlich gesagt, hab ich keine Antwort darauf. 527 00:30:05,935 --> 00:30:08,935 Ich weiß nicht, ob es irgendwelche Gesetzesvorhaben 528 00:30:09,057 --> 00:30:11,057 oder irgendwelche Prozesse gibt, 529 00:30:11,101 --> 00:30:13,446 die darüber reflektieren. 530 00:30:13,556 --> 00:30:16,496 ob man solche Dinge als Beweismittel zulassen kann 531 00:30:16,769 --> 00:30:18,926 oder ob es ein Verfahren gibt, 532 00:30:19,038 --> 00:30:21,883 das vom Verfassungsgericht anhängig ist oder so was. 533 00:30:21,983 --> 00:30:25,174 Das werd ich sofort googlen, wenn ich hier fertig bin. 534 00:30:26,306 --> 00:30:28,116 Wow, was für ein Kompliment. 535 00:30:28,216 --> 00:30:30,116 Danke für deine Frage. 536 00:30:30,161 --> 00:30:32,967 Wir haben die nächste Frage direkt daneben. 537 00:30:33,067 --> 00:30:35,341 Ich sehe Sie auch schon wieder. 538 00:30:35,441 --> 00:30:37,341 Ich werd Sie nicht vergessen. 539 00:30:39,000 --> 00:30:42,861 Guten Tag. Mein Name ist Amad Abdulhey. Ich komme aus Syrien, aus Idlib. 540 00:30:45,871 --> 00:30:53,428 Es gab Desinformationen z.B. bezüglich des Giftgasangriffs in Syrien, 541 00:30:53,528 --> 00:30:55,779 wo die russischen Medien, 542 00:30:55,879 --> 00:31:00,348 es wurde in einem Artikel sehr gut beschrieben, abstreiten, 543 00:31:00,448 --> 00:31:02,348 behindern und verwirren. 544 00:31:02,452 --> 00:31:05,640 Das ist die Strategie, die Russland 545 00:31:05,664 --> 00:31:09,767 in Bezug auf den Giftgasangriff gefahren hat. 546 00:31:13,423 --> 00:31:16,431 Das Problem, das ich da einfach sehe, 547 00:31:16,531 --> 00:31:22,826 dass durch guten Journalismus es manchmal so ist, 548 00:31:23,226 --> 00:31:26,431 zum Beispiel "Russia Today" ist leichter zu machen, 549 00:31:26,531 --> 00:31:29,150 man muss immer noch schreiben "vermeintlich", 550 00:31:29,250 --> 00:31:35,006 z.B. solche Wörter wie der "vermeintliche Giftgasangriff", 551 00:31:35,106 --> 00:31:39,286 weil man im Qualitätsjournalismus so was beschreiben muss. 552 00:31:40,553 --> 00:31:43,684 Ich hätte jetzt irgendwie 553 00:31:43,784 --> 00:31:46,673 eine Antwort darauf bekommen, 554 00:31:46,773 --> 00:31:49,136 wie können wir sagen: 555 00:31:49,210 --> 00:31:51,132 "Doch, so ist es". 556 00:31:51,156 --> 00:31:55,873 Ohne dass wir sagen, das ist unsere Meinung. 557 00:31:57,173 --> 00:32:01,431 Wie gehen Journalist*innen damit um? 558 00:32:02,031 --> 00:32:04,009 Kann ich dazu was sagen? 559 00:32:04,645 --> 00:32:08,495 Ich glaube, der Journalismus muss an dieser Stelle wissenschaftlicher werden. 560 00:32:08,695 --> 00:32:10,754 Wir müssen das hinkriegen, 561 00:32:10,854 --> 00:32:14,284 so eine Art Fußnoten-Journalismus aufzubauen. 562 00:32:14,371 --> 00:32:17,611 Dass wir nicht nur eine Behauptung in den Raum stellen, 563 00:32:17,715 --> 00:32:21,135 sondern immer zu den Behauptungen auch die Belege liefern. 564 00:32:21,244 --> 00:32:24,639 Bisher wird das in der Regel im Text gemacht, 565 00:32:24,739 --> 00:32:27,694 indem wir im Text auf die Quellen verweisen. 566 00:32:27,794 --> 00:32:30,328 Also: Nach Auskunft von xyz. 567 00:32:30,428 --> 00:32:32,376 Ich glaub, das reicht nicht. 568 00:32:32,476 --> 00:32:34,769 Wir müssen immer tiefer gehen. 569 00:32:34,869 --> 00:32:38,879 Sagen, das ist in diesem Falle z.B. eine Untersuchung 570 00:32:38,979 --> 00:32:43,146 der UNO dazu. Das ist eine Untersuchung der Kriminalpolizei dazu. 571 00:32:43,246 --> 00:32:47,287 Im Idealfall: Das sind die Belege, die die Kriminalpolizei gefunden hat. 572 00:32:47,387 --> 00:32:50,590 Sodass die Beweistiefe so dicht wird, 573 00:32:50,690 --> 00:32:53,248 dass ich am Ende die Zusammenfassung des Berichts 574 00:32:53,348 --> 00:32:55,378 als glaubwürdige Quelle benutzen kann. 575 00:32:55,478 --> 00:32:58,980 Das Dumme ist, bei den Propaganda-Organen wie "Russia Today", 576 00:32:59,135 --> 00:33:00,953 die müssen sich keine Mühe machen. 577 00:33:01,053 --> 00:33:03,177 Die können einfach irgendwas erfinden. 578 00:33:03,277 --> 00:33:05,289 Sie erfinden dann Fußnoten. 579 00:33:05,389 --> 00:33:07,907 Deswegen ist das der schwere Part dabei. 580 00:33:08,007 --> 00:33:11,365 Ich persönlich glaub, das ist der einzige Weg, der machbar ist. 581 00:33:12,627 --> 00:33:14,407 Vielen Dank für deine Frage. 582 00:33:14,538 --> 00:33:16,839 Ich glaube, Sie wollen noch was dazu sagen. 583 00:33:16,939 --> 00:33:19,685 Ich würde gerne eine Sache ergänzen, daran anknüpfend, 584 00:33:19,785 --> 00:33:23,063 und an die Rolle der Online-Plattformen appellieren 585 00:33:23,181 --> 00:33:25,863 und an die Rolle, die alle Nutzenden einnehmen können 586 00:33:25,948 --> 00:33:28,163 bei der Verbreitung der Desinformationen. 587 00:33:28,263 --> 00:33:30,614 Gerade im Zusammenhang mit dem Ukraine-Krieg 588 00:33:30,714 --> 00:33:32,432 haben wir uns z.B. angesehen, 589 00:33:32,532 --> 00:33:34,350 wie sich bestimmte Narrative, 590 00:33:34,450 --> 00:33:36,497 die man als Propaganda bezeichnen kann, 591 00:33:36,597 --> 00:33:39,687 die nicht immer strafbar sind und reine Desinformation, 592 00:33:39,787 --> 00:33:42,790 sondern manchmal eine Verdrehung der Tatsachen 593 00:33:42,890 --> 00:33:47,690 oder eine Umkehr, wer ist schuld an dem, was da passiert. 594 00:33:47,790 --> 00:33:49,690 Und wie sollte man darauf reagieren? 595 00:33:49,830 --> 00:33:52,391 Wir haben uns angesehen, wie sich das verbreitet. 596 00:33:52,491 --> 00:33:54,868 Wir haben gesehen, dass auch hier wieder wenige, 597 00:33:54,968 --> 00:33:57,178 man muss von Accounts sprechen, 598 00:33:57,278 --> 00:33:59,980 es sind keine Menschen, sondern erst mal nur Accounts, 599 00:34:00,080 --> 00:34:02,641 wie viele Menschen dahinterstehen, weiß man nicht, 600 00:34:02,741 --> 00:34:04,641 es sind wenige hochaktive Accounts, 601 00:34:04,804 --> 00:34:08,044 die solche Narrative in den sozialen Medien verbreiten. 602 00:34:08,126 --> 00:34:10,757 Das machen sie, wenn die Accounts selber 603 00:34:10,857 --> 00:34:12,704 keine große Reichweite haben. 604 00:34:12,804 --> 00:34:15,489 D.h. sie würden nicht viele Menschen damit erreichen. 605 00:34:15,589 --> 00:34:18,090 Sie gehen gezielt in große Accounts rein. 606 00:34:18,190 --> 00:34:21,167 Z.B. in offizielle Accounts von Politiker*innen, 607 00:34:21,267 --> 00:34:23,167 608 00:34:23,270 --> 00:34:28,033 bei den großen Medien, ZDF, ARD, Welt, Bild usw. 609 00:34:28,133 --> 00:34:30,033 Sie gehen da in die Kommentarspalten 610 00:34:30,188 --> 00:34:32,696 und z.T. ohne Zusammenhänge und Erklärungen 611 00:34:32,720 --> 00:34:36,096 verbreiten sie dort ihre Hashtags und Narrative. 612 00:34:36,196 --> 00:34:38,550 Und das ist ein Appell an den Journalismus 613 00:34:38,650 --> 00:34:40,897 und an alle, die soziale Medien nutzen. 614 00:34:40,997 --> 00:34:44,203 Auf so was soll man nicht ungesehen aufspringen. 615 00:34:44,303 --> 00:34:47,006 "Ah, das ist der trending hashtag auf Twitter heute. 616 00:34:47,106 --> 00:34:50,417 Dazu will ich auch was twittern. Dann verbreit ich den weiter."U 617 00:34:50,517 --> 00:34:53,921 So kann man in das Fettnäpfchen treten, 618 00:34:54,021 --> 00:34:55,799 was einem hier vorbereitet wurde. 619 00:34:55,899 --> 00:34:57,818 Indem man nämlich selber dafür sorgt, 620 00:34:57,918 --> 00:35:00,078 dass der Hashtag weiterverbreitet wird. 621 00:35:00,178 --> 00:35:02,391 Die sozialen Medien unterscheiden sie nicht, 622 00:35:02,491 --> 00:35:06,038 passiert das in kritischer Art und Weise, in positiver oder negativer, 623 00:35:06,138 --> 00:35:08,568 hasserfüllter oder was auch immer. 624 00:35:09,894 --> 00:35:12,772 Es wird einfach weiterverbreitet und der Hashtag trendet. 625 00:35:12,872 --> 00:35:16,293 Dann schauen Journalist*innen, was beschäftigt das Land. 626 00:35:16,329 --> 00:35:20,763 Sie sehen, offensichtlich sind viele Bürger*innen der Meinung, 627 00:35:20,863 --> 00:35:24,663 dass das vielleicht nicht so gut ist, was die Regierung macht. 628 00:35:24,763 --> 00:35:26,742 Ich würde es nicht so verallgemeinern. 629 00:35:26,842 --> 00:35:28,742 Es gilt sicherlich für einige. 630 00:35:28,950 --> 00:35:30,965 Aber für den Journalismus zu sprechen, 631 00:35:31,065 --> 00:35:33,997 würd ich behaupten, wir schauen uns nicht bei Twitter 632 00:35:34,021 --> 00:35:35,764 die Quasi-Themen des Tages an. 633 00:35:35,864 --> 00:35:38,043 Ich möchte das gar nicht verallgemeinern. 634 00:35:38,143 --> 00:35:40,747 Das ist richtig. Danke, dass Sie darauf hinweisen. 635 00:35:40,847 --> 00:35:42,711 Es war etwas zu plakativ. 636 00:35:42,811 --> 00:35:45,714 Aber so funktioniert Meinungsbildung heute. 637 00:35:45,814 --> 00:35:49,020 Das ist nicht die Schuld von einzelnen Journalist*innen. 638 00:35:49,120 --> 00:35:51,535 Das ist, wie es heutzutage funktioniert 639 00:35:51,559 --> 00:35:53,662 und wo man nicht drum herumkommt. 640 00:35:53,798 --> 00:35:55,251 Herr Büchner? 641 00:35:55,351 --> 00:35:57,226 Oder erst mal Sie, Herr Schraven. 642 00:35:57,326 --> 00:35:59,107 Sie dürfen gerne. 643 00:36:00,517 --> 00:36:03,779 Was ich gerade denke, ist, wenn man anfängt als Journalist, 644 00:36:03,879 --> 00:36:06,330 gibt es ein paar Grundregeln, die man lernt. 645 00:36:06,430 --> 00:36:10,475 Und da heute durch die sozialen Medien jeder ein Stück zum Sender wird, 646 00:36:10,575 --> 00:36:17,284 ist es gut, wenn wir uns alle diese Regeln vergegenwärtigen. 647 00:36:17,384 --> 00:36:20,699 Als ich angefangen hab, für Nachrichtenagenturen zu arbeiten, 648 00:36:20,799 --> 00:36:24,261 hat man mir am Anfang drei Sätze beigebracht. 649 00:36:24,361 --> 00:36:27,998 Der erste war: If in doubt, leave it out. 650 00:36:28,098 --> 00:36:30,845 Wenn du Zweifel an einer Geschichte hast, lass es weg. 651 00:36:30,945 --> 00:36:32,799 Das ist eine gute Grundregel: 652 00:36:32,899 --> 00:36:35,632 Bevor man was weitererzählt, das haben Sie auch gesagt, 653 00:36:35,732 --> 00:36:37,539 bevor man was weitererzählt, 654 00:36:37,639 --> 00:36:40,566 wenn man Zweifel hat, sollte man es nicht weitererzählen. 655 00:36:40,666 --> 00:36:43,507 Und das sollte man auch in den sozialen Medien nicht tun. 656 00:36:43,607 --> 00:36:46,640 Viele Leute teilen Dinge, bevor sie sie gelesen haben. 657 00:36:46,740 --> 00:36:49,817 Da reicht der Satz eines Tweets, 658 00:36:49,917 --> 00:36:51,893 ohne dass man den Link angeschaut hat, 659 00:36:51,993 --> 00:36:54,279 dass Dinge geteilt werden. 660 00:36:54,379 --> 00:36:56,896 Ein anderer Satz ist, 661 00:36:56,996 --> 00:36:59,354 der mir immer besonders gut gefallen hat 662 00:36:59,454 --> 00:37:02,125 If a story is too good to be true, it probably is. 663 00:37:02,225 --> 00:37:05,639 Also wenn etwas zu gut klingt, um wahr zu sein, 664 00:37:05,739 --> 00:37:07,557 zu irre, 665 00:37:07,657 --> 00:37:09,896 dann ist es vielleicht auch irre. 666 00:37:10,002 --> 00:37:12,702 Das sind so ganz simple Regeln, 667 00:37:12,802 --> 00:37:15,665 die müssen nicht nur Journalist*innen beherzigen, 668 00:37:15,760 --> 00:37:19,312 sondern da wir heute alle ein bisschen Sender und Empfänger sind 669 00:37:19,425 --> 00:37:22,216 in diesen sozialen Medien, schadet es vielleicht nicht, 670 00:37:22,316 --> 00:37:25,160 wenn wir alle die Grundregeln beherzigen 671 00:37:25,260 --> 00:37:27,160 im Umgang mit sozialen Medien. 672 00:37:27,278 --> 00:37:31,022 Zumal es heute auch darum geht, wie wir Faktenchecker*innen werden. 673 00:37:31,122 --> 00:37:33,461 Sie wollten noch was sagen, Herr Schraven. 674 00:37:33,561 --> 00:37:35,857 Ich finde einen Aspekt noch sehr wichtig. 675 00:37:35,957 --> 00:37:40,260 Du hast davon gesprochen, dass es Accounts sind, nicht Menschen. 676 00:37:40,360 --> 00:37:42,889 Was ich noch ganz wichtig finde, 677 00:37:42,989 --> 00:37:45,962 wir sind nicht konfrontiert mit einzelnen Menschen 678 00:37:46,062 --> 00:37:51,898 oder bei Desinformationskampagnen mit einzelnen Gruppen, Organisationen, 679 00:37:51,998 --> 00:37:54,264 Wir sind mit Systemen konfrontiert. 680 00:37:54,364 --> 00:37:56,100 Das bedeutet z.B., 681 00:37:56,200 --> 00:37:58,481 eine Desinformation wird AB getestet. 682 00:37:58,853 --> 00:38:00,648 Da sind Maschinen hintergeschaltet, 683 00:38:00,748 --> 00:38:03,669 die probieren aus, welche Nuance der falschen Geschichte 684 00:38:03,769 --> 00:38:06,651 funktioniert besser, erreicht eine größere Verbreitung. 685 00:38:06,751 --> 00:38:08,333 Das wird automatisch gemacht. 686 00:38:08,433 --> 00:38:11,478 Dann wird an dem getesten 687 00:38:11,578 --> 00:38:15,699 Falschinformations-Algorithmus noch mal dran gebastelt, 688 00:38:15,799 --> 00:38:17,886 so wird das immer weiter perfektioniert. 689 00:38:17,986 --> 00:38:20,503 Und das von Leuten, die dafür hochbezahlt sind. 690 00:38:20,603 --> 00:38:22,680 Das sind Profis, die das machen. 691 00:38:22,780 --> 00:38:25,966 Wenn wir sagen, jeder muss sich dagegen positionieren, 692 00:38:26,091 --> 00:38:27,829 muss was lernen, sehr wichtig. 693 00:38:27,929 --> 00:38:29,471 Das ist der erste Teil. 694 00:38:29,571 --> 00:38:31,335 Der zweite Teil ist: 695 00:38:31,435 --> 00:38:34,234 Wir müssen Profis haben, die darauf reagieren können. 696 00:38:34,334 --> 00:38:36,881 Der dritte Teil: Wir müssen Techniken entwickeln, 697 00:38:36,981 --> 00:38:39,953 die den automatisierten Kampagnen begegnen können. 698 00:38:40,046 --> 00:38:44,592 Da ist nicht einer gefordert, da sind Plattformen gefragt, 699 00:38:44,692 --> 00:38:46,581 da sind wir als Gesellschaft gefragt, 700 00:38:46,681 --> 00:38:48,227 da sind Schulen gefragt. 701 00:38:48,327 --> 00:38:50,738 Das ist eine Riesensache, die uns begegnet. 702 00:38:50,840 --> 00:38:52,965 Auf allen Ebenen der Gesellschaft. 703 00:38:53,122 --> 00:38:55,685 Und das Doofe ist, wenn wir das verlieren, 704 00:38:55,728 --> 00:39:00,947 wenn wir diesen Angriff oder diese Konfrontation nicht aufnehmen, 705 00:39:01,047 --> 00:39:04,023 kann es sein, dass wir in fünf, sechs Jahren, 706 00:39:04,123 --> 00:39:06,468 so zersetzt sind, dass wir unsere Gesellschaft 707 00:39:06,568 --> 00:39:08,387 nicht mehr aufrecht erhalten können. 708 00:39:08,487 --> 00:39:11,757 Wenn wir überlegen, der Schraven erzählt irgendwas vom Pferd, 709 00:39:11,975 --> 00:39:14,983 wir haben in Italien Wahlen vor der Brust 710 00:39:15,083 --> 00:39:17,780 mit einem Rechtspopulisten, mit so einer Methode 711 00:39:17,880 --> 00:39:19,668 können die gewinnen. 712 00:39:19,768 --> 00:39:21,936 Was bedeutet das für die Europäische Union? 713 00:39:22,036 --> 00:39:23,465 Fliegt die dann auseinander? 714 00:39:23,565 --> 00:39:25,421 Was bedeutet das für uns? 715 00:39:25,521 --> 00:39:28,229 Oder im Winter, wenn die Energiekrise kommt 716 00:39:28,329 --> 00:39:32,211 und vielleicht zum ersten Mal wieder Hunger nach Europa, 717 00:39:32,311 --> 00:39:34,990 dann werden wir mit Kampagnen konfrontiert werden 718 00:39:35,090 --> 00:39:36,940 die uns im Kern angreifen. 719 00:39:37,040 --> 00:39:38,940 Darauf müssen wir vorbereitet sein, 720 00:39:39,070 --> 00:39:41,743 wir müssen die Gesellschaft jetzt darauf vorbereiten, 721 00:39:41,843 --> 00:39:45,123 sonst haben wir im Frühjahr ein großes Problem. 722 00:39:45,846 --> 00:39:47,251 * Beifall * 723 00:39:48,040 --> 00:39:52,003 Frau Schraven, äh, Herr Schraven, Entschuldigung, 724 00:39:52,103 --> 00:39:55,583 Frau Löwisch, teilen Sie die Meinung mit Herrn Schraven? 725 00:39:55,683 --> 00:40:00,473 Oder würden Sie sagen, ja, die Aspekte, die er genannt hat, durchaus, 726 00:40:00,573 --> 00:40:02,473 die muss man beachten, 727 00:40:02,641 --> 00:40:06,483 also hinsichtlich der Falschinformation, von wem die kommen, 728 00:40:06,583 --> 00:40:10,183 aber vielleicht ist in Deutschland 729 00:40:10,283 --> 00:40:14,946 der größte Teil der Bevölkerung noch nicht ganz so infiziert? 730 00:40:15,642 --> 00:40:17,370 Ich habe lange in den USA gelebt. 731 00:40:17,452 --> 00:40:19,976 Insofern hab ich den Vergleich. 732 00:40:20,864 --> 00:40:24,077 Ich sehe die Dramatik. 733 00:40:24,177 --> 00:40:31,079 Ich glaube nicht, dass Herr Schraven ein völliger Doomerist ist. 734 00:40:31,179 --> 00:40:36,052 Aber es macht auch keinen Sinn, zu viel Angst zu haben. 735 00:40:36,152 --> 00:40:38,186 Dann verkriecht man sich irgendwo. 736 00:40:38,286 --> 00:40:40,797 Ich find einen Aspekt echt interessant. 737 00:40:40,897 --> 00:40:44,193 Nicht jeder muss und will Journalist werden. 738 00:40:44,293 --> 00:40:48,019 Aber wir brauchen natürlich Leute, die an der Technik rumbasteln. 739 00:40:48,119 --> 00:40:50,262 Also die Bock haben, 740 00:40:50,362 --> 00:40:53,870 sich mit diesen Fragen auseinanderzusetzen. 741 00:40:53,970 --> 00:40:57,497 Es ist wie ein Wettrüsten. 742 00:40:57,597 --> 00:41:01,243 Ich glaube, da fehlt so ein bisschen. 743 00:41:01,343 --> 00:41:05,399 Ich glaub, wir haben noch nicht die Idee, 744 00:41:05,499 --> 00:41:08,300 wie wir Leute dazu bringen sollen, 745 00:41:08,400 --> 00:41:10,333 sich zu engagieren. 746 00:41:10,433 --> 00:41:15,408 Es ist irgendwie auch attraktiv, 747 00:41:15,508 --> 00:41:17,814 auf der anderen Seite zu arbeiten. 748 00:41:17,914 --> 00:41:22,183 Damit meine ich nicht nur die ganz fiesen Leute, 749 00:41:22,283 --> 00:41:24,125 die das alles vorantreiben. 750 00:41:24,225 --> 00:41:26,244 Sondern eben, was Josefine sagt, 751 00:41:26,412 --> 00:41:29,400 auch die großen Plattformen, die damit Geld verdienen. 752 00:41:29,500 --> 00:41:31,400 Die können natürlich jemandem, 753 00:41:31,556 --> 00:41:33,639 der jetzt 22 ist, 754 00:41:33,739 --> 00:41:36,170 Lust hat, sich in dem Bereich zu entwickeln, 755 00:41:36,270 --> 00:41:39,291 im Moment viel mehr Geld bezahlen. 756 00:41:40,334 --> 00:41:48,041 Man braucht ein bisschen einen fast anarchischen Aufstand von Leuten, 757 00:41:48,141 --> 00:41:52,097 die Lust haben, die Demokratie zu verteidigen. 758 00:41:52,197 --> 00:41:54,579 Der Appell ist hoffentlich angekommen. 759 00:41:54,679 --> 00:41:58,481 Wir haben eine weitere Frage aus dem Publikum. 760 00:41:59,599 --> 00:42:01,484 Mein Name ist Peter Volk. 761 00:42:01,795 --> 00:42:07,201 Ich gehe vielleicht kurz in die Geschichte rein. 762 00:42:07,595 --> 00:42:11,183 Es sind zwei sehr berühmte Geschichten. 763 00:42:11,283 --> 00:42:13,714 Der Fall Katyn, 764 00:42:13,814 --> 00:42:16,065 dort, wo Hitler einmal nicht gelogen hat. 765 00:42:16,165 --> 00:42:19,215 Er hat immer gelogen, aber da hat er die Wahrheit gesagt, 766 00:42:19,315 --> 00:42:21,077 dass Stalin sie umgebracht hat. 767 00:42:21,177 --> 00:42:24,606 Und die Sache mit: War es eine Verschwörung beim Kennedy-Mord? 768 00:42:24,706 --> 00:42:26,829 War es oder war es nicht? 769 00:42:26,929 --> 00:42:28,906 Ich weiß nicht, wie Sie dazu stehen. 770 00:42:29,006 --> 00:42:32,413 Aber jetzt sind zwei Fakten in der Vergangenheit, 771 00:42:32,513 --> 00:42:34,507 wo ich nicht weiß, 772 00:42:34,607 --> 00:42:37,399 sehen Sie das als Desinformation oder Fake News? 773 00:42:37,499 --> 00:42:44,357 Das Erste ist: Wer hat das Zivilflugzeug MH17 abgeschossen? 774 00:42:44,457 --> 00:42:46,357 Es gibt nur zwei Möglichkeiten. 775 00:42:46,507 --> 00:42:51,474 Die Gute, ist, weil ich finde, Russland lügt viel mehr, 776 00:42:51,574 --> 00:42:55,465 dass es Separatisten oder die Russen abgeschossen haben. 777 00:42:55,565 --> 00:42:58,202 Aber die Sache ist nicht bis zuletzt geklärt. 778 00:42:58,302 --> 00:43:02,626 Die zweite und die dritte Sache noch, dann hör ich auf. 779 00:43:02,726 --> 00:43:04,651 Ist geklärt. 780 00:43:04,751 --> 00:43:07,094 Da gab es ein Urteil. 781 00:43:07,194 --> 00:43:11,349 Ja, gut, ein Urteil. 782 00:43:11,449 --> 00:43:13,806 Dann müssen wir die Konsequenzen ziehen. 783 00:43:13,906 --> 00:43:17,349 Die zweite Sache ist ohne juristisches Urteil, da bin ich sicher, 784 00:43:17,449 --> 00:43:20,671 gab es noch eine zweite und dritte Begegnung 785 00:43:20,802 --> 00:43:24,402 zwischen dem Bundeskanzler, damals Bürgermeister von Hamburg, 786 00:43:24,578 --> 00:43:26,198 und Herrn Olearius? 787 00:43:26,372 --> 00:43:28,280 Gab es die oder nicht? 788 00:43:28,380 --> 00:43:31,023 Ich weiß nur, dass Journalisten sagen, es gab sie. 789 00:43:31,123 --> 00:43:33,185 Das ist zu wenig für mich. 790 00:43:33,285 --> 00:43:35,378 Danke sehr herzlich. 791 00:43:35,531 --> 00:43:36,948 Vielen Dank. 792 00:43:37,598 --> 00:43:39,517 Olarius war ich nicht dabei. 793 00:43:39,617 --> 00:43:41,801 Das weiß ich nicht, keine Ahnung. 794 00:43:44,225 --> 00:43:46,988 Ich finde, was wir an der Frage gut sehen, 795 00:43:47,064 --> 00:43:49,346 ist das, was David Schraven gesagt hat. 796 00:43:49,446 --> 00:43:53,185 Wie haltbar solche Narrative sind, 797 00:43:53,285 --> 00:43:57,464 auch wenn die Dinge juristisch untersucht wurden, 798 00:43:57,564 --> 00:44:01,093 aufgeklärt wurden, unglaublich viele Fakten überprüft wurden. 799 00:44:01,193 --> 00:44:03,719 Es hält sich immer noch der Satz: 800 00:44:03,819 --> 00:44:05,626 Es ist nicht wirklich aufgeklärt. 801 00:44:05,726 --> 00:44:08,189 Oder man weiß es nicht wirklich. 802 00:44:09,943 --> 00:44:12,193 Natürlich gibt es Dinge, die man nicht weiß. 803 00:44:12,293 --> 00:44:14,193 Aber es gibt Dinge, die man weiß. 804 00:44:14,224 --> 00:44:17,483 An dieser Stelle gibt es keinen Zweifel, 805 00:44:17,583 --> 00:44:19,483 wer diese Maschine abgeschossen hat. 806 00:44:22,114 --> 00:44:25,202 Und ich glaube, dass neben dem, 807 00:44:25,302 --> 00:44:31,902 was du gerade gesagt hast darüber, dass wir eine Gegenwehr brauchen, 808 00:44:32,002 --> 00:44:35,644 die Lust hat, sich mit den technischen Systemen auseinanderzusetzen, 809 00:44:35,744 --> 00:44:40,522 zu schauen, wie man eine Gegenposition entwickelt, 810 00:44:40,622 --> 00:44:43,414 nicht nur inhaltlich, sondern auch technisch, 811 00:44:43,514 --> 00:44:47,413 glaub ich, gibt es aber doch so was 812 00:44:47,513 --> 00:44:50,024 wie eine staatsbürgerliche Verantwortung, 813 00:44:50,181 --> 00:44:54,785 dass man sich an vernünftigen Quellen orientiert. 814 00:44:54,885 --> 00:44:57,313 Das muss man an der Stelle auch mal sagen. 815 00:44:57,474 --> 00:45:01,094 Mit Nachrichten ist es ein Stück weit wie mit Ernährung. 816 00:45:01,194 --> 00:45:05,161 Wenn man sich ständig schlecht und billig ernährt, 817 00:45:05,261 --> 00:45:06,842 geht es einem nicht gut. 818 00:45:06,942 --> 00:45:08,699 So ist es auch mit Nachrichten. 819 00:45:08,799 --> 00:45:11,297 Wenn man die sich ständig aus trüben Quellen holt, 820 00:45:11,397 --> 00:45:13,875 entsteht ein Bild 821 00:45:13,975 --> 00:45:18,103 und ein eigenes Weltbild, das nicht mehr gesund ist. 822 00:45:18,203 --> 00:45:20,832 Und ich kann nur daran appellieren: 823 00:45:20,932 --> 00:45:24,505 Suchen Sie sich gute und vertrauenswürdige Quellen. 824 00:45:24,605 --> 00:45:27,092 Die gibt es in Deutschland reichlich. 825 00:45:27,192 --> 00:45:34,483 Es gibt eine Verantwortung der Verbraucher im Nachrichtenmarkt. 826 00:45:34,583 --> 00:45:41,123 Man kann auch verschiedene Nachrichtensender hören. 827 00:45:41,223 --> 00:45:43,613 Hier vorne die nächste Frage. 828 00:45:44,290 --> 00:45:45,921 Genau. 829 00:45:46,582 --> 00:45:49,137 Die lässt sich sehr schnell klären. 830 00:45:49,237 --> 00:45:51,879 Was ist Ihre dritte Regel gewesen? 831 00:45:51,979 --> 00:45:53,824 Sie haben nur zwei genannt. 832 00:45:53,924 --> 00:45:55,623 Die dritte ist sogar die erste. 833 00:45:55,723 --> 00:45:57,828 Ich wollte es nur nicht so lange machen. 834 00:45:57,928 --> 00:45:59,828 Get it first, but first get it right. 835 00:45:59,989 --> 00:46:03,322 Wenn man etwas verbreitet, will man als Journalist schnell sein. 836 00:46:03,422 --> 00:46:05,092 Schneller als andere. 837 00:46:05,192 --> 00:46:07,591 Es geht darum, dass man es nicht verbreitet, 838 00:46:07,691 --> 00:46:10,371 bevor man sich sicher ist, dass es stimmt. 839 00:46:10,471 --> 00:46:13,635 Das gehört unbedingt zu den drei Regeln dazu. 840 00:46:13,735 --> 00:46:16,058 Sehr gut aufgepasst, vielen Dank. 841 00:46:16,144 --> 00:46:19,279 Hier vorne haben wir die nächste Frage. 842 00:46:19,379 --> 00:46:21,577 Ganz vorne, genau. 843 00:46:25,128 --> 00:46:27,437 Ich hatte eine Frage. 844 00:46:27,537 --> 00:46:29,998 Wir sind jetzt in den USA, 845 00:46:30,098 --> 00:46:33,667 das doch ein sehr demokratisches Land ist. 846 00:46:33,767 --> 00:46:37,124 Da ist es so, dass die eine Nachrichtenquelle 847 00:46:37,148 --> 00:46:39,510 der anderen nicht mehr glaubt. 848 00:46:40,133 --> 00:46:45,062 Wie vermeiden wir, dass wir in Europa in einen ähnlichen Bereich kommen? 849 00:46:46,356 --> 00:46:48,179 Darf ich kurz? 850 00:46:48,279 --> 00:46:52,139 Ich glaub, das ist eine interessante Entwicklung in den USA gewesen. 851 00:46:52,239 --> 00:46:55,508 Wir hatten lange Zeit einen Nachrichtenmarkt, 852 00:46:55,608 --> 00:46:57,651 der darauf abgezielt hat, 853 00:46:57,751 --> 00:47:00,469 eine Faktenbasis in einer Diskussion zu liefern. 854 00:47:00,569 --> 00:47:03,104 Das war das Geschäftsmodell, das in den USA 855 00:47:03,204 --> 00:47:05,430 wie in allen westlichen Demokratien 856 00:47:05,530 --> 00:47:07,596 relativ gut und lange funktioniert hat. 857 00:47:07,705 --> 00:47:09,630 Eines Tages, ich weiß nicht, wann, 858 00:47:09,730 --> 00:47:11,527 kam die Idee auf, 859 00:47:11,627 --> 00:47:15,376 was ist, wenn wir aus der Polarisierung ein Geschäftsmodell machen? 860 00:47:15,476 --> 00:47:19,012 Wenn es nicht mehr darum geht, Nachrichten zu verbreiten, 861 00:47:20,245 --> 00:47:21,999 die möglicherweise schneller sind, 862 00:47:22,099 --> 00:47:24,239 möglicherweise besser recherchiert sind, 863 00:47:24,339 --> 00:47:26,742 möglicherweise ein anderes Spektrum abbilden, 864 00:47:26,842 --> 00:47:29,309 aber wo man Nachrichten liefert für eine Debatte. 865 00:47:29,409 --> 00:47:31,535 Sondern wenn das umgekehrt wird, 866 00:47:31,635 --> 00:47:34,200 ich kann Geld verdienen mit Zorn. 867 00:47:34,300 --> 00:47:36,663 Ich kann Geld verdienen mit Emotionen. 868 00:47:36,763 --> 00:47:40,111 Ich kann Geld verdienen, nicht mit Wahrheiten. 869 00:47:40,211 --> 00:47:42,575 Wenn ich das Geschäftsmodell hab, 870 00:47:42,675 --> 00:47:46,789 wird alles andere unwirklich und spielt keine Rolle mehr. 871 00:47:46,889 --> 00:47:49,562 Und das erleben wir gerade 872 00:47:49,662 --> 00:47:52,790 in der Wandlung unserer Mediensysteme. 873 00:47:52,890 --> 00:47:54,893 Wenn wir jetzt gucken, 874 00:47:54,993 --> 00:48:00,439 viele junge Leute informieren sich über TikTok, YouTube. 875 00:48:00,539 --> 00:48:06,235 YouTube wird getriggert durch Emotionen. 876 00:48:06,335 --> 00:48:10,545 Die Emotionen halten die Menschen am Bildschirm, an TikTok. 877 00:48:10,645 --> 00:48:12,545 Die Emotionen führen dazu, 878 00:48:12,637 --> 00:48:15,432 dass ich weiterscrolle und mir das nächste angucke. 879 00:48:15,532 --> 00:48:18,769 Die Nachrichten, die heute konsumiert werden 880 00:48:18,926 --> 00:48:20,790 von großen Teilen der Bevölkerung, 881 00:48:20,890 --> 00:48:22,846 kommen nicht mehr daher, 882 00:48:22,946 --> 00:48:25,533 weil ein Informationsbedürfnis gestillt wird, 883 00:48:25,633 --> 00:48:29,717 sondern weil jemand mit der Emotionalisierung einer Nachricht 884 00:48:29,817 --> 00:48:31,701 unheimlich viel Geld verdienen will. 885 00:48:31,801 --> 00:48:35,102 Das führt dazu, dass ich Hass habe, der wird nach vorn gepusht, 886 00:48:35,202 --> 00:48:38,195 das führt auch dazu, dass unsere Diskussion 887 00:48:38,295 --> 00:48:39,627 polarisiert wird. 888 00:48:39,727 --> 00:48:41,627 Wenn ich dann an den Endpunkt komme, 889 00:48:41,703 --> 00:48:45,193 hab ich mit einem mal schwarz-weiß, dann hab ich zwei Seiten. 890 00:48:45,293 --> 00:48:49,368 Durch die Polarisierung, dass ich sag, "ich bin anders, ich bin fremd, 891 00:48:49,468 --> 00:48:51,709 der ist der, der gefährlich ist," 892 00:48:51,809 --> 00:48:55,091 hab ich in der Polarisierung das Geschäft gefunden 893 00:48:55,191 --> 00:48:58,974 und dann gnade uns Gott, ich weiß es nicht. 894 00:49:01,188 --> 00:49:03,867 Ja, vielen Dank für Ihre Frage. 895 00:49:03,967 --> 00:49:05,867 Möchten Sie noch was ergänzen? 896 00:49:06,045 --> 00:49:08,790 Ich würde eine Sache noch ergänzen. 897 00:49:08,890 --> 00:49:11,536 Wir haben es gehört, wir müssen uns Sorgen machen 898 00:49:11,636 --> 00:49:13,778 um den Zusammenhalt in der Gesellschaft. 899 00:49:13,878 --> 00:49:17,960 Journalist*innen haben Angst, weil sie nicht wissen, wie sie damit umgehen, 900 00:49:18,060 --> 00:49:22,607 wenn sie selbst attackiert werden, wenn solche Desinformation verbreitet wird. 901 00:49:22,707 --> 00:49:25,820 Dem würde ich gern eine Dimension hinzufügen. 902 00:49:25,920 --> 00:49:28,845 Digitale Gewalt, Polarisierung der Gesellschaft, 903 00:49:28,945 --> 00:49:30,845 Hass im Netz, das sind Schlagworte, 904 00:49:30,975 --> 00:49:33,740 über die schon viel gesprochen wurde. 905 00:49:33,840 --> 00:49:36,150 Was wir uns vor Augen halten müssen, 906 00:49:36,253 --> 00:49:39,672 das hängt mit dem Zusammenhalt in der Gesellschaft zusammen, 907 00:49:39,849 --> 00:49:41,613 dass solche Desinformationen 908 00:49:41,733 --> 00:49:45,261 nicht nur aufstacheln, starkes Empfinden dafür zu haben, 909 00:49:45,361 --> 00:49:47,261 was ich richtig und falsch finde, 910 00:49:47,380 --> 00:49:52,937 was mir das Recht gibt, die sog. Andersdenkenden anzugreifen 911 00:49:53,037 --> 00:49:54,824 und zu attackieren. 912 00:49:54,924 --> 00:49:56,640 Das führt am Ende dazu, 913 00:49:56,740 --> 00:49:58,938 dass diejenigen, die angegriffen werden 914 00:49:59,038 --> 00:50:00,917 und die, die das nur beobachten, 915 00:50:01,017 --> 00:50:02,917 sich aus dem Netz zurückziehen. 916 00:50:03,028 --> 00:50:04,928 Dass sie sich nicht mehr trauen, 917 00:50:05,027 --> 00:50:08,567 sich zu politischen und gesellschaftlichen Themen zu äußern. 918 00:50:08,658 --> 00:50:11,195 Dass sie nicht mehr am öffentlichen Diskurs 919 00:50:11,295 --> 00:50:13,231 in den sozialen Netzwerken teilnehmen. 920 00:50:13,331 --> 00:50:14,602 Gerade in einer Pandemie, 921 00:50:14,702 --> 00:50:17,476 wo das soziale Leben viel mehr im Internet stattfindet 922 00:50:17,576 --> 00:50:19,459 als vorher sowieso schon, 923 00:50:19,559 --> 00:50:21,405 ist das eine dramatische Situation, 924 00:50:21,505 --> 00:50:24,020 die sich am Ende auf die Meinungsfreiheit auswirkt. 925 00:50:24,120 --> 00:50:26,343 Meinungsfreiheit bedeutet nicht, 926 00:50:26,450 --> 00:50:30,127 dass ich alles im Internet raushauen kann, wonach mir gerade ist. 927 00:50:30,227 --> 00:50:33,150 Meinungsfreiheit bedeutet auch 928 00:50:33,250 --> 00:50:35,555 dass wir im Internet einen Raum schaffen, 929 00:50:35,655 --> 00:50:37,870 in dem Menschen sich sicher genug fühlen, 930 00:50:37,970 --> 00:50:39,752 um sich äußern zu können. 931 00:50:39,852 --> 00:50:42,672 Dass sie nicht Angst vor Morddrohungen haben müssen, 932 00:50:42,772 --> 00:50:46,181 wenn sie einer vermeintlichen Wahrheit widersprechen wollen. 933 00:50:46,357 --> 00:50:48,457 Es ist mir wichtig, das zu betonen, 934 00:50:48,557 --> 00:50:51,457 dass die Meinungsfreiheit, der gesamte politische Diskurs 935 00:50:51,557 --> 00:50:53,305 auf dem Spiel steht. 936 00:50:53,405 --> 00:50:55,871 Wer zieht sich zurück? Wer wird angegriffen? 937 00:50:55,971 --> 00:51:00,012 Das sind marginalisierte Gruppen, Journalisten, politisch aktive Menschen, 938 00:51:00,112 --> 00:51:02,444 die Menschen, die wir dringend brauchen, 939 00:51:02,544 --> 00:51:04,327 um den Diskurs am Leben zu halten, 940 00:51:04,427 --> 00:51:06,237 um ihn divers zu halten, 941 00:51:06,337 --> 00:51:08,520 darüber müssen wir nachdenken. 942 00:51:08,620 --> 00:51:10,681 Das ist ein wichtiger Bestandteil, 943 00:51:10,781 --> 00:51:12,681 um Desinformation zu bekämpfen. 944 00:51:12,771 --> 00:51:15,313 Wenn die Gesellschaft immer mehr polarisiert wird 945 00:51:15,413 --> 00:51:19,068 und sich die Menschen zurückziehen, wird keiner mehr widersprechen. 946 00:51:19,168 --> 00:51:21,068 * Beifall * 947 00:51:24,175 --> 00:51:27,094 Was ich noch als Gegengift empfehle: 948 00:51:27,194 --> 00:51:30,518 Das ist auch der Gedanke, 949 00:51:30,618 --> 00:51:33,081 dass wir einander verstehen können müssen, 950 00:51:33,181 --> 00:51:35,434 dass wir uns im Meinungsstreit 951 00:51:35,534 --> 00:51:37,434 nachher wieder vertragen müssen, 952 00:51:37,550 --> 00:51:40,001 dass wir nach Maß und Mitte streben. 953 00:51:40,251 --> 00:51:42,751 Dass wir als Gesellschaft danach streben, 954 00:51:42,830 --> 00:51:45,894 gemeinsam glücklich zu werden. 955 00:51:45,994 --> 00:51:48,946 Sie sprechen über die gesunde Streitkultur. 956 00:51:50,318 --> 00:51:52,332 Ja, nee, das Grundverständnis. 957 00:51:52,432 --> 00:51:54,817 Ich will das vielleicht etwas plastischer sagen. 958 00:51:54,917 --> 00:51:57,218 Ich bekomme eine Menge Hass-Zuschriften. 959 00:51:57,318 --> 00:51:59,921 Wenn die Leute nix zu tun haben, schreiben sie mir, 960 00:52:00,021 --> 00:52:02,225 dass ich ein Arsch bin. 961 00:52:02,341 --> 00:52:04,958 Manchmal denke ich mir, warum schreibt er das? 962 00:52:05,058 --> 00:52:07,161 Warum nimmt sich ein Mensch Mühe und Zeit, 963 00:52:07,261 --> 00:52:09,384 findet meine E-Mail-Adresse und denkt sich, 964 00:52:09,484 --> 00:52:11,661 ich muss dem mal schreiben. 965 00:52:11,761 --> 00:52:15,534 Manchmal denke ich auch, das ist ein Versuch zu kommunizieren. 966 00:52:15,634 --> 00:52:17,495 Dann erzähl ich dem anderen erst mal, 967 00:52:17,595 --> 00:52:20,229 dass das Wetter schön ist, dass ich Angeln war, 968 00:52:20,329 --> 00:52:23,017 dass ich mit meinen Söhnen ein schönes Erlebnis hatte. 969 00:52:23,117 --> 00:52:26,293 Ich fange einfach an, über den Menschen zu reden. 970 00:52:26,466 --> 00:52:29,463 Mensch zu sein und den anderen als Menschen anzunehmen. 971 00:52:29,563 --> 00:52:31,441 Und dann, wenn man diese Ebene hat, 972 00:52:31,541 --> 00:52:33,822 geht es nicht mehr um Bekämpfung voneinander, 973 00:52:33,960 --> 00:52:35,582 es geht darum, zu sagen, 974 00:52:35,682 --> 00:52:38,035 "was du da gemacht hast, fand ich nicht gut." 975 00:52:38,135 --> 00:52:41,032 Dann kann ich überlegen: Stimmt, war vielleicht doof. 976 00:52:41,132 --> 00:52:43,756 Ich entschuldige mich dafür. Man kann weitermachen. 977 00:52:43,856 --> 00:52:45,756 Das ist, glaube ich, ganz wichtig. 978 00:52:45,946 --> 00:52:47,452 * Beifall * 979 00:52:47,552 --> 00:52:50,685 Wir haben noch zwei weitere Fragen, die gehen in die Richtung. 980 00:52:50,785 --> 00:52:53,265 Ich würde gerne noch nachhaken und wissen wollen, 981 00:52:53,365 --> 00:52:55,917 haben wir vielleicht noch nicht gelernt, 982 00:52:56,017 --> 00:52:58,714 genug den Unterschied zu machen 983 00:52:58,814 --> 00:53:00,923 zwischen dem analogen Leben, 984 00:53:01,023 --> 00:53:04,340 dem Leben in Präsenz, was wir wieder alle haben und erleben, 985 00:53:04,440 --> 00:53:06,340 das ist etwas ganz anderes, 986 00:53:06,456 --> 00:53:08,607 wenn man Menschen wieder lesen kann, 987 00:53:08,707 --> 00:53:14,630 die Stimme hört, als wenn wir uns anonym im Netz begegnen. 988 00:53:16,030 --> 00:53:18,904 Ja, und ich mein, da hat sich - 989 00:53:19,004 --> 00:53:21,365 Ganz viel hat immer mit Geld zu tun. 990 00:53:22,529 --> 00:53:25,623 Eine Möglichkeit, Dinge zu verifizieren, 991 00:53:25,723 --> 00:53:29,765 ist, sie mit eigenen Augen zu sehen. 992 00:53:30,540 --> 00:53:32,950 Aber das ist eine ziemlich teure Angelegenheit, 993 00:53:33,050 --> 00:53:36,218 Journalist*innen immer überall hinzuschicken, 994 00:53:36,318 --> 00:53:38,981 Zeit, Reisen usw. 995 00:53:39,081 --> 00:53:40,981 Und das führt dann dazu, 996 00:53:41,104 --> 00:53:42,836 dass dieser Augenschein, 997 00:53:42,936 --> 00:53:47,118 also dieses Bezeugen nicht mehr häufig genug passiert. 998 00:53:47,218 --> 00:53:53,237 Das ist wichtig, dass wir das im Hinterkopf behalten. 999 00:53:54,422 --> 00:53:59,048 Ich wollte noch kurz was zu der Frage zu den USA sagen. 1000 00:53:59,148 --> 00:54:01,492 Wird das bei uns bald alles auch so? 1001 00:54:01,592 --> 00:54:07,728 Wir sind immer ca. fünf bis acht Jahre hinter den USA bei diesen Entwicklungen. 1002 00:54:07,828 --> 00:54:10,785 Das ist ein total Vorteil. 1003 00:54:10,885 --> 00:54:13,451 Wir haben die Chance, zu sehen, was da passiert 1004 00:54:13,551 --> 00:54:15,693 und was da falsch gemacht wird. 1005 00:54:15,793 --> 00:54:18,803 Wir können schauen, ob wir es doch vermeiden können. 1006 00:54:18,903 --> 00:54:21,847 Insofern: schlimm genug, aber auch ein Vorteil. 1007 00:54:22,464 --> 00:54:23,973 Vielen Dank. 1008 00:54:24,073 --> 00:54:27,226 Und jetzt die Hand, die hatte ich die ganze Zeit im Hinterkopf. 1009 00:54:27,326 --> 00:54:29,433 Die Dame hier vorne. 1010 00:54:29,901 --> 00:54:35,437 Der Herr Schraven hat einiges schon vorweggenommen, 1011 00:54:35,537 --> 00:54:38,599 mir geht es um den Aspekt Beziehungen 1012 00:54:38,699 --> 00:54:41,669 in unserer Gesellschaft, wie wichtig das ist. 1013 00:54:41,769 --> 00:54:44,387 Dadurch kann man manchmal noch 1014 00:54:44,487 --> 00:54:48,679 Leuten, die sich in Fake-Sachen verrannt haben, 1015 00:54:48,779 --> 00:54:53,113 auffangen, so lange man noch an jemandem dran ist. 1016 00:54:53,213 --> 00:54:55,677 Da ist immer noch Möglichkeit da. 1017 00:54:55,777 --> 00:54:58,987 Ich würde es gut finden 1018 00:54:59,087 --> 00:55:00,987 und da auch die Nachfrage, 1019 00:55:01,142 --> 00:55:03,642 aber da sind die Bundesländer zuständig, 1020 00:55:03,731 --> 00:55:08,196 dass man im Kindergarten- und Grundschulalter anfängt, 1021 00:55:08,338 --> 00:55:11,726 Kinder zu sensibilisieren, 1022 00:55:11,826 --> 00:55:17,630 "hör zu, was ihr hört, erzählt nicht alles sofort ungefiltert weiter." 1023 00:55:17,730 --> 00:55:22,926 Je höher dann die Schulklassen gehen, 1024 00:55:23,026 --> 00:55:26,675 das muss meines Erachtens ein Unterrichtsfach sein. 1025 00:55:26,775 --> 00:55:31,612 Dass das Fach Politik, Medien usw. 1026 00:55:31,681 --> 00:55:33,779 noch mehr Raum nimmt. 1027 00:55:33,879 --> 00:55:36,538 Und dass die Verknüpfung da ist 1028 00:55:36,638 --> 00:55:40,667 zwischen dem, was ich als Teenie und Jugendlicher 1029 00:55:40,767 --> 00:55:43,709 in meinem Alltag erlebe, 1030 00:55:43,809 --> 00:55:47,263 Youtube und TikTok und wie das alles heißt, 1031 00:55:47,363 --> 00:55:50,623 dass sich das in der Schule widerspiegelt. 1032 00:55:50,723 --> 00:55:55,081 Wenn es gut läuft, hat man noch eine Ebene zu Lehrkräften, 1033 00:55:55,181 --> 00:55:59,263 man tauscht sich in der Schule aus mit Kameraden. 1034 00:55:59,448 --> 00:56:01,703 Das würde ich mir wünschen. 1035 00:56:01,803 --> 00:56:05,142 Das muss schon frühzeitig anfangen. 1036 00:56:05,242 --> 00:56:08,079 Da gibt es eine gute Nachricht: Das passiert. 1037 00:56:08,179 --> 00:56:10,079 Die Kultusminister-Konferenz 1038 00:56:10,245 --> 00:56:12,648 hat vor, ich weiß nicht, wie vielen Jahren, 1039 00:56:12,748 --> 00:56:14,626 ich glaub, so zwei, drei Jahren, 1040 00:56:14,726 --> 00:56:17,604 genau, was Sie gerade gefordert haben, beschlossen. 1041 00:56:17,704 --> 00:56:21,382 Die haben das als Querschnittsaufgabe für alle Unterrichtsformen erkannt. 1042 00:56:21,482 --> 00:56:23,588 Sie haben das an die Bundesländer gegeben. 1043 00:56:23,688 --> 00:56:25,444 Die haben dann lange beraten, 1044 00:56:25,544 --> 00:56:28,672 jedes Bundesland für sich hat einen Plan gemacht, 1045 00:56:28,772 --> 00:56:31,696 wie das in den einzelnen Schulen umgesetzt werden soll. 1046 00:56:31,785 --> 00:56:34,204 Das wird gerade alles eingesetzt und aufgebaut. 1047 00:56:34,304 --> 00:56:40,089 Ich bin da auf lange Sicht ganz positiv gestimmt. 1048 00:56:40,189 --> 00:56:44,701 Ich glaub, auf lange Sicht über die nächsten sechs bis zehn Jahre 1049 00:56:44,801 --> 00:56:46,409 wird da einiges passieren. 1050 00:56:46,509 --> 00:56:48,715 Auf lange Sicht wird es besser. 1051 00:56:48,815 --> 00:56:51,434 Was mir eher Sorgen macht, ist die kurze Sicht, 1052 00:56:51,534 --> 00:56:55,628 wo es darum geht, jetzt aktuell 1053 00:56:55,728 --> 00:56:58,879 grassierende Desinformation anzugehen, 1054 00:56:58,979 --> 00:57:01,949 wo man strategische Desinformation angehen muss, 1055 00:57:02,049 --> 00:57:04,262 da hab ich akut mehr Sorgen. 1056 00:57:04,362 --> 00:57:07,516 Langfristig, find ich, sind wir gut aufgestellt. 1057 00:57:07,606 --> 00:57:09,380 Da hab ich ganz schön doof geguckt. 1058 00:57:09,589 --> 00:57:12,685 Ich finde, Sie haben etwas sehr Schönes, Wichtiges gesagt. 1059 00:57:12,785 --> 00:57:14,685 Lassen Sie uns Beziehungen nutzen, 1060 00:57:14,797 --> 00:57:20,194 auch wenn ich als stellvertretender Regierungssprecher 1061 00:57:20,294 --> 00:57:22,459 für eine staatliche Organisation spreche, 1062 00:57:22,559 --> 00:57:24,838 Das ist nicht immer eine staatliche Aufgabe, 1063 00:57:24,938 --> 00:57:27,448 gerade Beziehungen im gesellschaftlichen Raum, 1064 00:57:27,548 --> 00:57:29,448 wo sind die am intensivsten? 1065 00:57:29,633 --> 00:57:31,436 In Familien und mit Freunden. 1066 00:57:31,536 --> 00:57:33,550 Auch da sollten wir das intensiv nutzen, 1067 00:57:33,650 --> 00:57:35,250 dass wir darüber reden. 1068 00:57:35,326 --> 00:57:37,657 Dass wir unsere Kinder darüber aufklären, 1069 00:57:37,757 --> 00:57:39,945 dass wir mit Freunden darüber diskutieren, 1070 00:57:40,045 --> 00:57:41,989 wo gibt es vernünftige Informationen 1071 00:57:42,141 --> 00:57:44,673 und wo sitzen Leute sehr leicht Quatsch auf, 1072 00:57:44,773 --> 00:57:46,673 gegen den man sich wehren muss. 1073 00:57:46,812 --> 00:57:50,098 Gerade diese nicht offiziellen Beziehungen, 1074 00:57:50,198 --> 00:57:54,030 sondern die privaten und persönlichen Beziehungen sind die stärksten, 1075 00:57:54,130 --> 00:57:57,282 die sollten wir nutzen und unerschrocken reingehen. 1076 00:57:58,176 --> 00:57:59,741 Vielen Dank, danke. 1077 00:57:59,841 --> 00:58:02,424 Ich hab noch eine Frage gesehen. 1078 00:58:02,524 --> 00:58:05,238 Wir müssen relativ pünktlich - die hat sich dann doch - 1079 00:58:06,065 --> 00:58:07,379 Ja? Perfekt. 1080 00:58:07,479 --> 00:58:09,379 Wie würden Sie empfehlen, 1081 00:58:09,483 --> 00:58:11,840 wenn man auf dem Laufenden bleiben will, 1082 00:58:11,940 --> 00:58:13,804 wenn man sich gut informieren will, 1083 00:58:13,904 --> 00:58:16,164 sollte man da auf eine Quelle zurückgreifen, 1084 00:58:16,264 --> 00:58:18,268 vielleicht öffentlich-rechtlich, 1085 00:58:18,368 --> 00:58:23,273 oder ist es gut, verschiedene Quellen zu Rate zu ziehen? 1086 00:58:24,512 --> 00:58:26,719 Ich würde immer sagen, verschiedene. 1087 00:58:26,819 --> 00:58:29,811 Aber es ist ja auch eine Frage, wie viel Zeit man hat. 1088 00:58:29,911 --> 00:58:35,520 Ich höre morgens beim Kaffeetrinken erst mal Radio. 1089 00:58:35,603 --> 00:58:37,315 Noch ganz altmodisch. 1090 00:58:37,415 --> 00:58:40,056 Find ich gut, ich arbeite beim Radio. 1091 00:58:41,830 --> 00:58:46,670 Auf dem Weg zur Arbeit lese ich eine Zeitung. 1092 00:58:46,802 --> 00:58:48,851 Das klingt jetzt wirklich doof. 1093 00:58:48,951 --> 00:58:52,602 Aber ich würde sagen, man sollte drei, vier Medien haben, 1094 00:58:52,702 --> 00:58:55,088 auf die man immer wieder zurückgreift. 1095 00:58:55,188 --> 00:58:58,283 Die leiten einen dann auch zu anderen. 1096 00:58:58,368 --> 00:59:01,694 Man merkt, die greifen was auf und dann kann man das verfolgen. 1097 00:59:01,794 --> 00:59:03,332 So würde ich das sagen. 1098 00:59:03,432 --> 00:59:07,494 Ich würd auf die Fußnoten zurückgreifen, von denen ich gesprochen hab. 1099 00:59:07,594 --> 00:59:10,994 Also schauen, wo finde ich Belege für etwas, das gesagt wurde. 1100 00:59:11,094 --> 00:59:12,967 Wie sind die Belege nachvollziehbar? 1101 00:59:13,067 --> 00:59:14,888 Dann sind das Erfahrungswerte. 1102 00:59:14,988 --> 00:59:21,050 Wenn ich merke, aus einem Medium hab ich besser nachvollziehbare Informationen 1103 00:59:21,150 --> 00:59:24,235 als aus einem anderen, habe Belege für das, was gesagt ist, 1104 00:59:24,335 --> 00:59:26,848 kann das ein vertrauenswürdiges Medium werden. 1105 00:59:26,948 --> 00:59:29,180 Nach meiner Erfahrung ist es so, 1106 00:59:29,280 --> 00:59:32,917 wir haben Medien, die haben über einen langen Zeitraum bewiesen, 1107 00:59:33,017 --> 00:59:35,755 dass sie die verlässlichen Informationen liefern. 1108 00:59:35,855 --> 00:59:38,447 Da ist die Vertrauensanmutung höher, 1109 00:59:38,604 --> 00:59:40,745 als wenn ich "Russia Today" einschalte. 1110 00:59:42,216 --> 00:59:44,449 Möchten Sie? 1111 00:59:44,549 --> 00:59:46,763 Oder Applaus kurz an der Stelle. 1112 00:59:46,942 --> 00:59:48,357 * Beifall * 1113 00:59:48,457 --> 00:59:50,853 Ich hab gerade noch mal abschließend gedacht, 1114 00:59:50,953 --> 00:59:55,265 es wäre noch mal schön zu hören, 1115 00:59:55,365 --> 00:59:58,926 einmal hatte ich die Frage, welche Bedeutung hat die Ausbildung 1116 00:59:59,026 --> 01:00:02,487 zum Journalisten für die Demokratie? 1117 01:00:02,587 --> 01:00:08,320 Aber gleichzeitig auch, was konsumieren Sie denn an Medien? 1118 01:00:08,420 --> 01:00:12,933 Um einfach mal zu hören, dass nicht nur TikTok cool ist. 1119 01:00:15,228 --> 01:00:19,227 Sorry, ich hab schon gesagt, was ich für Medien konsumiere. 1120 01:00:19,327 --> 01:00:22,592 Was ich interessant finde an diesen Schulbesuchen, 1121 01:00:22,692 --> 01:00:25,939 was ich mitnehme von den Schulbesuchen, die wir machen, 1122 01:00:26,039 --> 01:00:28,930 ist, dass ganz viele Leute sich gar nicht bewusst sind, 1123 01:00:29,030 --> 01:00:34,026 wo genau die Informationen herkommen, die sie konsumieren. 1124 01:00:34,126 --> 01:00:35,917 Es bringt, glaube ich, auch was, 1125 01:00:36,017 --> 01:00:39,005 einfach neugierig jedes Mal zu checken, 1126 01:00:39,105 --> 01:00:41,835 wo das, das einem jetzt zugespielt wird, 1127 01:00:41,935 --> 01:00:43,835 ursprünglich mal herkam. 1128 01:00:43,905 --> 01:00:48,526 Oft sind die Quellen ganz klassische Medien. 1129 01:00:48,626 --> 01:00:52,255 Dadurch kann man eine Routine entwickeln. 1130 01:00:52,355 --> 01:00:55,427 Aber sich einfach die schlichte Frage zu stellen, 1131 01:00:55,527 --> 01:00:58,612 wer hat das Video gemacht und wer hat es verbreitet, 1132 01:00:58,712 --> 01:01:01,187 wer hat dafür bezahlt, dass es gemacht wird, 1133 01:01:01,287 --> 01:01:04,199 ist wichtig und für mich ein Automatismus. 1134 01:01:04,299 --> 01:01:07,149 Der wäre auch für andere sinnvoll. 1135 01:01:07,665 --> 01:01:09,991 Möchten Sie das kurz ergänzen? 1136 01:01:10,091 --> 01:01:12,895 Ganz kurz aus nicht journalistischer Sicht: 1137 01:01:12,995 --> 01:01:16,035 Ich gehe auch so vor, wenn ich etwas sehe 1138 01:01:16,135 --> 01:01:18,647 denke ich: "Ach Quatsch, ist das wahr?" 1139 01:01:18,747 --> 01:01:22,600 Dann schau ich, ob das andere Medien auch aufgegriffen haben. 1140 01:01:22,700 --> 01:01:24,600 Ob ich Belege dafür finde, 1141 01:01:24,639 --> 01:01:27,416 das ist dann auch ein Vertrauenshinweis. 1142 01:01:27,516 --> 01:01:31,395 Natürlich muss man immer hinterfragen, 1143 01:01:31,495 --> 01:01:33,997 ich beschäftige mich beruflich mit Desinformation, 1144 01:01:34,097 --> 01:01:36,519 was sind die Interessen, die dahinterstehen, 1145 01:01:36,619 --> 01:01:38,296 was ist das für ein Medium, 1146 01:01:38,396 --> 01:01:40,570 wurde es woanders aufgegriffen? 1147 01:01:40,670 --> 01:01:42,570 So kann man sich dem Ganzen nähern 1148 01:01:42,633 --> 01:01:45,587 und nicht bei der ersten Eilmeldung sofort draufspringen 1149 01:01:45,687 --> 01:01:47,587 und irgendwas weiterverbreiten. 1150 01:01:47,629 --> 01:01:50,159 Manchmal hilft es, ein paar Stunden zu warten 1151 01:01:50,259 --> 01:01:52,306 und zu gucken, kommt was Ähnliches rein? 1152 01:01:52,406 --> 01:01:54,811 Dann kann man sich ein Bild dazu machen. 1153 01:01:54,911 --> 01:01:59,177 Möchten Sie noch einen letzten Satz hinzufügen? 1154 01:01:59,277 --> 01:02:02,218 Sie sind ja stellvertretender Chef des Bundespresseamts. 1155 01:02:02,329 --> 01:02:03,748 Nein. - Alles klar. 1156 01:02:04,856 --> 01:02:06,688 Dann würde ich abschließen. 1157 01:02:06,788 --> 01:02:09,670 Ganz, ganz herzlichen Dank. 1158 01:02:09,770 --> 01:02:12,334 Unser Thema: Desinformation und Fake News erkennen. 1159 01:02:12,487 --> 01:02:13,992 * Beifall * 1160 01:02:14,092 --> 01:02:16,227 Wie werde ich Faktenchecker*in? 1161 01:02:16,327 --> 01:02:18,227 Vielen Dank an Wolfgang Büchner, 1162 01:02:18,307 --> 01:02:19,826 Henriette Löwisch, 1163 01:02:19,926 --> 01:02:23,488 Josefine Ballon und David Schraven für Ihre Expertise. 1164 01:02:23,588 --> 01:02:26,034 Wir haben das Ganze auch aufgezeichnet. 1165 01:02:26,134 --> 01:02:29,789 Es erscheint an späterer Stelle noch mal in der Mediathek 1166 01:02:29,889 --> 01:02:33,309 der Bundesregierung, um das Ganze noch mal nachzuschauen. 1167 01:02:33,409 --> 01:02:35,894 Ich habe auch wahnsinnig viel dabei gelernt. 1168 01:02:35,994 --> 01:02:40,377 Um 17.15 Uhr geht es weiter mit meiner Kollegin Andrea Thilo 1169 01:02:40,477 --> 01:02:42,581 und der Außenministerin Baerbock zum Thema: 1170 01:02:42,681 --> 01:02:44,940 Wie passt menschenrechtsbasierte Außenpolitik 1171 01:02:45,040 --> 01:02:47,870 in die Zeit von Krieg, Ressourcen- und Handelskonflikten? 1172 01:02:47,970 --> 01:02:50,091 Weiterhin viel Vergnügen, danke schön. 1173 01:02:50,191 --> 01:02:51,764 * Beifall *