1 00:00:03,479 --> 00:00:06,009 Damen und Herren, liebes Publikum, 2 00:00:07,378 --> 00:00:11,071 Es geht weiter mit unserem nächsten Thema: 3 00:00:11,171 --> 00:00:17,917 "Desinformation und Fake News erkennen. Wie werde ich Faktenchecker*in?" 4 00:00:18,017 --> 00:00:19,444 Herzlich willkommen an alle, 5 00:00:19,544 --> 00:00:24,526 die das erste Mal dabei sind in unserer Lounge des Bundespresseamts 6 00:00:24,626 --> 00:00:26,802 zu unserer Podiumsdiskussion. 7 00:00:26,902 --> 00:00:29,546 Wichtiger Hinweis an Sie alle: 8 00:00:29,646 --> 00:00:33,282 Wir streamen diese Diskussion und zeichnen sie auf. 9 00:00:33,382 --> 00:00:39,224 Schöne Grüße gehen an alle, die uns über den Live-Stream zugeschaltet sind. 10 00:00:39,324 --> 00:00:44,398 Der Talk erscheint dann somit auch an späterer Stelle in der Mediathek. 11 00:00:44,498 --> 00:00:46,996 Mediathek, damit meine ich bundesregierung.de 12 00:00:47,096 --> 00:00:50,873 Es gibt keine Maskenpflicht, aber natürlich ist es immer gut 13 00:00:50,973 --> 00:00:55,369 und vor allem, das ist das Wichtigste, denn Demokratie lädt ein, 14 00:00:55,469 --> 00:00:57,683 unter dieser Prämisse begegnen wir uns heute. 15 00:00:57,783 --> 00:01:03,183 Wir möchten in den Dialog treten, wenn Sie/ihr eine Frage habt, 16 00:01:03,283 --> 00:01:06,809 wir haben hier Experten, stellt sie. 17 00:01:06,909 --> 00:01:10,492 Wir beschäftigen uns mit dem Thema Desinformation, 18 00:01:10,592 --> 00:01:13,793 denn sie sind erfundene und gezielte Falschinformationen 19 00:01:13,893 --> 00:01:16,035 und vor allem, sie haben Macht 20 00:01:16,135 --> 00:01:19,925 und verbreiten sich sehr schnell auf Social-Media-Kanälen, 21 00:01:20,002 --> 00:01:22,197 können dadurch beispielsweise 22 00:01:22,297 --> 00:01:24,571 das Wahlverhalten beeinflussen 23 00:01:24,671 --> 00:01:27,835 oder im Extremfall zu realer Gewalt führen. 24 00:01:27,935 --> 00:01:31,889 Wir diskutieren über die Konsequenzen und fragen uns natürlich, 25 00:01:31,989 --> 00:01:34,735 wie werden wir Faktenchecker? 26 00:01:34,835 --> 00:01:37,509 Dafür begrüße ich Wolfgang Büchner, 27 00:01:37,609 --> 00:01:39,496 stellvertretender Regierungssprecher 28 00:01:39,596 --> 00:01:43,499 und stellvertretender Leiter des Bundespresseamts. Hallo. 29 00:01:44,846 --> 00:01:46,469 * Beifall * 30 00:01:49,841 --> 00:01:52,160 Außerdem dabei Henriette Löwisch, 31 00:01:52,260 --> 00:01:55,944 Schulleiterin und Leiterin der deutschen Journalistenschule. 32 00:01:56,044 --> 00:01:58,266 Herzlich willkommen auch an Sie. 33 00:01:58,566 --> 00:02:00,188 * Beifall * 34 00:02:02,738 --> 00:02:06,938 Sowie Josefine Ballon, Head of Legal bei hateaid, 35 00:02:07,038 --> 00:02:11,785 bietet Menschen, die von digitaler Gewalt betroffen sind, Hilfe an. 36 00:02:11,885 --> 00:02:13,536 Schön, dass Sie da sind. 37 00:02:13,769 --> 00:02:15,275 * Beifall * 38 00:02:17,483 --> 00:02:23,061 Und der Letzte: David Schraven, Gründer und Geschäftsführer von CORRECTIV. 39 00:02:23,161 --> 00:02:25,314 Er leitet dort das Recherchezentrum. 40 00:02:25,414 --> 00:02:27,111 Hallo und herzlich willkommen. 41 00:02:27,311 --> 00:02:28,808 * Beifall * 42 00:02:30,205 --> 00:02:35,350 Lassen Sie uns ein bisschen über den Aspekt sprechen 43 00:02:35,450 --> 00:02:39,608 bzw. ein bisschen aufklären über Desinformation. 44 00:02:39,708 --> 00:02:42,725 Herr Büchner, was versteht man eigentlich darunter? 45 00:02:43,461 --> 00:02:49,579 Unter Desinformation versteht man eine gezielte Falschinformation 46 00:02:49,679 --> 00:02:55,779 die Vertrauen zerstören soll, die auch tatsächlich Wirkung hat, 47 00:02:55,879 --> 00:03:00,295 indem sie Leuten die Orientierung nimmt, was richtig oder falsch ist. 48 00:03:00,395 --> 00:03:03,130 Und die auch dazu beiträgt, 49 00:03:03,230 --> 00:03:10,426 dass ganz gefährliche Situationen entstehen können. 50 00:03:10,526 --> 00:03:14,244 Es ist wichtig, dass wir da alle wachsam sind. 51 00:03:14,344 --> 00:03:18,729 Und Frau Ballon, wie beobachten Sie die aktuelle Entwicklung in Deutschland, 52 00:03:18,829 --> 00:03:22,249 wie viel Hatespeech gibt es mittlerweile im Netz? 53 00:03:22,637 --> 00:03:24,543 Es lässt sich schwer messen. 54 00:03:24,643 --> 00:03:28,125 Wir haben allerdings das Gefühl aus unserer Beratung, 55 00:03:28,225 --> 00:03:30,494 aus unseren Erfahrungen, die wir dort sammeln 56 00:03:30,594 --> 00:03:34,233 und vor allem aus den Zahlen, aus dem stetigen Zulauf, 57 00:03:34,333 --> 00:03:37,447 dass es nicht weniger geworden ist 58 00:03:37,648 --> 00:03:41,175 und eher noch zugenommen hat, auch im Zusammenhang mit der Pandemie 59 00:03:41,275 --> 00:03:44,706 und auch während des Krieges, den wir beobachten müssen. 60 00:03:44,806 --> 00:03:50,062 Wir sehen es auch an der Beratung, dass immer mehr Menschen sich an uns wenden 61 00:03:50,162 --> 00:03:52,789 und Hilfe suchen, was die richtige Entscheidung ist. 62 00:03:53,202 --> 00:03:55,750 Wäre das auch Ihre Einschätzung, Herr Schraven? 63 00:03:55,850 --> 00:03:58,156 Ich hätte die Frage an Sie weitergegeben. 64 00:03:58,256 --> 00:04:02,741 Inwieweit hat die Bedeutung von Falschinformationen zugenommen? 65 00:04:04,840 --> 00:04:10,902 Es gibt einen Unterschied zwischen Hatespeech und gezielter Desinformation. 66 00:04:11,158 --> 00:04:16,076 Ich persönlich glaub, dass der Hass im Netz zugenommen hat 67 00:04:16,176 --> 00:04:20,517 weil er leicht ist, Leute können sich schnell und leicht aufregen. 68 00:04:20,617 --> 00:04:23,336 Dieses Aufregen wird genutzt von Leuten, 69 00:04:23,436 --> 00:04:25,835 die die Gesellschaft auseinandertreiben wollen. 70 00:04:25,935 --> 00:04:30,128 Das ist die Desinformation, das ist die Vorstufe davon, wenn man so will. 71 00:04:30,228 --> 00:04:34,099 Und das Prinzip gibt es lange. 72 00:04:34,199 --> 00:04:36,461 Ich vermute, so lange es Menschen gibt. 73 00:04:36,590 --> 00:04:38,402 Wir können jetzt beobachten, 74 00:04:38,557 --> 00:04:40,743 dass wir in großen Konflikten stehen 75 00:04:40,843 --> 00:04:45,154 und in diesen großen Konflikten diese Erzählungen benutzt werden, 76 00:04:45,254 --> 00:04:48,600 damit grundsätzlich das Vertrauen zerstört wird. 77 00:04:48,700 --> 00:04:54,982 D.h., es geht nicht darum, eine falsche Erzählung in die Köpfe zu kriegen. 78 00:04:55,055 --> 00:04:57,955 Es geht darum, den Leuten die Fähigkeit zu nehmen, 79 00:04:58,055 --> 00:05:00,836 zu erkennen, was ist überhaupt wahr, was ist falsch. 80 00:05:00,936 --> 00:05:03,552 Was ist das, woran ich mich orientieren kann 81 00:05:03,652 --> 00:05:06,769 und was wird benutzt, um mich zu manipulieren. 82 00:05:06,869 --> 00:05:09,912 Und da vielleicht nur ein kleiner Hinweis: 83 00:05:09,975 --> 00:05:14,101 Es ist nicht notwendig, dass die Desinformation besonders klug ist. 84 00:05:14,201 --> 00:05:18,747 Es reicht auch ein völlig absurder Erzählungsstrang, 85 00:05:18,847 --> 00:05:20,001 der nur benutzt wird, 86 00:05:20,101 --> 00:05:23,031 damit weniger absurde Stränge implementiert werden können, 87 00:05:23,131 --> 00:05:25,882 weil die dann ausreichen, um Vertrauen zu zerstören. 88 00:05:25,982 --> 00:05:28,135 Wir haben gerade gehört, Frau Löwisch, 89 00:05:28,235 --> 00:05:31,259 die Frage auch an Sie, wie gefährlich Desinformationen sind. 90 00:05:31,359 --> 00:05:33,039 Es geht um den Vertrauensverlust, 91 00:05:33,139 --> 00:05:36,266 auch darum, die Gesellschaft auseinanderzutreiben. 92 00:05:36,432 --> 00:05:39,211 Würden Sie noch andere Aspekte markieren? 93 00:05:40,286 --> 00:05:45,101 Aus journalistischer Perspektive, ich bilde ja Journalist*innen aus, 94 00:05:45,201 --> 00:05:48,487 ist, glaube ich, ein ganz starker Aspekt, 95 00:05:48,561 --> 00:05:52,624 dass diejenigen, die versuchen, die Desinformation in Umlauf zu bringen, 96 00:05:52,724 --> 00:05:57,130 um das zu erreichen, was die Vorredner gesagt haben, 97 00:05:57,230 --> 00:06:01,264 dass versucht wird, die Journalist* innen dazu zu bringen, 98 00:06:01,288 --> 00:06:03,690 das Zeug noch weiterzuverbreiten. 99 00:06:03,790 --> 00:06:08,595 Die Situationen in den Medien noch weiter auszunutzen, 100 00:06:08,695 --> 00:06:11,812 die dazu führen, dass es noch den Stempel kriegt, 101 00:06:11,836 --> 00:06:14,953 dass es vermeintlich geprüft ist. 102 00:06:15,077 --> 00:06:16,145 Das ist der Punkt, 103 00:06:16,169 --> 00:06:21,635 wo wir als Journalist*innen versuchen müssen, anzusetzen. 104 00:06:22,276 --> 00:06:25,047 Haben Sie ein Beispiel, wie Sie dagegen vorgehen? 105 00:06:25,918 --> 00:06:32,142 Ganz viele Beispiele, ich weiß gar nicht, wo ich anfangen soll, 106 00:06:32,242 --> 00:06:36,302 an unserer Schule machen wir ein Magazin, 107 00:06:36,402 --> 00:06:41,072 die Studierenden produzieren selbst eine Zeitschrift 108 00:06:41,172 --> 00:06:45,493 und recherchieren und schreiben die Artikel dafür selbst. 109 00:06:45,593 --> 00:06:48,588 Und zum Schluss aber, bevor es veröffentlicht wird, 110 00:06:48,688 --> 00:06:52,600 müssen sie mir beweisen, dass alles gecheckt worden ist, 111 00:06:52,700 --> 00:06:56,533 dass alles, was in den Artikeln steht, geprüft wurde. 112 00:06:56,633 --> 00:07:01,773 Wir hatten gerade so eine Runde für das neue Magazin. 113 00:07:01,910 --> 00:07:09,449 Da ging es um eine Form von chronischer Krankheit 114 00:07:09,549 --> 00:07:11,225 und es ging darum, 115 00:07:11,325 --> 00:07:18,120 zahlen die Krankenkassen und die Sozialkassen den Leuten die Behandlung. 116 00:07:18,220 --> 00:07:22,067 Und es wurde eine Betroffene zitiert, die gesagt hat: 117 00:07:22,225 --> 00:07:25,496 Nein, sie bezahlen es nicht, das sei voll unmöglich. 118 00:07:25,596 --> 00:07:28,532 Ja, dass sie es nicht bezahlen. 119 00:07:28,632 --> 00:07:32,387 Jetzt kann man sagen, meine Journalisten, die das geschrieben haben, 120 00:07:32,487 --> 00:07:35,821 behaupten das ja nicht, sondern sie zitieren nur jemanden, 121 00:07:35,921 --> 00:07:37,315 der es behauptet hat 122 00:07:37,415 --> 00:07:41,910 und hinterher stellt sich heraus, dass es nicht so ist. 123 00:07:42,527 --> 00:07:47,978 Und es kann ja sein, dass die eine betroffene Person es so erlebt hat. 124 00:07:48,078 --> 00:07:51,974 Ich will gar nicht der Person abstreiten, dass sie es erlebt hat. 125 00:07:52,074 --> 00:07:55,406 Aber Sie und wir alle haben es schon 100.000 Mal gemacht, 126 00:07:55,406 --> 00:07:59,132 uns ist etwas passiert und wir verallgemeinern es. 127 00:07:59,695 --> 00:08:02,787 Und hier ist ein ganz konkreter Punkt, 128 00:08:02,887 --> 00:08:07,957 wo jeder einzelne Journalist unglaublich aufpassen muss, 129 00:08:08,057 --> 00:08:12,767 um nicht irgendwas immer weiter zu transportieren, was nicht geprüft ist. 130 00:08:12,867 --> 00:08:15,928 Sehr richtig, Herr Büchner, Sie wollten etwas ergänzen? 131 00:08:16,028 --> 00:08:22,018 Wir müssen genau unterscheiden zwischen journalistischen handwerklichen Fehlern 132 00:08:22,118 --> 00:08:27,225 wie Informationen, die nicht sauber recherchiert werden 133 00:08:27,325 --> 00:08:29,544 oder die man zu schnell weitergibt, 134 00:08:29,644 --> 00:08:34,558 wie Ihr Beispiel, oder Desinformation, die eine andere Qualität hat. 135 00:08:34,658 --> 00:08:37,820 Nämlich dass Dinge gezielt erfunden werden. 136 00:08:37,920 --> 00:08:42,568 Und das muss man zur Ehrenrettung des Journalismus in Deutschland sagen: 137 00:08:42,668 --> 00:08:45,771 Das gibt es in unserem Journalismus eigentlich nicht. 138 00:08:45,878 --> 00:08:48,631 Da gibt es einige wenige krasse Ausnahmen, 139 00:08:48,731 --> 00:08:52,233 da fallen uns Geschichten wie der Fall Relotius beim Spiegel ein, 140 00:08:52,333 --> 00:08:57,727 aber im Prinzip arbeiten, ich habe ja auch 30 Jahre als Journalist gearbeitet 141 00:08:57,827 --> 00:09:00,918 und kann es ganz gut einschätzen, arbeiten unsere Redaktionen 142 00:09:01,018 --> 00:09:05,668 sehr nach dem Prinzip, Quellen zu prüfen, Nachrichten zu überprüfen. 143 00:09:05,768 --> 00:09:07,806 Das, was du beschrieben hast, 144 00:09:07,906 --> 00:09:11,095 ist eher ein Phänomen von handwerklichen Fehlern, 145 00:09:11,195 --> 00:09:12,868 etwas war nicht sauber geprüft. 146 00:09:12,968 --> 00:09:17,905 Das liegt für mich auf einer anderen Ebene als: 147 00:09:18,005 --> 00:09:20,589 Jemand denkt sich ein Narrativ aus, 148 00:09:20,689 --> 00:09:25,414 es ist teilweise völlig abstrus und verrückt, 149 00:09:25,526 --> 00:09:28,083 und hilft trotzdem dabei, 150 00:09:28,183 --> 00:09:32,647 Glaubwürdigkeit in vernünftige Informationen zu zersetzen. 151 00:09:32,747 --> 00:09:36,913 Bleiben wir vielleicht noch mal bei konkreten Fällen von Desinformationen, 152 00:09:37,013 --> 00:09:38,805 um das Ganze zu veranschaulichen. 153 00:09:38,905 --> 00:09:43,427 Ich habe versucht, es schon ein bisschen zu skizzieren in meiner Anmoderation. 154 00:09:43,527 --> 00:09:48,229 Mir würde jetzt noch einfallen, russische Propaganda. 155 00:09:48,329 --> 00:09:50,229 Haben Sie noch konkrete Beispiele? 156 00:09:50,355 --> 00:09:54,062 Vielleicht für unsere Bürgerinnen und Bürger hier, 157 00:09:54,162 --> 00:09:58,023 damit wir ganz genau verstehen, was Desinformationen sind. 158 00:09:58,337 --> 00:10:00,720 Ich würde gerne eins erzählen. 159 00:10:00,851 --> 00:10:03,202 Das hat mich 2014 sehr geschockt. 160 00:10:03,302 --> 00:10:06,062 Ich finde es immer noch schrecklich, 161 00:10:06,176 --> 00:10:07,926 auch, dass es gelungen ist, 162 00:10:08,044 --> 00:10:12,004 die Desinformation ins gesellschaftliche Bewusstsein einzupflanzen. 163 00:10:12,078 --> 00:10:13,766 Viele Menschen glauben das. 164 00:10:13,878 --> 00:10:16,253 Als der Flug MH17 abgeschossen wurde, 165 00:10:16,284 --> 00:10:19,031 da waren russische Militärs, 166 00:10:19,131 --> 00:10:21,430 die russische Militärtechnik benutzt haben, 167 00:10:21,530 --> 00:10:23,484 in einer russischen Kommandostruktur. 168 00:10:23,584 --> 00:10:27,070 Das ist mittlerweile komplett durch bewiesen vor Gericht. 169 00:10:29,320 --> 00:10:31,199 Und von den russischen Seiten 170 00:10:31,299 --> 00:10:34,795 haben die Propaganda-Medien "Russia Today" benutzt, 171 00:10:34,994 --> 00:10:36,934 um falsches Narrativ zu bringen. 172 00:10:37,034 --> 00:10:41,363 Und jeden zweiten Tag gefühlt ein neues Narrativ. 173 00:10:41,463 --> 00:10:43,363 Irgendeinen neuen Quatsch. 174 00:10:43,444 --> 00:10:46,467 Immer mehr Leute haben sich davon beeindrucken lassen, 175 00:10:46,567 --> 00:10:48,567 weil immer wieder was Neues kam. 176 00:10:48,695 --> 00:10:51,507 "Ach, dann kann es so gar nicht gewesen sein." 177 00:10:51,670 --> 00:10:53,941 Das fand ich sehr bedrückend. 178 00:10:54,041 --> 00:10:57,743 Aufgrund des ersten Narratives zu Beginn des Krieges 179 00:10:57,843 --> 00:11:01,430 haben wir eine Menge weitere Narrative bis heute erlebt, 180 00:11:01,530 --> 00:11:06,078 wo am Schluss stand, die NATO will was weiß ich wen angreifen, 181 00:11:06,178 --> 00:11:08,019 um einen Grund zu liefern, 182 00:11:08,119 --> 00:11:10,883 damit Russland in die Ukraine einmarschieren kann. 183 00:11:10,983 --> 00:11:13,696 Das ist eine Operation, die seit Jahren läuft. 184 00:11:13,793 --> 00:11:15,193 Vielen Dank. 185 00:11:15,293 --> 00:11:18,852 Wir beschäftigen uns vor allem mit Betroffenen digitaler Gewalt, 186 00:11:18,952 --> 00:11:22,096 das heißt mit Menschen, die persönlich angegriffen werden. 187 00:11:22,196 --> 00:11:26,231 Und wir haben unter unseren Klient*innen viele Menschen, 188 00:11:26,331 --> 00:11:27,849 die aktivistisch aktiv sind, 189 00:11:27,949 --> 00:11:30,989 die journalistisch aktiv sind oder politisch, 190 00:11:31,089 --> 00:11:34,013 sowohl auf Bundesebene als auch auf kommunaler Ebene. 191 00:11:34,113 --> 00:11:38,365 Wir sehen da auch einen Trend, der nicht ganz neu ist, 192 00:11:38,552 --> 00:11:41,598 der aber immer mehr Zulauf bekommt, 193 00:11:41,698 --> 00:11:46,062 dass z.B. Falschzitate von Politiker*innen verbreitet werden. 194 00:11:46,162 --> 00:11:48,431 Das ist nach deutschem Recht eine Verleumdung 195 00:11:48,531 --> 00:11:50,172 oder eine üble Nachrede. 196 00:11:50,272 --> 00:11:52,521 Das ist vielen Leuten gar nicht bewusst. 197 00:11:52,621 --> 00:11:54,313 Wenn man so was ungeprüft teilt, 198 00:11:54,413 --> 00:11:57,198 kann man sich wegen übler Nachrede strafbar machen. 199 00:11:57,298 --> 00:12:01,183 Wir sehen, dass diese Zitate eingesetzt werden, 200 00:12:01,283 --> 00:12:05,254 um strategisch die Glaubwürdigkeit der Politiker*innen zu untergraben 201 00:12:05,354 --> 00:12:09,285 um sie zu diffamieren und für unwürdig für ihr Amt darzustellen. 202 00:12:09,385 --> 00:12:11,285 Indem sie so dargestellt werden, 203 00:12:11,471 --> 00:12:15,313 als hätten sie, sogar in wörtlicher Rede mit einem wörtlichen Zitat, 204 00:12:15,413 --> 00:12:18,782 Positionen vertreten, die sie gar nicht vertreten haben. 205 00:12:18,882 --> 00:12:21,743 Ein Beispiel ist z.B. Renate Künast. 206 00:12:21,843 --> 00:12:26,017 Die haben wir unterstützt im Rahmen unserer Prozesskostenfinanzierung. 207 00:12:26,117 --> 00:12:29,368 Durch einige Instanzen mittlerweile. 208 00:12:29,468 --> 00:12:31,368 In Bezug auf zwei Falschzitate. 209 00:12:31,475 --> 00:12:34,149 Ein Zitat, das uns zuletzt beschäftigt hat, 210 00:12:34,173 --> 00:12:36,847 sie soll in einer Talkshow gesagt haben, 211 00:12:36,947 --> 00:12:38,677 dass Integration damit anfängt, 212 00:12:38,701 --> 00:12:41,442 dass wir Deutschen erst mal alle Türkisch lernen. 213 00:12:41,542 --> 00:12:47,138 Die Intention dahinter ist nicht so ganz undurchsichtig, sag ich mal. 214 00:12:47,238 --> 00:12:49,465 Sie soll eben so dargestellt werden, 215 00:12:49,565 --> 00:12:54,415 als wäre das ihre politische Position zur Integrationspolitik. 216 00:12:54,515 --> 00:12:57,132 Das ist aber etwas, was sie nicht gesagt hat. 217 00:12:57,232 --> 00:12:59,230 Es ist auch im Fernsehen gelaufen, 218 00:12:59,330 --> 00:13:01,242 d.h. man kann es gut nachvollziehen. 219 00:13:01,342 --> 00:13:04,821 Ich glaub, CORRECTIV hat es auch schon mehrfach abgecheckt. 220 00:13:04,921 --> 00:13:07,300 Was bemerkenswert an diesem Zitat ist, 221 00:13:07,400 --> 00:13:11,547 dass es sich hundertfach über die sozialen Netzwerke verbreitet hat. 222 00:13:11,647 --> 00:13:13,547 Vor allem über Facebook. 223 00:13:13,688 --> 00:13:18,210 Wir haben Renate Künast bei einer Klage gegenüber Facebook unterstützt. 224 00:13:18,310 --> 00:13:24,096 Facebook musste nicht nur das eine gefundene und gemeldete Meme entfernen, 225 00:13:24,196 --> 00:13:26,789 sondern sich auch aktiv daran beteiligen soll, 226 00:13:26,889 --> 00:13:29,965 weitere aufzufinden, auch in geschlossenen Gruppen, 227 00:13:30,065 --> 00:13:33,379 auf privaten Seiten, um dafür zu sorgen, 228 00:13:33,479 --> 00:13:35,700 dass diese massenhafte Falschinformation 229 00:13:35,800 --> 00:13:38,529 über Frau Künast eingedämmt wird. 230 00:13:38,633 --> 00:13:41,094 Für die Betroffenen, wenn so etwas passiert 231 00:13:41,194 --> 00:13:43,209 ist es tatsächlich eine Lebensaufgabe, 232 00:13:43,309 --> 00:13:46,151 diese Inhalte zu suchen und die Löschung zu beantragen. 233 00:13:46,248 --> 00:13:50,157 Und dann darauf zu hoffen, dass das soziale Netzwerk auch mitmacht. 234 00:13:50,257 --> 00:13:53,894 Haben Sie noch ein Beispiel, das Ihnen ad hoc einfällt? 235 00:13:53,994 --> 00:13:58,791 Wir haben ganz gut verstanden, glaube ich, worum es geht. 236 00:13:58,891 --> 00:14:03,420 Ich kann einfach, ich glaube manchmal, es ist gut, 237 00:14:03,520 --> 00:14:07,139 sich manchmal weniger dramatische Beispiele vor Augen zu führen, 238 00:14:07,239 --> 00:14:09,491 weil sie so viel näher sind. 239 00:14:09,942 --> 00:14:11,700 Es gibt einen Meme, 240 00:14:11,800 --> 00:14:17,005 es gab vor vier Wochen einen Meme, das umlief, wo steht, 241 00:14:17,105 --> 00:14:22,780 es ist verboten, das Lied "Layla" in Deutschland zu spielen. 242 00:14:23,805 --> 00:14:26,589 Und es ist einfach nicht so. Es ist nicht verboten. 243 00:14:27,421 --> 00:14:32,579 Natürlich, wenn man zuerst dieses Bild sieht mit dieser Botschaft, 244 00:14:32,679 --> 00:14:35,376 dann findet man es vielleicht witzig oder man denkt: 245 00:14:35,476 --> 00:14:39,507 "Oh mein Gott, Hammer." Und zack, hat man es erst mal geteilt. 246 00:14:39,607 --> 00:14:42,557 Das ist so im Kleinen, 247 00:14:42,581 --> 00:14:47,283 auch wenn es nicht um Angriffe auf Menschen geht 248 00:14:47,383 --> 00:14:49,654 oder um Weltpolitik geht, 249 00:14:49,754 --> 00:14:53,975 ist es echt wichtig, jedes Mal einmal kurz durchzuatmen 250 00:14:54,075 --> 00:14:56,779 und zu überlegen: Stimmt das jetzt? 251 00:14:56,879 --> 00:15:01,242 Wer hat es verbreitet und steckt jemand dahinter, 252 00:15:01,342 --> 00:15:03,500 der damit etwas erreichen will? 253 00:15:03,600 --> 00:15:08,185 Ich würde gerne dazu eine Sache sagen, was ich ganz interessant finde. 254 00:15:08,285 --> 00:15:10,105 Alle Fälle gehören zusammen. 255 00:15:10,205 --> 00:15:12,092 Das ist das Interessante. 256 00:15:12,192 --> 00:15:15,103 Es geht weniger darum, eine Erzählung zu bringen, 257 00:15:15,203 --> 00:15:18,608 sondern ganz viele kleine zu einem großen Teppich zu machen, 258 00:15:18,708 --> 00:15:20,564 wo das Vertrauen verlorengeht. 259 00:15:20,664 --> 00:15:22,564 Da gibt es von der New York Times, 260 00:15:22,712 --> 00:15:26,687 hier kann man wahrscheinlich dummerweise keine Links reinsetzen, 261 00:15:26,787 --> 00:15:30,265 aber von der New York Times gibt es eine tolle Geschichte, 262 00:15:30,365 --> 00:15:33,745 "operation and faction", wo nachvollzogen wird, 263 00:15:33,845 --> 00:15:37,656 wie weit und gezielt eine Desinformation verbreitet wird 264 00:15:37,756 --> 00:15:40,011 und mit welchem Sinn und Zweck. 265 00:15:40,214 --> 00:15:44,667 Da geht es um AIDS, dass AIDS vom CIA erfunden wurde. 266 00:15:44,767 --> 00:15:47,969 Das ist eine Wirkungskette, die wird irgendwann ausgelöst, 267 00:15:47,993 --> 00:15:49,616 die wirkt in 30 Jahren noch. 268 00:15:49,716 --> 00:15:52,129 Mit dem Beispiel, das Sie gerade gebracht haben, 269 00:15:52,229 --> 00:15:54,455 geht es nur darum, zu sagen, 270 00:15:55,099 --> 00:15:57,007 die Regierung macht irgendwas. 271 00:15:57,198 --> 00:15:59,184 Die Verwaltung macht irgendwas. 272 00:15:59,284 --> 00:16:01,189 Einfach nur Unsicherheit. 273 00:16:01,289 --> 00:16:02,839 Mehr braucht man da gar nicht. 274 00:16:02,939 --> 00:16:06,413 Der Effekt, der im Nachhinein ausgelöst wird, 275 00:16:06,531 --> 00:16:10,052 ist eine komplette Verunsicherung und Auflösung 276 00:16:10,152 --> 00:16:12,281 der gesamten gesellschaftlichen Debatte. 277 00:16:12,381 --> 00:16:14,202 Das finde ich sehr schlimm. 278 00:16:14,302 --> 00:16:16,077 Deswegen, wie Sie gerade sagten, 279 00:16:16,177 --> 00:16:18,077 müssen wir uns alle überlegen: 280 00:16:18,151 --> 00:16:21,015 Wie können wir lernen, mit Desinformation umzugehen 281 00:16:21,291 --> 00:16:23,291 und sie zu erkennen? 282 00:16:23,391 --> 00:16:25,814 Ich hab mich gerade gefragt, aber ich weiß nicht, 283 00:16:25,914 --> 00:16:27,857 ob Sie mir das beantworten können: 284 00:16:27,957 --> 00:16:31,177 Gibt es Zahlen darüber, weiß man, wie viele Menschen 285 00:16:31,277 --> 00:16:37,542 vermeintliche Informationen konsumieren und für wahre Fakten erkennen? 286 00:16:39,400 --> 00:16:40,968 Richtige Zahlen gibt es nicht. 287 00:16:41,068 --> 00:16:43,188 Es gibt keine verlässliche Grundlage. 288 00:16:43,288 --> 00:16:46,992 Man kann nur sehen, welche Verbreitungsraten hat man, 289 00:16:47,092 --> 00:16:49,365 wo kommen die her und wo gehen die weiter. 290 00:16:49,465 --> 00:16:52,219 Wir haben bei CORRECTIV einige Erhebungen dazu gemacht. 291 00:16:52,319 --> 00:16:54,047 Wir können dann feststellen, 292 00:16:54,147 --> 00:16:56,832 dass ungefähr die Hälfte aller Desinformationskampagnen 293 00:16:56,932 --> 00:16:58,572 bei YouTube gestartet werden 294 00:16:58,672 --> 00:17:03,658 und in den anderen sozialen Kanälen bzw. WhatsApp, Telegram gestartet 295 00:17:03,758 --> 00:17:05,586 oder weiterverbreitet werden. 296 00:17:05,686 --> 00:17:10,228 Sehr viel kommt immer noch von Facebook, knapp 30%, ein bisschen weniger. 297 00:17:10,328 --> 00:17:12,922 Der Rest kommt aus den anderen Kanälen. 298 00:17:13,022 --> 00:17:16,696 Dann landet man evtl. im vermeintlichen Kaninchenbau. 299 00:17:16,796 --> 00:17:19,827 Man verfolgt eine Information, die falsch ist 300 00:17:19,929 --> 00:17:23,441 und klickt dann auf die nächste, die natürlich auch falsch ist usw. 301 00:17:23,541 --> 00:17:26,099 Wenn wir über die Maßnahmen sprechen wollen, 302 00:17:26,199 --> 00:17:30,355 Herr Büchner, welche Strategie hat die Bundesregierung? 303 00:17:30,455 --> 00:17:31,978 Gibt es eine? 304 00:17:32,509 --> 00:17:37,970 Ja, das Wichtige ist, was hier auch schon angesprochen wurde, 305 00:17:38,361 --> 00:17:42,353 wir wollen gern, dass möglichst viele Menschen sensibel sind 306 00:17:42,453 --> 00:17:44,923 für gezielte Falschinformation. 307 00:17:45,023 --> 00:17:49,800 Es geht um Medienkompetenz. 308 00:17:49,900 --> 00:17:52,185 Wir wollen gern Medienkompetenz stärken. 309 00:17:52,266 --> 00:17:55,599 Dafür gibt es ganz viele Programme, die die Bundesregierung, 310 00:17:55,699 --> 00:17:57,807 die auch das Bundespresseamt unterstützt. 311 00:17:57,941 --> 00:18:01,666 Die Bundeszentrale für politische Bildung macht da auch wunderbare Sachen. 312 00:18:01,766 --> 00:18:03,758 Auch in Zusammenarbeit mit Schulen. 313 00:18:03,858 --> 00:18:06,047 Es gibt eine ganze Menge Ansätze. 314 00:18:06,147 --> 00:18:09,584 Wenn Sie unsere Arbeit im Bundespresseamt meinen, 315 00:18:09,684 --> 00:18:12,362 dann beschäftigen wir uns auch damit. 316 00:18:12,462 --> 00:18:19,383 Es gibt in der Bundesregierung z.B. seit Beginn des russischen Angriffskrieges 317 00:18:19,483 --> 00:18:23,916 gegen die Ukraine eine Task Force im Bundesinnenministerium, 318 00:18:24,016 --> 00:18:27,883 die sich ausschließlich mit gezielter Desinformation beschäftigt 319 00:18:27,983 --> 00:18:29,883 durch russische Propaganda. 320 00:18:29,978 --> 00:18:34,358 Wir haben im Bundespresseamt auch eine Arbeitsgemeinschaft Desinformation. 321 00:18:34,499 --> 00:18:36,275 Wir beschäftigen uns täglich damit. 322 00:18:36,375 --> 00:18:38,391 Wenn wir morgens eine Morgenlage machen, 323 00:18:38,491 --> 00:18:41,164 in der wir uns die Nachrichten in der Welt anschauen, 324 00:18:41,264 --> 00:18:43,926 gibt es immer einen Punkt, wo wir darüber reden, 325 00:18:44,026 --> 00:18:50,893 entstehen in sozialen Medien gerade wirksame neue Narrative, 326 00:18:50,993 --> 00:18:53,628 die möglicherweise schon viele Likes haben 327 00:18:53,771 --> 00:18:55,181 und weiterverbreitet werden. 328 00:18:55,281 --> 00:18:58,586 Und wir sprechen darüber, ob es notwendig ist, darauf zu reagieren. 329 00:18:59,930 --> 00:19:01,814 Was würden Sie sagen, Frau Löwisch, 330 00:19:01,914 --> 00:19:04,187 "sensibilisieren" haben wir gerade gehört. 331 00:19:04,287 --> 00:19:07,483 Aber wenn wir es umdrehen, 332 00:19:07,583 --> 00:19:12,403 wie wir damit die Resilienz steigern könnten 333 00:19:12,503 --> 00:19:16,746 gegen Desinformation, was würden Sie da raten? 334 00:19:17,889 --> 00:19:20,447 Also, eine Sache, die natürlich sehr wichtig ist 335 00:19:20,547 --> 00:19:22,905 für Journalistinnen und Journalisten, ist schon, 336 00:19:23,005 --> 00:19:25,771 dass es Organisationen wie HateAid gibt. 337 00:19:25,871 --> 00:19:30,141 Zum Teil haben Journalistinnen und Journalisten ein bisschen Angst. 338 00:19:30,241 --> 00:19:37,349 vor diesen Leuten, die diese Attacken und Kampagnen starten können. 339 00:19:37,449 --> 00:19:41,323 Und nun, weil sie Resilienz sagen: 340 00:19:41,423 --> 00:19:44,972 Klar, ich glaube, 341 00:19:45,072 --> 00:19:48,184 es ist wichtig, Journalistinnen und Journalisten zu schulen, 342 00:19:48,284 --> 00:19:50,184 wie gehst du damit um. 343 00:19:50,268 --> 00:19:53,106 Oder welche Möglichkeiten gibt es, damit umzugehen. 344 00:19:53,206 --> 00:19:55,219 Das andere, was wir machen, ist, 345 00:19:55,319 --> 00:19:57,364 seit ungefähr vier Jahren, 346 00:19:57,464 --> 00:20:01,381 es gibt auch eine Reihe von anderen Organisationen, die das machen, 347 00:20:01,481 --> 00:20:05,778 unsere ehemaligen Schülerinnen und Schüler gehen an Schulen, 348 00:20:05,878 --> 00:20:08,738 an Hauptschulen, an Realschulen, an Gymnasien, 349 00:20:08,838 --> 00:20:11,931 um über das Thema zu reden. 350 00:20:12,031 --> 00:20:15,307 Um zu zeigen, wie funktionieren diese Fakes, 351 00:20:15,407 --> 00:20:17,671 wie funktionieren Deep Fakes. 352 00:20:17,771 --> 00:20:22,342 Es gibt inzwischen Dinge, die sind sehr schwer zu erkennen. 353 00:20:22,442 --> 00:20:26,030 Wie kann man das machen, wie kann man damit umgehen? 354 00:20:26,130 --> 00:20:27,988 Das ist eine Sache, die wir machen. 355 00:20:28,088 --> 00:20:31,444 Dann ist bei uns natürlich klar, es ist auch im Stundenplan: 356 00:20:31,600 --> 00:20:35,053 Fakten checken und digitale Verifikation. 357 00:20:35,153 --> 00:20:39,914 Jeder einzelne Mensch, der bei mir ausgebildet wird, 358 00:20:40,014 --> 00:20:44,712 muss diese Fächer belegen und das lernen. 359 00:20:44,812 --> 00:20:50,182 Ich mein, wie soll man von den 360 00:20:50,282 --> 00:20:54,907 sagen wir mal 16-Jährigen in einer Realschule in Bayern verlangen, 361 00:20:55,007 --> 00:20:59,700 dass sie das machen, wenn wir Profis, die dafür bezahlt werden, 362 00:20:59,800 --> 00:21:03,898 so was nicht können und das nicht machen. Das ist ganz wichtig. 363 00:21:04,098 --> 00:21:07,764 Wir sprechen gerade eigentlich über Prävention, 364 00:21:07,864 --> 00:21:10,356 was lässt sich tun, was muss gemacht werden. 365 00:21:10,456 --> 00:21:13,276 Wie geht man mit Menschen um, 366 00:21:13,376 --> 00:21:18,961 die schon so viel Falschinformationen gelesen, konsumiert haben, 367 00:21:19,061 --> 00:21:22,486 dass sie sich nicht mehr überzeugen lassen, 368 00:21:22,586 --> 00:21:25,468 dass es eine Falschinformation war? 369 00:21:27,266 --> 00:21:30,614 Frage an Sie alle. Fangen wir mit Ihnen an, Herr Büchner. 370 00:21:31,265 --> 00:21:37,883 Ich würde grundsätzlich nie aufgeben den Versuch, 371 00:21:37,983 --> 00:21:39,880 Menschen zu überzeugen, 372 00:21:39,980 --> 00:21:43,548 mit klaren Fakten, dass sie falsch liegen 373 00:21:43,648 --> 00:21:48,486 oder einer falschen Erzählung aufsitzen an der Stelle. 374 00:21:49,418 --> 00:21:50,946 Und da noch mal: 375 00:21:51,046 --> 00:21:52,946 Es geht nicht um Einschätzungsfragen. 376 00:21:53,011 --> 00:21:57,117 Die Bundesregierung muss das aushalten, 377 00:21:57,217 --> 00:21:59,461 wenn sie kritisiert wird für Entscheidungen. 378 00:21:59,561 --> 00:22:02,077 Es geht nicht darum, die Leute davon zu überzeugen, 379 00:22:02,177 --> 00:22:04,800 dass es richtig ist, was die Regierung tut. 380 00:22:04,900 --> 00:22:09,563 Es geht nur um die Frage: Werden gezielt Falschinformationen verbreitet? 381 00:22:09,663 --> 00:22:14,768 Ich würde gerne noch mal den berühmten Fall aus dem März nennen, 382 00:22:14,868 --> 00:22:16,809 der sich schnell hat aufklären lassen, 383 00:22:16,909 --> 00:22:18,917 wo plötzlich behauptet wurde, 384 00:22:19,019 --> 00:22:24,922 da wäre ein Russe von Ukrainern umgebracht worden. 385 00:22:25,036 --> 00:22:27,223 Das hat ein TikTok-User verbreitet. 386 00:22:27,289 --> 00:22:29,451 Es wurde relativ schnell aufgeklärt. 387 00:22:29,551 --> 00:22:33,584 Der konnte auch dingfest gemacht werden, der User, der das verbreitet hat. 388 00:22:33,684 --> 00:22:36,603 Das trägt wirklich dazu bei, sozialen Unfrieden zu stiften, 389 00:22:36,703 --> 00:22:39,960 möglicherweise Leute gegeneinander aufzuhetzen. 390 00:22:40,060 --> 00:22:45,342 Da müssen wir sehr schnell und sehr klar sagen, 391 00:22:45,442 --> 00:22:47,342 was die Fakten sind. 392 00:22:47,473 --> 00:22:49,348 Da ist es natürlich auch gut, 393 00:22:49,512 --> 00:22:51,847 wenn sich nicht nur die Bundesregierung 394 00:22:51,947 --> 00:22:54,522 aus einer relativ hohen Flughöhe zu so was äußert, 395 00:22:54,622 --> 00:22:57,403 sondern dass die Polizei zur Aufklärung beitragen kann. 396 00:22:57,503 --> 00:23:02,602 Dass also Autoritäten sich mit klaren Fakten zu den Dingen äußern. 397 00:23:02,702 --> 00:23:06,001 Es gibt Menschen, die können Sie fast nicht mehr erreichen. 398 00:23:06,101 --> 00:23:10,163 Auch in der Corona-Pandemie gab es viele Menschen, 399 00:23:10,263 --> 00:23:12,377 die so fest davon überzeugt waren, 400 00:23:12,477 --> 00:23:18,652 dass mit der Impfung ganz üble Sachen beabsichtigt wären. 401 00:23:18,752 --> 00:23:22,487 Wenn sich Leute in so ein Gedankenbild eingraben, 402 00:23:22,587 --> 00:23:24,176 kann es sehr schwer werden. 403 00:23:24,276 --> 00:23:30,287 Und trotzdem, wir dürfen nicht müde werden zu versuchen, 404 00:23:30,387 --> 00:23:31,964 Leute davon zu überzeugen, 405 00:23:32,064 --> 00:23:34,351 dass sie da Scharlatanen aufsitzen 406 00:23:34,451 --> 00:23:39,196 und sie im Zweifel sogar ihr eigenes Leben riskieren. 407 00:23:39,296 --> 00:23:41,708 Möchten Sie das ergänzen? 408 00:23:41,816 --> 00:23:44,363 Ich würde gerne daran anknüpfen. 409 00:23:44,463 --> 00:23:46,932 Auch an das, was davor gesagt wurde. 410 00:23:47,032 --> 00:23:49,807 Wenn wir mit solchen Falschinformationen zu tun haben, 411 00:23:49,907 --> 00:23:53,263 dann in erster Linie deswegen, weil damit 412 00:23:53,363 --> 00:23:55,643 zu Hass und Hetze angestachelt wurde. 413 00:23:55,743 --> 00:23:59,465 Das ist im Endeffekt sicherlich, widersprechen Sie mir gern, 414 00:23:59,565 --> 00:24:02,217 aber mindestens ein Ziel, das damit verfolgt wird, 415 00:24:02,317 --> 00:24:04,217 um Menschen gegeneinander aufzuhetzen 416 00:24:04,358 --> 00:24:06,824 oder sie gegen die Regierung aufzuhetzen, 417 00:24:06,924 --> 00:24:10,403 um die Polarisierung und die Gräben in der Gesellschaft zu verstärken. 418 00:24:10,503 --> 00:24:12,646 D.h., Desinformation führt regelmäßig dazu, 419 00:24:12,746 --> 00:24:16,110 dass Menschen aufs Übelste angegriffen werden im Netz, 420 00:24:16,210 --> 00:24:19,240 dass sie Hassnachrichten bekommen, 421 00:24:19,340 --> 00:24:21,240 aber auch Morddrohungen, 422 00:24:21,325 --> 00:24:23,932 dass ihre privaten Informationen gedoxt werden. 423 00:24:24,032 --> 00:24:26,521 Auch mit Deep Fakes hatten wir schon zu tun. 424 00:24:26,621 --> 00:24:28,430 Es ist einfacher denn je, 425 00:24:28,530 --> 00:24:30,435 Deep Fakes über Menschen zu erstellen. 426 00:24:30,535 --> 00:24:33,808 Man kann sich eine App runterladen, dann bekommt man Vorschläge, 427 00:24:33,908 --> 00:24:36,928 was man mit den Gesichtern seiner Freunde anfangen könnte. 428 00:24:37,028 --> 00:24:39,934 Es ist einfach wahnsinnig einfach, 429 00:24:40,074 --> 00:24:41,721 möchte ich damit sagen. 430 00:24:41,821 --> 00:24:44,872 Wir müssen uns vor Augen halten, dass das, was da passiert, 431 00:24:44,972 --> 00:24:46,872 eine Strategie verfolgt, 432 00:24:46,917 --> 00:24:54,081 die wird von wenigen befeuert, aber kann große Effekte erzielen. 433 00:24:54,276 --> 00:24:56,369 Warum können sie das? 434 00:24:56,469 --> 00:25:00,665 Das, was da stattfindet, findet auf Online-Plattformen statt. 435 00:25:00,765 --> 00:25:05,223 Private Akteur*innen, die wirtschaftliche Interessen verfolgen 436 00:25:05,323 --> 00:25:07,642 mit dem Angebot ihrer Plattform 437 00:25:07,742 --> 00:25:10,263 und die zum Beispiel dafür Algorithmen einsetzen, 438 00:25:10,363 --> 00:25:12,088 die dann wieder dafür sorgen, 439 00:25:12,188 --> 00:25:14,410 dass, wenn ich einmal etwas angeklickt habe, 440 00:25:14,510 --> 00:25:16,410 was Falschinformationen enthält, 441 00:25:16,493 --> 00:25:18,993 dass mir immer mehr davon angezeigt wird 442 00:25:19,138 --> 00:25:23,062 und dass ich immer mehr in das "rabbit hole" hineingesaugt werde. 443 00:25:23,162 --> 00:25:26,453 Da sehe ich auch eine Mitverantwortung der Plattform, 444 00:25:26,553 --> 00:25:28,931 die unbedingt in den Blick genommen werden muss. 445 00:25:29,031 --> 00:25:32,357 Natürlich kann man Menschen persönlich ansprechen und denen sagen: 446 00:25:32,457 --> 00:25:35,121 "Das ist falsch, bitte fall darauf nicht rein." 447 00:25:35,221 --> 00:25:37,099 Wenn wir uns entschieden haben, 448 00:25:37,221 --> 00:25:40,246 unseren öffentlichen Diskurs und auch den Ort, 449 00:25:40,346 --> 00:25:42,770 wo wir unsere meisten Informationen herbekommen, 450 00:25:42,870 --> 00:25:44,957 Studien zeigen, dass gerade junge Menschen 451 00:25:45,057 --> 00:25:47,387 v.a. über Social Media Nachrichten konsumieren, 452 00:25:47,487 --> 00:25:50,567 wenn wir uns entschieden haben, dass wir diese Aufgabe 453 00:25:50,667 --> 00:25:54,715 in die Hände von privaten Akteur*innen wie Facebook, Twitter usw. 454 00:25:54,815 --> 00:25:58,468 oder eben auch schlimmeren Beispielen wie Telegram legen wollen, 455 00:25:58,568 --> 00:26:01,243 müssen wir uns auch überlegen, wie wir damit umgehen, 456 00:26:01,343 --> 00:26:03,573 wenn die wirtschaftlich incentiviert sind 457 00:26:03,707 --> 00:26:06,182 und solche Informationen befeuern 458 00:26:06,282 --> 00:26:09,639 und dafür sorgen, dass einem nichts anderes mehr angezeigt wird. 459 00:26:09,739 --> 00:26:11,583 Wie will man die Leute erreichen? 460 00:26:11,703 --> 00:26:13,802 Wenn man Plakate aufhängt, ja, okay, 461 00:26:13,902 --> 00:26:17,732 auch Leute, die viel auf Facebook unterwegs sind, müssen mal rausgehen. 462 00:26:17,832 --> 00:26:21,367 Aber sobald sie die digitalen Medien anschalten, sehen sie nur noch das 463 00:26:21,467 --> 00:26:22,798 sehen sie nur noch das 464 00:26:22,898 --> 00:26:26,141 und die Informationen der Bundesregierung erreichen sie nicht. 465 00:26:26,241 --> 00:26:28,498 Möchten Sie dazu auch noch etwas sagen? 466 00:26:28,598 --> 00:26:31,401 Sonst würde ich die Runde öffnen ins Publikum. 467 00:26:31,501 --> 00:26:34,310 Gibt es schon die ein oder andere Frage? 468 00:26:34,410 --> 00:26:39,909 Dann einfach gerne die Hand heben und wir kommen mit einem Mikrofon zu Ihnen. 469 00:26:40,009 --> 00:26:42,220 Sie können sich gern mit Namen vorstellen 470 00:26:42,320 --> 00:26:46,698 und dann Ihre Frage in die Runde oder an eine bestimmte Person richten. 471 00:26:49,130 --> 00:26:51,994 Es war eben schon von Deep Fakes die Rede. 472 00:26:53,744 --> 00:26:57,932 Jetzt an Herrn Büchner die Frage: 473 00:26:59,028 --> 00:27:01,845 Ist es sinnvoll oder gibt es da 474 00:27:01,945 --> 00:27:04,875 oder wird darüber schon diskutiert, 475 00:27:04,975 --> 00:27:09,655 generell die Glaubhaftigkeit von Videos und Bildmaterial, 476 00:27:09,755 --> 00:27:12,835 vor allem auch in der judikativen Ebene infrage zu stellen? 477 00:27:16,214 --> 00:27:19,263 Wir schauen uns grundsätzlich 478 00:27:19,363 --> 00:27:22,698 Material, das in sozialen Medien verbreitet wird, ja auch an. 479 00:27:22,798 --> 00:27:25,745 Aber man muss auch sagen, es gibt Grenzen dessen, 480 00:27:25,845 --> 00:27:28,438 was wir als Bundespresseamt tun können. 481 00:27:29,140 --> 00:27:30,917 Sie wissen alle, 482 00:27:31,017 --> 00:27:33,755 wenn Fakes verbreitet werden 483 00:27:33,855 --> 00:27:38,320 über Messenger, Telegram ist ja ein bisschen beides, 484 00:27:38,420 --> 00:27:41,987 sowohl eine Art Broadcasting-System als auch ein Messenger, 485 00:27:42,087 --> 00:27:44,309 aber wenn es innerhalb von Telegram passiert, 486 00:27:44,409 --> 00:27:48,284 innerhalb von WhatsApp, bekommen wir das ja nicht mit. 487 00:27:48,384 --> 00:27:53,777 Sowohl Medien als auch die Regierung können nur reagieren 488 00:27:53,877 --> 00:27:55,777 und Dinge wahrnehmen, 489 00:27:55,924 --> 00:27:59,245 die eine gewisse Wahrnehmungsschwelle überschritten haben. 490 00:28:00,551 --> 00:28:02,976 Das beobachten wir sehr genau. 491 00:28:03,096 --> 00:28:06,491 Und damit beschäftigen sich auch schon verschiedene Arbeitsgruppen. 492 00:28:06,591 --> 00:28:10,903 Da gibt es auch sehr wertvolle Arbeit, die geleistet wird 493 00:28:11,003 --> 00:28:13,840 nicht von der Regierung, sondern von Leuten, 494 00:28:13,940 --> 00:28:15,904 die sich um Fact-Checking kümmern. 495 00:28:16,004 --> 00:28:20,276 Da machen auch Nachrichtenagenturen einen sehr guten Job. 496 00:28:20,376 --> 00:28:22,963 AFP, du warst mal Chefredakteurin, 497 00:28:23,063 --> 00:28:24,889 hat ein eigenes Fact-Checking-Team, 498 00:28:24,989 --> 00:28:27,520 das z.B. Bilder und Videos überprüft. 499 00:28:27,620 --> 00:28:30,753 Es wird z.B. geprüft, kann das überhaupt stimmen, 500 00:28:30,853 --> 00:28:33,960 dass die Bilder von einem bestimmten Ort sind. 501 00:28:34,469 --> 00:28:38,735 Oder ob bestimmte Zeitangaben zutreffend sind. 502 00:28:38,835 --> 00:28:41,635 Aber eben auch so Recherche-Kooperationen 503 00:28:41,735 --> 00:28:45,982 und Recherche-Stiftungen wie CORRECTIV leisten hier wertvolle Arbeit 504 00:28:46,082 --> 00:28:48,843 im Aufdecken von solchen Fakes. 505 00:28:48,943 --> 00:28:52,265 Das ist nicht primär Aufgabe einer Regierung. 506 00:28:52,365 --> 00:28:55,095 Aber wir versuchen das natürlich auch wahrzunehmen 507 00:28:55,195 --> 00:28:58,534 und dort, wo wir es für gefährlich halten, auch zu reagieren. 508 00:28:58,634 --> 00:29:01,759 Darf ich dazu etwas hinzufügen? 509 00:29:01,859 --> 00:29:03,801 Ich find diese Frage total gut. 510 00:29:03,901 --> 00:29:06,436 Das ist jetzt keine Schmeichelei. 511 00:29:06,536 --> 00:29:09,818 Ein Teil der Frage ist noch nicht beantwortet. 512 00:29:09,918 --> 00:29:13,111 Nämlich: Gibt es einen Punkt, an den wir kommen, 513 00:29:13,211 --> 00:29:15,528 wo der Videobeweis nichts mehr gilt? 514 00:29:15,628 --> 00:29:18,452 Nehmen wir mal an, wir reden ja alle oft, 515 00:29:18,552 --> 00:29:22,473 z.B. im Zusammenhang mit Rassismus bei der Polizei 516 00:29:22,573 --> 00:29:26,855 davon, dass die alle solche Kameras tragen sollen. 517 00:29:26,955 --> 00:29:30,390 Damit man hinterher sehen kann, was wirklich passiert ist. 518 00:29:30,490 --> 00:29:33,669 Was ist, wenn wir uns nicht mehr darauf verlassen können, 519 00:29:33,769 --> 00:29:35,669 dass das, was da gezeigt wird, 520 00:29:35,768 --> 00:29:37,768 irgendwie der Realität entspricht. 521 00:29:37,868 --> 00:29:40,018 Auch das kann man irgendwann manipulieren. 522 00:29:40,118 --> 00:29:46,060 Kann das vor Gericht noch ein Beweis - 523 00:29:46,160 --> 00:29:49,234 Also, können Bilder eigentlich in Zukunft 524 00:29:49,258 --> 00:29:52,024 vor Gericht noch Beweiskraft haben? 525 00:29:52,124 --> 00:29:54,461 Das finde ich eine total spannende Frage. 526 00:29:54,561 --> 00:29:56,766 Ehrlich gesagt, hab ich keine Antwort darauf. 527 00:29:56,935 --> 00:29:59,935 Ich weiß nicht, ob es irgendwelche Gesetzesvorhaben 528 00:30:00,057 --> 00:30:02,057 oder irgendwelche Prozesse gibt, 529 00:30:02,101 --> 00:30:04,446 die darüber reflektieren. 530 00:30:04,556 --> 00:30:07,496 ob man solche Dinge als Beweismittel zulassen kann 531 00:30:07,769 --> 00:30:09,926 oder ob es ein Verfahren gibt, 532 00:30:10,038 --> 00:30:12,883 das vom Verfassungsgericht anhängig ist oder so was. 533 00:30:12,983 --> 00:30:16,174 Das werd ich sofort googlen, wenn ich hier fertig bin. 534 00:30:17,306 --> 00:30:19,116 Wow, was für ein Kompliment. 535 00:30:19,216 --> 00:30:21,116 Danke für deine Frage. 536 00:30:21,161 --> 00:30:23,967 Wir haben die nächste Frage direkt daneben. 537 00:30:24,067 --> 00:30:26,341 Ich sehe Sie auch schon wieder. 538 00:30:26,441 --> 00:30:28,341 Ich werd Sie nicht vergessen. 539 00:30:30,000 --> 00:30:33,861 Guten Tag. Mein Name ist Amad Abdulhey. Ich komme aus Syrien, aus Idlib. 540 00:30:36,871 --> 00:30:44,428 Es gab Desinformationen z.B. bezüglich des Giftgasangriffs in Syrien, 541 00:30:44,528 --> 00:30:46,779 wo die russischen Medien, 542 00:30:46,879 --> 00:30:51,348 es wurde in einem Artikel sehr gut beschrieben, abstreiten, 543 00:30:51,448 --> 00:30:53,348 behindern und verwirren. 544 00:30:53,452 --> 00:30:56,640 Das ist die Strategie, die Russland 545 00:30:56,664 --> 00:31:00,767 in Bezug auf den Giftgasangriff gefahren hat. 546 00:31:04,423 --> 00:31:07,431 Das Problem, das ich da einfach sehe, 547 00:31:07,531 --> 00:31:13,826 dass durch guten Journalismus es manchmal so ist, 548 00:31:14,226 --> 00:31:17,431 zum Beispiel "Russia Today" ist leichter zu machen, 549 00:31:17,531 --> 00:31:20,150 man muss immer noch schreiben "vermeintlich", 550 00:31:20,250 --> 00:31:26,006 z.B. solche Wörter wie der "vermeintliche Giftgasangriff", 551 00:31:26,106 --> 00:31:30,286 weil man im Qualitätsjournalismus so was beschreiben muss. 552 00:31:31,553 --> 00:31:34,684 Ich hätte jetzt irgendwie 553 00:31:34,784 --> 00:31:37,673 eine Antwort darauf bekommen, 554 00:31:37,773 --> 00:31:40,136 wie können wir sagen: 555 00:31:40,210 --> 00:31:42,132 "Doch, so ist es". 556 00:31:42,156 --> 00:31:46,873 Ohne dass wir sagen, das ist unsere Meinung. 557 00:31:48,173 --> 00:31:52,431 Wie gehen Journalist*innen damit um? 558 00:31:53,031 --> 00:31:55,009 Kann ich dazu was sagen? 559 00:31:55,645 --> 00:31:59,495 Ich glaube, der Journalismus muss an dieser Stelle wissenschaftlicher werden. 560 00:31:59,695 --> 00:32:01,754 Wir müssen das hinkriegen, 561 00:32:01,854 --> 00:32:05,284 so eine Art Fußnoten-Journalismus aufzubauen. 562 00:32:05,371 --> 00:32:08,611 Dass wir nicht nur eine Behauptung in den Raum stellen, 563 00:32:08,715 --> 00:32:12,135 sondern immer zu den Behauptungen auch die Belege liefern. 564 00:32:12,244 --> 00:32:15,639 Bisher wird das in der Regel im Text gemacht, 565 00:32:15,739 --> 00:32:18,694 indem wir im Text auf die Quellen verweisen. 566 00:32:18,794 --> 00:32:21,328 Also: Nach Auskunft von xyz. 567 00:32:21,428 --> 00:32:23,376 Ich glaub, das reicht nicht. 568 00:32:23,476 --> 00:32:25,769 Wir müssen immer tiefer gehen. 569 00:32:25,869 --> 00:32:29,879 Sagen, das ist in diesem Falle z.B. eine Untersuchung 570 00:32:29,979 --> 00:32:34,146 der UNO dazu. Das ist eine Untersuchung der Kriminalpolizei dazu. 571 00:32:34,246 --> 00:32:38,287 Im Idealfall: Das sind die Belege, die die Kriminalpolizei gefunden hat. 572 00:32:38,387 --> 00:32:41,590 Sodass die Beweistiefe so dicht wird, 573 00:32:41,690 --> 00:32:44,248 dass ich am Ende die Zusammenfassung des Berichts 574 00:32:44,348 --> 00:32:46,378 als glaubwürdige Quelle benutzen kann. 575 00:32:46,478 --> 00:32:49,980 Das Dumme ist, bei den Propaganda-Organen wie "Russia Today", 576 00:32:50,135 --> 00:32:51,953 die müssen sich keine Mühe machen. 577 00:32:52,053 --> 00:32:54,177 Die können einfach irgendwas erfinden. 578 00:32:54,277 --> 00:32:56,289 Sie erfinden dann Fußnoten. 579 00:32:56,389 --> 00:32:58,907 Deswegen ist das der schwere Part dabei. 580 00:32:59,007 --> 00:33:02,365 Ich persönlich glaub, das ist der einzige Weg, der machbar ist. 581 00:33:03,627 --> 00:33:05,407 Vielen Dank für deine Frage. 582 00:33:05,538 --> 00:33:07,839 Ich glaube, Sie wollen noch was dazu sagen. 583 00:33:07,939 --> 00:33:10,685 Ich würde gerne eine Sache ergänzen, daran anknüpfend, 584 00:33:10,785 --> 00:33:14,063 und an die Rolle der Online-Plattformen appellieren 585 00:33:14,181 --> 00:33:16,863 und an die Rolle, die alle Nutzenden einnehmen können 586 00:33:16,948 --> 00:33:19,163 bei der Verbreitung der Desinformationen. 587 00:33:19,263 --> 00:33:21,614 Gerade im Zusammenhang mit dem Ukraine-Krieg 588 00:33:21,714 --> 00:33:23,432 haben wir uns z.B. angesehen, 589 00:33:23,532 --> 00:33:25,350 wie sich bestimmte Narrative, 590 00:33:25,450 --> 00:33:27,497 die man als Propaganda bezeichnen kann, 591 00:33:27,597 --> 00:33:30,687 die nicht immer strafbar sind und reine Desinformation, 592 00:33:30,787 --> 00:33:33,790 sondern manchmal eine Verdrehung der Tatsachen 593 00:33:33,890 --> 00:33:38,690 oder eine Umkehr, wer ist schuld an dem, was da passiert. 594 00:33:38,790 --> 00:33:40,690 Und wie sollte man darauf reagieren? 595 00:33:40,830 --> 00:33:43,391 Wir haben uns angesehen, wie sich das verbreitet. 596 00:33:43,491 --> 00:33:45,868 Wir haben gesehen, dass auch hier wieder wenige, 597 00:33:45,968 --> 00:33:48,178 man muss von Accounts sprechen, 598 00:33:48,278 --> 00:33:50,980 es sind keine Menschen, sondern erst mal nur Accounts, 599 00:33:51,080 --> 00:33:53,641 wie viele Menschen dahinterstehen, weiß man nicht, 600 00:33:53,741 --> 00:33:55,641 es sind wenige hochaktive Accounts, 601 00:33:55,804 --> 00:33:59,044 die solche Narrative in den sozialen Medien verbreiten. 602 00:33:59,126 --> 00:34:01,757 Das machen sie, wenn die Accounts selber 603 00:34:01,857 --> 00:34:03,704 keine große Reichweite haben. 604 00:34:03,804 --> 00:34:06,489 D.h. sie würden nicht viele Menschen damit erreichen. 605 00:34:06,589 --> 00:34:09,090 Sie gehen gezielt in große Accounts rein. 606 00:34:09,190 --> 00:34:12,167 Z.B. in offizielle Accounts von Politiker*innen, 607 00:34:12,267 --> 00:34:14,167 608 00:34:14,270 --> 00:34:19,033 bei den großen Medien, ZDF, ARD, Welt, Bild usw. 609 00:34:19,133 --> 00:34:21,033 Sie gehen da in die Kommentarspalten 610 00:34:21,188 --> 00:34:23,696 und z.T. ohne Zusammenhänge und Erklärungen 611 00:34:23,720 --> 00:34:27,096 verbreiten sie dort ihre Hashtags und Narrative. 612 00:34:27,196 --> 00:34:29,550 Und das ist ein Appell an den Journalismus 613 00:34:29,650 --> 00:34:31,897 und an alle, die soziale Medien nutzen. 614 00:34:31,997 --> 00:34:35,203 Auf so was soll man nicht ungesehen aufspringen. 615 00:34:35,303 --> 00:34:38,006 "Ah, das ist der trending hashtag auf Twitter heute. 616 00:34:38,106 --> 00:34:41,417 Dazu will ich auch was twittern. Dann verbreit ich den weiter."U 617 00:34:41,517 --> 00:34:44,921 So kann man in das Fettnäpfchen treten, 618 00:34:45,021 --> 00:34:46,799 was einem hier vorbereitet wurde. 619 00:34:46,899 --> 00:34:48,818 Indem man nämlich selber dafür sorgt, 620 00:34:48,918 --> 00:34:51,078 dass der Hashtag weiterverbreitet wird. 621 00:34:51,178 --> 00:34:53,391 Die sozialen Medien unterscheiden sie nicht, 622 00:34:53,491 --> 00:34:57,038 passiert das in kritischer Art und Weise, in positiver oder negativer, 623 00:34:57,138 --> 00:34:59,568 hasserfüllter oder was auch immer. 624 00:35:00,894 --> 00:35:03,772 Es wird einfach weiterverbreitet und der Hashtag trendet. 625 00:35:03,872 --> 00:35:07,293 Dann schauen Journalist*innen, was beschäftigt das Land. 626 00:35:07,329 --> 00:35:11,763 Sie sehen, offensichtlich sind viele Bürger*innen der Meinung, 627 00:35:11,863 --> 00:35:15,663 dass das vielleicht nicht so gut ist, was die Regierung macht. 628 00:35:15,763 --> 00:35:17,742 Ich würde es nicht so verallgemeinern. 629 00:35:17,842 --> 00:35:19,742 Es gilt sicherlich für einige. 630 00:35:19,950 --> 00:35:21,965 Aber für den Journalismus zu sprechen, 631 00:35:22,065 --> 00:35:24,997 würd ich behaupten, wir schauen uns nicht bei Twitter 632 00:35:25,021 --> 00:35:26,764 die Quasi-Themen des Tages an. 633 00:35:26,864 --> 00:35:29,043 Ich möchte das gar nicht verallgemeinern. 634 00:35:29,143 --> 00:35:31,747 Das ist richtig. Danke, dass Sie darauf hinweisen. 635 00:35:31,847 --> 00:35:33,711 Es war etwas zu plakativ. 636 00:35:33,811 --> 00:35:36,714 Aber so funktioniert Meinungsbildung heute. 637 00:35:36,814 --> 00:35:40,020 Das ist nicht die Schuld von einzelnen Journalist*innen. 638 00:35:40,120 --> 00:35:42,535 Das ist, wie es heutzutage funktioniert 639 00:35:42,559 --> 00:35:44,662 und wo man nicht drum herumkommt. 640 00:35:44,798 --> 00:35:46,251 Herr Büchner? 641 00:35:46,351 --> 00:35:48,226 Oder erst mal Sie, Herr Schraven. 642 00:35:48,326 --> 00:35:50,107 Sie dürfen gerne. 643 00:35:51,517 --> 00:35:54,779 Was ich gerade denke, ist, wenn man anfängt als Journalist, 644 00:35:54,879 --> 00:35:57,330 gibt es ein paar Grundregeln, die man lernt. 645 00:35:57,430 --> 00:36:01,475 Und da heute durch die sozialen Medien jeder ein Stück zum Sender wird, 646 00:36:01,575 --> 00:36:08,284 ist es gut, wenn wir uns alle diese Regeln vergegenwärtigen. 647 00:36:08,384 --> 00:36:11,699 Als ich angefangen hab, für Nachrichtenagenturen zu arbeiten, 648 00:36:11,799 --> 00:36:15,261 hat man mir am Anfang drei Sätze beigebracht. 649 00:36:15,361 --> 00:36:18,998 Der erste war: If in doubt, leave it out. 650 00:36:19,098 --> 00:36:21,845 Wenn du Zweifel an einer Geschichte hast, lass es weg. 651 00:36:21,945 --> 00:36:23,799 Das ist eine gute Grundregel: 652 00:36:23,899 --> 00:36:26,632 Bevor man was weitererzählt, das haben Sie auch gesagt, 653 00:36:26,732 --> 00:36:28,539 bevor man was weitererzählt, 654 00:36:28,639 --> 00:36:31,566 wenn man Zweifel hat, sollte man es nicht weitererzählen. 655 00:36:31,666 --> 00:36:34,507 Und das sollte man auch in den sozialen Medien nicht tun. 656 00:36:34,607 --> 00:36:37,640 Viele Leute teilen Dinge, bevor sie sie gelesen haben. 657 00:36:37,740 --> 00:36:40,817 Da reicht der Satz eines Tweets, 658 00:36:40,917 --> 00:36:42,893 ohne dass man den Link angeschaut hat, 659 00:36:42,993 --> 00:36:45,279 dass Dinge geteilt werden. 660 00:36:45,379 --> 00:36:47,896 Ein anderer Satz ist, 661 00:36:47,996 --> 00:36:50,354 der mir immer besonders gut gefallen hat 662 00:36:50,454 --> 00:36:53,125 If a story is too good to be true, it probably is. 663 00:36:53,225 --> 00:36:56,639 Also wenn etwas zu gut klingt, um wahr zu sein, 664 00:36:56,739 --> 00:36:58,557 zu irre, 665 00:36:58,657 --> 00:37:00,896 dann ist es vielleicht auch irre. 666 00:37:01,002 --> 00:37:03,702 Das sind so ganz simple Regeln, 667 00:37:03,802 --> 00:37:06,665 die müssen nicht nur Journalist*innen beherzigen, 668 00:37:06,760 --> 00:37:10,312 sondern da wir heute alle ein bisschen Sender und Empfänger sind 669 00:37:10,425 --> 00:37:13,216 in diesen sozialen Medien, schadet es vielleicht nicht, 670 00:37:13,316 --> 00:37:16,160 wenn wir alle die Grundregeln beherzigen 671 00:37:16,260 --> 00:37:18,160 im Umgang mit sozialen Medien. 672 00:37:18,278 --> 00:37:22,022 Zumal es heute auch darum geht, wie wir Faktenchecker*innen werden. 673 00:37:22,122 --> 00:37:24,461 Sie wollten noch was sagen, Herr Schraven. 674 00:37:24,561 --> 00:37:26,857 Ich finde einen Aspekt noch sehr wichtig. 675 00:37:26,957 --> 00:37:31,260 Du hast davon gesprochen, dass es Accounts sind, nicht Menschen. 676 00:37:31,360 --> 00:37:33,889 Was ich noch ganz wichtig finde, 677 00:37:33,989 --> 00:37:36,962 wir sind nicht konfrontiert mit einzelnen Menschen 678 00:37:37,062 --> 00:37:42,898 oder bei Desinformationskampagnen mit einzelnen Gruppen, Organisationen, 679 00:37:42,998 --> 00:37:45,264 Wir sind mit Systemen konfrontiert. 680 00:37:45,364 --> 00:37:47,100 Das bedeutet z.B., 681 00:37:47,200 --> 00:37:49,481 eine Desinformation wird AB getestet. 682 00:37:49,853 --> 00:37:51,648 Da sind Maschinen hintergeschaltet, 683 00:37:51,748 --> 00:37:54,669 die probieren aus, welche Nuance der falschen Geschichte 684 00:37:54,769 --> 00:37:57,651 funktioniert besser, erreicht eine größere Verbreitung. 685 00:37:57,751 --> 00:37:59,333 Das wird automatisch gemacht. 686 00:37:59,433 --> 00:38:02,478 Dann wird an dem getesten 687 00:38:02,578 --> 00:38:06,699 Falschinformations-Algorithmus noch mal dran gebastelt, 688 00:38:06,799 --> 00:38:08,886 so wird das immer weiter perfektioniert. 689 00:38:08,986 --> 00:38:11,503 Und das von Leuten, die dafür hochbezahlt sind. 690 00:38:11,603 --> 00:38:13,680 Das sind Profis, die das machen. 691 00:38:13,780 --> 00:38:16,966 Wenn wir sagen, jeder muss sich dagegen positionieren, 692 00:38:17,091 --> 00:38:18,829 muss was lernen, sehr wichtig. 693 00:38:18,929 --> 00:38:20,471 Das ist der erste Teil. 694 00:38:20,571 --> 00:38:22,335 Der zweite Teil ist: 695 00:38:22,435 --> 00:38:25,234 Wir müssen Profis haben, die darauf reagieren können. 696 00:38:25,334 --> 00:38:27,881 Der dritte Teil: Wir müssen Techniken entwickeln, 697 00:38:27,981 --> 00:38:30,953 die den automatisierten Kampagnen begegnen können. 698 00:38:31,046 --> 00:38:35,592 Da ist nicht einer gefordert, da sind Plattformen gefragt, 699 00:38:35,692 --> 00:38:37,581 da sind wir als Gesellschaft gefragt, 700 00:38:37,681 --> 00:38:39,227 da sind Schulen gefragt. 701 00:38:39,327 --> 00:38:41,738 Das ist eine Riesensache, die uns begegnet. 702 00:38:41,840 --> 00:38:43,965 Auf allen Ebenen der Gesellschaft. 703 00:38:44,122 --> 00:38:46,685 Und das Doofe ist, wenn wir das verlieren, 704 00:38:46,728 --> 00:38:51,947 wenn wir diesen Angriff oder diese Konfrontation nicht aufnehmen, 705 00:38:52,047 --> 00:38:55,023 kann es sein, dass wir in fünf, sechs Jahren, 706 00:38:55,123 --> 00:38:57,468 so zersetzt sind, dass wir unsere Gesellschaft 707 00:38:57,568 --> 00:38:59,387 nicht mehr aufrecht erhalten können. 708 00:38:59,487 --> 00:39:02,757 Wenn wir überlegen, der Schraven erzählt irgendwas vom Pferd, 709 00:39:02,975 --> 00:39:05,983 wir haben in Italien Wahlen vor der Brust 710 00:39:06,083 --> 00:39:08,780 mit einem Rechtspopulisten, mit so einer Methode 711 00:39:08,880 --> 00:39:10,668 können die gewinnen. 712 00:39:10,768 --> 00:39:12,936 Was bedeutet das für die Europäische Union? 713 00:39:13,036 --> 00:39:14,465 Fliegt die dann auseinander? 714 00:39:14,565 --> 00:39:16,421 Was bedeutet das für uns? 715 00:39:16,521 --> 00:39:19,229 Oder im Winter, wenn die Energiekrise kommt 716 00:39:19,329 --> 00:39:23,211 und vielleicht zum ersten Mal wieder Hunger nach Europa, 717 00:39:23,311 --> 00:39:25,990 dann werden wir mit Kampagnen konfrontiert werden 718 00:39:26,090 --> 00:39:27,940 die uns im Kern angreifen. 719 00:39:28,040 --> 00:39:29,940 Darauf müssen wir vorbereitet sein, 720 00:39:30,070 --> 00:39:32,743 wir müssen die Gesellschaft jetzt darauf vorbereiten, 721 00:39:32,843 --> 00:39:36,123 sonst haben wir im Frühjahr ein großes Problem. 722 00:39:36,846 --> 00:39:38,251 * Beifall * 723 00:39:39,040 --> 00:39:43,003 Frau Schraven, äh, Herr Schraven, Entschuldigung, 724 00:39:43,103 --> 00:39:46,583 Frau Löwisch, teilen Sie die Meinung mit Herrn Schraven? 725 00:39:46,683 --> 00:39:51,473 Oder würden Sie sagen, ja, die Aspekte, die er genannt hat, durchaus, 726 00:39:51,573 --> 00:39:53,473 die muss man beachten, 727 00:39:53,641 --> 00:39:57,483 also hinsichtlich der Falschinformation, von wem die kommen, 728 00:39:57,583 --> 00:40:01,183 aber vielleicht ist in Deutschland 729 00:40:01,283 --> 00:40:05,946 der größte Teil der Bevölkerung noch nicht ganz so infiziert? 730 00:40:06,642 --> 00:40:08,370 Ich habe lange in den USA gelebt. 731 00:40:08,452 --> 00:40:10,976 Insofern hab ich den Vergleich. 732 00:40:11,864 --> 00:40:15,077 Ich sehe die Dramatik. 733 00:40:15,177 --> 00:40:22,079 Ich glaube nicht, dass Herr Schraven ein völliger Doomerist ist. 734 00:40:22,179 --> 00:40:27,052 Aber es macht auch keinen Sinn, zu viel Angst zu haben. 735 00:40:27,152 --> 00:40:29,186 Dann verkriecht man sich irgendwo. 736 00:40:29,286 --> 00:40:31,797 Ich find einen Aspekt echt interessant. 737 00:40:31,897 --> 00:40:35,193 Nicht jeder muss und will Journalist werden. 738 00:40:35,293 --> 00:40:39,019 Aber wir brauchen natürlich Leute, die an der Technik rumbasteln. 739 00:40:39,119 --> 00:40:41,262 Also die Bock haben, 740 00:40:41,362 --> 00:40:44,870 sich mit diesen Fragen auseinanderzusetzen. 741 00:40:44,970 --> 00:40:48,497 Es ist wie ein Wettrüsten. 742 00:40:48,597 --> 00:40:52,243 Ich glaube, da fehlt so ein bisschen. 743 00:40:52,343 --> 00:40:56,399 Ich glaub, wir haben noch nicht die Idee, 744 00:40:56,499 --> 00:40:59,300 wie wir Leute dazu bringen sollen, 745 00:40:59,400 --> 00:41:01,333 sich zu engagieren. 746 00:41:01,433 --> 00:41:06,408 Es ist irgendwie auch attraktiv, 747 00:41:06,508 --> 00:41:08,814 auf der anderen Seite zu arbeiten. 748 00:41:08,914 --> 00:41:13,183 Damit meine ich nicht nur die ganz fiesen Leute, 749 00:41:13,283 --> 00:41:15,125 die das alles vorantreiben. 750 00:41:15,225 --> 00:41:17,244 Sondern eben, was Josefine sagt, 751 00:41:17,412 --> 00:41:20,400 auch die großen Plattformen, die damit Geld verdienen. 752 00:41:20,500 --> 00:41:22,400 Die können natürlich jemandem, 753 00:41:22,556 --> 00:41:24,639 der jetzt 22 ist, 754 00:41:24,739 --> 00:41:27,170 Lust hat, sich in dem Bereich zu entwickeln, 755 00:41:27,270 --> 00:41:30,291 im Moment viel mehr Geld bezahlen. 756 00:41:31,334 --> 00:41:39,041 Man braucht ein bisschen einen fast anarchischen Aufstand von Leuten, 757 00:41:39,141 --> 00:41:43,097 die Lust haben, die Demokratie zu verteidigen. 758 00:41:43,197 --> 00:41:45,579 Der Appell ist hoffentlich angekommen. 759 00:41:45,679 --> 00:41:49,481 Wir haben eine weitere Frage aus dem Publikum. 760 00:41:50,599 --> 00:41:52,484 Mein Name ist Peter Volk. 761 00:41:52,795 --> 00:41:58,201 Ich gehe vielleicht kurz in die Geschichte rein. 762 00:41:58,595 --> 00:42:02,183 Es sind zwei sehr berühmte Geschichten. 763 00:42:02,283 --> 00:42:04,714 Der Fall Katyn, 764 00:42:04,814 --> 00:42:07,065 dort, wo Hitler einmal nicht gelogen hat. 765 00:42:07,165 --> 00:42:10,215 Er hat immer gelogen, aber da hat er die Wahrheit gesagt, 766 00:42:10,315 --> 00:42:12,077 dass Stalin sie umgebracht hat. 767 00:42:12,177 --> 00:42:15,606 Und die Sache mit: War es eine Verschwörung beim Kennedy-Mord? 768 00:42:15,706 --> 00:42:17,829 War es oder war es nicht? 769 00:42:17,929 --> 00:42:19,906 Ich weiß nicht, wie Sie dazu stehen. 770 00:42:20,006 --> 00:42:23,413 Aber jetzt sind zwei Fakten in der Vergangenheit, 771 00:42:23,513 --> 00:42:25,507 wo ich nicht weiß, 772 00:42:25,607 --> 00:42:28,399 sehen Sie das als Desinformation oder Fake News? 773 00:42:28,499 --> 00:42:35,357 Das Erste ist: Wer hat das Zivilflugzeug MH17 abgeschossen? 774 00:42:35,457 --> 00:42:37,357 Es gibt nur zwei Möglichkeiten. 775 00:42:37,507 --> 00:42:42,474 Die Gute, ist, weil ich finde, Russland lügt viel mehr, 776 00:42:42,574 --> 00:42:46,465 dass es Separatisten oder die Russen abgeschossen haben. 777 00:42:46,565 --> 00:42:49,202 Aber die Sache ist nicht bis zuletzt geklärt. 778 00:42:49,302 --> 00:42:53,626 Die zweite und die dritte Sache noch, dann hör ich auf. 779 00:42:53,726 --> 00:42:55,651 Ist geklärt. 780 00:42:55,751 --> 00:42:58,094 Da gab es ein Urteil. 781 00:42:58,194 --> 00:43:02,349 Ja, gut, ein Urteil. 782 00:43:02,449 --> 00:43:04,806 Dann müssen wir die Konsequenzen ziehen. 783 00:43:04,906 --> 00:43:08,349 Die zweite Sache ist ohne juristisches Urteil, da bin ich sicher, 784 00:43:08,449 --> 00:43:11,671 gab es noch eine zweite und dritte Begegnung 785 00:43:11,802 --> 00:43:15,402 zwischen dem Bundeskanzler, damals Bürgermeister von Hamburg, 786 00:43:15,578 --> 00:43:17,198 und Herrn Olearius? 787 00:43:17,372 --> 00:43:19,280 Gab es die oder nicht? 788 00:43:19,380 --> 00:43:22,023 Ich weiß nur, dass Journalisten sagen, es gab sie. 789 00:43:22,123 --> 00:43:24,185 Das ist zu wenig für mich. 790 00:43:24,285 --> 00:43:26,378 Danke sehr herzlich. 791 00:43:26,531 --> 00:43:27,948 Vielen Dank. 792 00:43:28,598 --> 00:43:30,517 Olarius war ich nicht dabei. 793 00:43:30,617 --> 00:43:32,801 Das weiß ich nicht, keine Ahnung. 794 00:43:35,225 --> 00:43:37,988 Ich finde, was wir an der Frage gut sehen, 795 00:43:38,064 --> 00:43:40,346 ist das, was David Schraven gesagt hat. 796 00:43:40,446 --> 00:43:44,185 Wie haltbar solche Narrative sind, 797 00:43:44,285 --> 00:43:48,464 auch wenn die Dinge juristisch untersucht wurden, 798 00:43:48,564 --> 00:43:52,093 aufgeklärt wurden, unglaublich viele Fakten überprüft wurden. 799 00:43:52,193 --> 00:43:54,719 Es hält sich immer noch der Satz: 800 00:43:54,819 --> 00:43:56,626 Es ist nicht wirklich aufgeklärt. 801 00:43:56,726 --> 00:43:59,189 Oder man weiß es nicht wirklich. 802 00:44:00,943 --> 00:44:03,193 Natürlich gibt es Dinge, die man nicht weiß. 803 00:44:03,293 --> 00:44:05,193 Aber es gibt Dinge, die man weiß. 804 00:44:05,224 --> 00:44:08,483 An dieser Stelle gibt es keinen Zweifel, 805 00:44:08,583 --> 00:44:10,483 wer diese Maschine abgeschossen hat. 806 00:44:13,114 --> 00:44:16,202 Und ich glaube, dass neben dem, 807 00:44:16,302 --> 00:44:22,902 was du gerade gesagt hast darüber, dass wir eine Gegenwehr brauchen, 808 00:44:23,002 --> 00:44:26,644 die Lust hat, sich mit den technischen Systemen auseinanderzusetzen, 809 00:44:26,744 --> 00:44:31,522 zu schauen, wie man eine Gegenposition entwickelt, 810 00:44:31,622 --> 00:44:34,414 nicht nur inhaltlich, sondern auch technisch, 811 00:44:34,514 --> 00:44:38,413 glaub ich, gibt es aber doch so was 812 00:44:38,513 --> 00:44:41,024 wie eine staatsbürgerliche Verantwortung, 813 00:44:41,181 --> 00:44:45,785 dass man sich an vernünftigen Quellen orientiert. 814 00:44:45,885 --> 00:44:48,313 Das muss man an der Stelle auch mal sagen. 815 00:44:48,474 --> 00:44:52,094 Mit Nachrichten ist es ein Stück weit wie mit Ernährung. 816 00:44:52,194 --> 00:44:56,161 Wenn man sich ständig schlecht und billig ernährt, 817 00:44:56,261 --> 00:44:57,842 geht es einem nicht gut. 818 00:44:57,942 --> 00:44:59,699 So ist es auch mit Nachrichten. 819 00:44:59,799 --> 00:45:02,297 Wenn man die sich ständig aus trüben Quellen holt, 820 00:45:02,397 --> 00:45:04,875 entsteht ein Bild 821 00:45:04,975 --> 00:45:09,103 und ein eigenes Weltbild, das nicht mehr gesund ist. 822 00:45:09,203 --> 00:45:11,832 Und ich kann nur daran appellieren: 823 00:45:11,932 --> 00:45:15,505 Suchen Sie sich gute und vertrauenswürdige Quellen. 824 00:45:15,605 --> 00:45:18,092 Die gibt es in Deutschland reichlich. 825 00:45:18,192 --> 00:45:25,483 Es gibt eine Verantwortung der Verbraucher im Nachrichtenmarkt. 826 00:45:25,583 --> 00:45:32,123 Man kann auch verschiedene Nachrichtensender hören. 827 00:45:32,223 --> 00:45:34,613 Hier vorne die nächste Frage. 828 00:45:35,290 --> 00:45:36,921 Genau. 829 00:45:37,582 --> 00:45:40,137 Die lässt sich sehr schnell klären. 830 00:45:40,237 --> 00:45:42,879 Was ist Ihre dritte Regel gewesen? 831 00:45:42,979 --> 00:45:44,824 Sie haben nur zwei genannt. 832 00:45:44,924 --> 00:45:46,623 Die dritte ist sogar die erste. 833 00:45:46,723 --> 00:45:48,828 Ich wollte es nur nicht so lange machen. 834 00:45:48,928 --> 00:45:50,828 Get it first, but first get it right. 835 00:45:50,989 --> 00:45:54,322 Wenn man etwas verbreitet, will man als Journalist schnell sein. 836 00:45:54,422 --> 00:45:56,092 Schneller als andere. 837 00:45:56,192 --> 00:45:58,591 Es geht darum, dass man es nicht verbreitet, 838 00:45:58,691 --> 00:46:01,371 bevor man sich sicher ist, dass es stimmt. 839 00:46:01,471 --> 00:46:04,635 Das gehört unbedingt zu den drei Regeln dazu. 840 00:46:04,735 --> 00:46:07,058 Sehr gut aufgepasst, vielen Dank. 841 00:46:07,144 --> 00:46:10,279 Hier vorne haben wir die nächste Frage. 842 00:46:10,379 --> 00:46:12,577 Ganz vorne, genau. 843 00:46:16,128 --> 00:46:18,437 Ich hatte eine Frage. 844 00:46:18,537 --> 00:46:20,998 Wir sind jetzt in den USA, 845 00:46:21,098 --> 00:46:24,667 das doch ein sehr demokratisches Land ist. 846 00:46:24,767 --> 00:46:28,124 Da ist es so, dass die eine Nachrichtenquelle 847 00:46:28,148 --> 00:46:30,510 der anderen nicht mehr glaubt. 848 00:46:31,133 --> 00:46:36,062 Wie vermeiden wir, dass wir in Europa in einen ähnlichen Bereich kommen? 849 00:46:37,356 --> 00:46:39,179 Darf ich kurz? 850 00:46:39,279 --> 00:46:43,139 Ich glaub, das ist eine interessante Entwicklung in den USA gewesen. 851 00:46:43,239 --> 00:46:46,508 Wir hatten lange Zeit einen Nachrichtenmarkt, 852 00:46:46,608 --> 00:46:48,651 der darauf abgezielt hat, 853 00:46:48,751 --> 00:46:51,469 eine Faktenbasis in einer Diskussion zu liefern. 854 00:46:51,569 --> 00:46:54,104 Das war das Geschäftsmodell, das in den USA 855 00:46:54,204 --> 00:46:56,430 wie in allen westlichen Demokratien 856 00:46:56,530 --> 00:46:58,596 relativ gut und lange funktioniert hat. 857 00:46:58,705 --> 00:47:00,630 Eines Tages, ich weiß nicht, wann, 858 00:47:00,730 --> 00:47:02,527 kam die Idee auf, 859 00:47:02,627 --> 00:47:06,376 was ist, wenn wir aus der Polarisierung ein Geschäftsmodell machen? 860 00:47:06,476 --> 00:47:10,012 Wenn es nicht mehr darum geht, Nachrichten zu verbreiten, 861 00:47:11,245 --> 00:47:12,999 die möglicherweise schneller sind, 862 00:47:13,099 --> 00:47:15,239 möglicherweise besser recherchiert sind, 863 00:47:15,339 --> 00:47:17,742 möglicherweise ein anderes Spektrum abbilden, 864 00:47:17,842 --> 00:47:20,309 aber wo man Nachrichten liefert für eine Debatte. 865 00:47:20,409 --> 00:47:22,535 Sondern wenn das umgekehrt wird, 866 00:47:22,635 --> 00:47:25,200 ich kann Geld verdienen mit Zorn. 867 00:47:25,300 --> 00:47:27,663 Ich kann Geld verdienen mit Emotionen. 868 00:47:27,763 --> 00:47:31,111 Ich kann Geld verdienen, nicht mit Wahrheiten. 869 00:47:31,211 --> 00:47:33,575 Wenn ich das Geschäftsmodell hab, 870 00:47:33,675 --> 00:47:37,789 wird alles andere unwirklich und spielt keine Rolle mehr. 871 00:47:37,889 --> 00:47:40,562 Und das erleben wir gerade 872 00:47:40,662 --> 00:47:43,790 in der Wandlung unserer Mediensysteme. 873 00:47:43,890 --> 00:47:45,893 Wenn wir jetzt gucken, 874 00:47:45,993 --> 00:47:51,439 viele junge Leute informieren sich über TikTok, YouTube. 875 00:47:51,539 --> 00:47:57,235 YouTube wird getriggert durch Emotionen. 876 00:47:57,335 --> 00:48:01,545 Die Emotionen halten die Menschen am Bildschirm, an TikTok. 877 00:48:01,645 --> 00:48:03,545 Die Emotionen führen dazu, 878 00:48:03,637 --> 00:48:06,432 dass ich weiterscrolle und mir das nächste angucke. 879 00:48:06,532 --> 00:48:09,769 Die Nachrichten, die heute konsumiert werden 880 00:48:09,926 --> 00:48:11,790 von großen Teilen der Bevölkerung, 881 00:48:11,890 --> 00:48:13,846 kommen nicht mehr daher, 882 00:48:13,946 --> 00:48:16,533 weil ein Informationsbedürfnis gestillt wird, 883 00:48:16,633 --> 00:48:20,717 sondern weil jemand mit der Emotionalisierung einer Nachricht 884 00:48:20,817 --> 00:48:22,701 unheimlich viel Geld verdienen will. 885 00:48:22,801 --> 00:48:26,102 Das führt dazu, dass ich Hass habe, der wird nach vorn gepusht, 886 00:48:26,202 --> 00:48:29,195 das führt auch dazu, dass unsere Diskussion 887 00:48:29,295 --> 00:48:30,627 polarisiert wird. 888 00:48:30,727 --> 00:48:32,627 Wenn ich dann an den Endpunkt komme, 889 00:48:32,703 --> 00:48:36,193 hab ich mit einem mal schwarz-weiß, dann hab ich zwei Seiten. 890 00:48:36,293 --> 00:48:40,368 Durch die Polarisierung, dass ich sag, "ich bin anders, ich bin fremd, 891 00:48:40,468 --> 00:48:42,709 der ist der, der gefährlich ist," 892 00:48:42,809 --> 00:48:46,091 hab ich in der Polarisierung das Geschäft gefunden 893 00:48:46,191 --> 00:48:49,974 und dann gnade uns Gott, ich weiß es nicht. 894 00:48:52,188 --> 00:48:54,867 Ja, vielen Dank für Ihre Frage. 895 00:48:54,967 --> 00:48:56,867 Möchten Sie noch was ergänzen? 896 00:48:57,045 --> 00:48:59,790 Ich würde eine Sache noch ergänzen. 897 00:48:59,890 --> 00:49:02,536 Wir haben es gehört, wir müssen uns Sorgen machen 898 00:49:02,636 --> 00:49:04,778 um den Zusammenhalt in der Gesellschaft. 899 00:49:04,878 --> 00:49:08,960 Journalist*innen haben Angst, weil sie nicht wissen, wie sie damit umgehen, 900 00:49:09,060 --> 00:49:13,607 wenn sie selbst attackiert werden, wenn solche Desinformation verbreitet wird. 901 00:49:13,707 --> 00:49:16,820 Dem würde ich gern eine Dimension hinzufügen. 902 00:49:16,920 --> 00:49:19,845 Digitale Gewalt, Polarisierung der Gesellschaft, 903 00:49:19,945 --> 00:49:21,845 Hass im Netz, das sind Schlagworte, 904 00:49:21,975 --> 00:49:24,740 über die schon viel gesprochen wurde. 905 00:49:24,840 --> 00:49:27,150 Was wir uns vor Augen halten müssen, 906 00:49:27,253 --> 00:49:30,672 das hängt mit dem Zusammenhalt in der Gesellschaft zusammen, 907 00:49:30,849 --> 00:49:32,613 dass solche Desinformationen 908 00:49:32,733 --> 00:49:36,261 nicht nur aufstacheln, starkes Empfinden dafür zu haben, 909 00:49:36,361 --> 00:49:38,261 was ich richtig und falsch finde, 910 00:49:38,380 --> 00:49:43,937 was mir das Recht gibt, die sog. Andersdenkenden anzugreifen 911 00:49:44,037 --> 00:49:45,824 und zu attackieren. 912 00:49:45,924 --> 00:49:47,640 Das führt am Ende dazu, 913 00:49:47,740 --> 00:49:49,938 dass diejenigen, die angegriffen werden 914 00:49:50,038 --> 00:49:51,917 und die, die das nur beobachten, 915 00:49:52,017 --> 00:49:53,917 sich aus dem Netz zurückziehen. 916 00:49:54,028 --> 00:49:55,928 Dass sie sich nicht mehr trauen, 917 00:49:56,027 --> 00:49:59,567 sich zu politischen und gesellschaftlichen Themen zu äußern. 918 00:49:59,658 --> 00:50:02,195 Dass sie nicht mehr am öffentlichen Diskurs 919 00:50:02,295 --> 00:50:04,231 in den sozialen Netzwerken teilnehmen. 920 00:50:04,331 --> 00:50:05,602 Gerade in einer Pandemie, 921 00:50:05,702 --> 00:50:08,476 wo das soziale Leben viel mehr im Internet stattfindet 922 00:50:08,576 --> 00:50:10,459 als vorher sowieso schon, 923 00:50:10,559 --> 00:50:12,405 ist das eine dramatische Situation, 924 00:50:12,505 --> 00:50:15,020 die sich am Ende auf die Meinungsfreiheit auswirkt. 925 00:50:15,120 --> 00:50:17,343 Meinungsfreiheit bedeutet nicht, 926 00:50:17,450 --> 00:50:21,127 dass ich alles im Internet raushauen kann, wonach mir gerade ist. 927 00:50:21,227 --> 00:50:24,150 Meinungsfreiheit bedeutet auch 928 00:50:24,250 --> 00:50:26,555 dass wir im Internet einen Raum schaffen, 929 00:50:26,655 --> 00:50:28,870 in dem Menschen sich sicher genug fühlen, 930 00:50:28,970 --> 00:50:30,752 um sich äußern zu können. 931 00:50:30,852 --> 00:50:33,672 Dass sie nicht Angst vor Morddrohungen haben müssen, 932 00:50:33,772 --> 00:50:37,181 wenn sie einer vermeintlichen Wahrheit widersprechen wollen. 933 00:50:37,357 --> 00:50:39,457 Es ist mir wichtig, das zu betonen, 934 00:50:39,557 --> 00:50:42,457 dass die Meinungsfreiheit, der gesamte politische Diskurs 935 00:50:42,557 --> 00:50:44,305 auf dem Spiel steht. 936 00:50:44,405 --> 00:50:46,871 Wer zieht sich zurück? Wer wird angegriffen? 937 00:50:46,971 --> 00:50:51,012 Das sind marginalisierte Gruppen, Journalisten, politisch aktive Menschen, 938 00:50:51,112 --> 00:50:53,444 die Menschen, die wir dringend brauchen, 939 00:50:53,544 --> 00:50:55,327 um den Diskurs am Leben zu halten, 940 00:50:55,427 --> 00:50:57,237 um ihn divers zu halten, 941 00:50:57,337 --> 00:50:59,520 darüber müssen wir nachdenken. 942 00:50:59,620 --> 00:51:01,681 Das ist ein wichtiger Bestandteil, 943 00:51:01,781 --> 00:51:03,681 um Desinformation zu bekämpfen. 944 00:51:03,771 --> 00:51:06,313 Wenn die Gesellschaft immer mehr polarisiert wird 945 00:51:06,413 --> 00:51:10,068 und sich die Menschen zurückziehen, wird keiner mehr widersprechen. 946 00:51:10,168 --> 00:51:12,068 * Beifall * 947 00:51:15,175 --> 00:51:18,094 Was ich noch als Gegengift empfehle: 948 00:51:18,194 --> 00:51:21,518 Das ist auch der Gedanke, 949 00:51:21,618 --> 00:51:24,081 dass wir einander verstehen können müssen, 950 00:51:24,181 --> 00:51:26,434 dass wir uns im Meinungsstreit 951 00:51:26,534 --> 00:51:28,434 nachher wieder vertragen müssen, 952 00:51:28,550 --> 00:51:31,001 dass wir nach Maß und Mitte streben. 953 00:51:31,251 --> 00:51:33,751 Dass wir als Gesellschaft danach streben, 954 00:51:33,830 --> 00:51:36,894 gemeinsam glücklich zu werden. 955 00:51:36,994 --> 00:51:39,946 Sie sprechen über die gesunde Streitkultur. 956 00:51:41,318 --> 00:51:43,332 Ja, nee, das Grundverständnis. 957 00:51:43,432 --> 00:51:45,817 Ich will das vielleicht etwas plastischer sagen. 958 00:51:45,917 --> 00:51:48,218 Ich bekomme eine Menge Hass-Zuschriften. 959 00:51:48,318 --> 00:51:50,921 Wenn die Leute nix zu tun haben, schreiben sie mir, 960 00:51:51,021 --> 00:51:53,225 dass ich ein Arsch bin. 961 00:51:53,341 --> 00:51:55,958 Manchmal denke ich mir, warum schreibt er das? 962 00:51:56,058 --> 00:51:58,161 Warum nimmt sich ein Mensch Mühe und Zeit, 963 00:51:58,261 --> 00:52:00,384 findet meine E-Mail-Adresse und denkt sich, 964 00:52:00,484 --> 00:52:02,661 ich muss dem mal schreiben. 965 00:52:02,761 --> 00:52:06,534 Manchmal denke ich auch, das ist ein Versuch zu kommunizieren. 966 00:52:06,634 --> 00:52:08,495 Dann erzähl ich dem anderen erst mal, 967 00:52:08,595 --> 00:52:11,229 dass das Wetter schön ist, dass ich Angeln war, 968 00:52:11,329 --> 00:52:14,017 dass ich mit meinen Söhnen ein schönes Erlebnis hatte. 969 00:52:14,117 --> 00:52:17,293 Ich fange einfach an, über den Menschen zu reden. 970 00:52:17,466 --> 00:52:20,463 Mensch zu sein und den anderen als Menschen anzunehmen. 971 00:52:20,563 --> 00:52:22,441 Und dann, wenn man diese Ebene hat, 972 00:52:22,541 --> 00:52:24,822 geht es nicht mehr um Bekämpfung voneinander, 973 00:52:24,960 --> 00:52:26,582 es geht darum, zu sagen, 974 00:52:26,682 --> 00:52:29,035 "was du da gemacht hast, fand ich nicht gut." 975 00:52:29,135 --> 00:52:32,032 Dann kann ich überlegen: Stimmt, war vielleicht doof. 976 00:52:32,132 --> 00:52:34,756 Ich entschuldige mich dafür. Man kann weitermachen. 977 00:52:34,856 --> 00:52:36,756 Das ist, glaube ich, ganz wichtig. 978 00:52:36,946 --> 00:52:38,452 * Beifall * 979 00:52:38,552 --> 00:52:41,685 Wir haben noch zwei weitere Fragen, die gehen in die Richtung. 980 00:52:41,785 --> 00:52:44,265 Ich würde gerne noch nachhaken und wissen wollen, 981 00:52:44,365 --> 00:52:46,917 haben wir vielleicht noch nicht gelernt, 982 00:52:47,017 --> 00:52:49,714 genug den Unterschied zu machen 983 00:52:49,814 --> 00:52:51,923 zwischen dem analogen Leben, 984 00:52:52,023 --> 00:52:55,340 dem Leben in Präsenz, was wir wieder alle haben und erleben, 985 00:52:55,440 --> 00:52:57,340 das ist etwas ganz anderes, 986 00:52:57,456 --> 00:52:59,607 wenn man Menschen wieder lesen kann, 987 00:52:59,707 --> 00:53:05,630 die Stimme hört, als wenn wir uns anonym im Netz begegnen. 988 00:53:07,030 --> 00:53:09,904 Ja, und ich mein, da hat sich - 989 00:53:10,004 --> 00:53:12,365 Ganz viel hat immer mit Geld zu tun. 990 00:53:13,529 --> 00:53:16,623 Eine Möglichkeit, Dinge zu verifizieren, 991 00:53:16,723 --> 00:53:20,765 ist, sie mit eigenen Augen zu sehen. 992 00:53:21,540 --> 00:53:23,950 Aber das ist eine ziemlich teure Angelegenheit, 993 00:53:24,050 --> 00:53:27,218 Journalist*innen immer überall hinzuschicken, 994 00:53:27,318 --> 00:53:29,981 Zeit, Reisen usw. 995 00:53:30,081 --> 00:53:31,981 Und das führt dann dazu, 996 00:53:32,104 --> 00:53:33,836 dass dieser Augenschein, 997 00:53:33,936 --> 00:53:38,118 also dieses Bezeugen nicht mehr häufig genug passiert. 998 00:53:38,218 --> 00:53:44,237 Das ist wichtig, dass wir das im Hinterkopf behalten. 999 00:53:45,422 --> 00:53:50,048 Ich wollte noch kurz was zu der Frage zu den USA sagen. 1000 00:53:50,148 --> 00:53:52,492 Wird das bei uns bald alles auch so? 1001 00:53:52,592 --> 00:53:58,728 Wir sind immer ca. fünf bis acht Jahre hinter den USA bei diesen Entwicklungen. 1002 00:53:58,828 --> 00:54:01,785 Das ist ein total Vorteil. 1003 00:54:01,885 --> 00:54:04,451 Wir haben die Chance, zu sehen, was da passiert 1004 00:54:04,551 --> 00:54:06,693 und was da falsch gemacht wird. 1005 00:54:06,793 --> 00:54:09,803 Wir können schauen, ob wir es doch vermeiden können. 1006 00:54:09,903 --> 00:54:12,847 Insofern: schlimm genug, aber auch ein Vorteil. 1007 00:54:13,464 --> 00:54:14,973 Vielen Dank. 1008 00:54:15,073 --> 00:54:18,226 Und jetzt die Hand, die hatte ich die ganze Zeit im Hinterkopf. 1009 00:54:18,326 --> 00:54:20,433 Die Dame hier vorne. 1010 00:54:20,901 --> 00:54:26,437 Der Herr Schraven hat einiges schon vorweggenommen, 1011 00:54:26,537 --> 00:54:29,599 mir geht es um den Aspekt Beziehungen 1012 00:54:29,699 --> 00:54:32,669 in unserer Gesellschaft, wie wichtig das ist. 1013 00:54:32,769 --> 00:54:35,387 Dadurch kann man manchmal noch 1014 00:54:35,487 --> 00:54:39,679 Leuten, die sich in Fake-Sachen verrannt haben, 1015 00:54:39,779 --> 00:54:44,113 auffangen, so lange man noch an jemandem dran ist. 1016 00:54:44,213 --> 00:54:46,677 Da ist immer noch Möglichkeit da. 1017 00:54:46,777 --> 00:54:49,987 Ich würde es gut finden 1018 00:54:50,087 --> 00:54:51,987 und da auch die Nachfrage, 1019 00:54:52,142 --> 00:54:54,642 aber da sind die Bundesländer zuständig, 1020 00:54:54,731 --> 00:54:59,196 dass man im Kindergarten- und Grundschulalter anfängt, 1021 00:54:59,338 --> 00:55:02,726 Kinder zu sensibilisieren, 1022 00:55:02,826 --> 00:55:08,630 "hör zu, was ihr hört, erzählt nicht alles sofort ungefiltert weiter." 1023 00:55:08,730 --> 00:55:13,926 Je höher dann die Schulklassen gehen, 1024 00:55:14,026 --> 00:55:17,675 das muss meines Erachtens ein Unterrichtsfach sein. 1025 00:55:17,775 --> 00:55:22,612 Dass das Fach Politik, Medien usw. 1026 00:55:22,681 --> 00:55:24,779 noch mehr Raum nimmt. 1027 00:55:24,879 --> 00:55:27,538 Und dass die Verknüpfung da ist 1028 00:55:27,638 --> 00:55:31,667 zwischen dem, was ich als Teenie und Jugendlicher 1029 00:55:31,767 --> 00:55:34,709 in meinem Alltag erlebe, 1030 00:55:34,809 --> 00:55:38,263 Youtube und TikTok und wie das alles heißt, 1031 00:55:38,363 --> 00:55:41,623 dass sich das in der Schule widerspiegelt. 1032 00:55:41,723 --> 00:55:46,081 Wenn es gut läuft, hat man noch eine Ebene zu Lehrkräften, 1033 00:55:46,181 --> 00:55:50,263 man tauscht sich in der Schule aus mit Kameraden. 1034 00:55:50,448 --> 00:55:52,703 Das würde ich mir wünschen. 1035 00:55:52,803 --> 00:55:56,142 Das muss schon frühzeitig anfangen. 1036 00:55:56,242 --> 00:55:59,079 Da gibt es eine gute Nachricht: Das passiert. 1037 00:55:59,179 --> 00:56:01,079 Die Kultusminister-Konferenz 1038 00:56:01,245 --> 00:56:03,648 hat vor, ich weiß nicht, wie vielen Jahren, 1039 00:56:03,748 --> 00:56:05,626 ich glaub, so zwei, drei Jahren, 1040 00:56:05,726 --> 00:56:08,604 genau, was Sie gerade gefordert haben, beschlossen. 1041 00:56:08,704 --> 00:56:12,382 Die haben das als Querschnittsaufgabe für alle Unterrichtsformen erkannt. 1042 00:56:12,482 --> 00:56:14,588 Sie haben das an die Bundesländer gegeben. 1043 00:56:14,688 --> 00:56:16,444 Die haben dann lange beraten, 1044 00:56:16,544 --> 00:56:19,672 jedes Bundesland für sich hat einen Plan gemacht, 1045 00:56:19,772 --> 00:56:22,696 wie das in den einzelnen Schulen umgesetzt werden soll. 1046 00:56:22,785 --> 00:56:25,204 Das wird gerade alles eingesetzt und aufgebaut. 1047 00:56:25,304 --> 00:56:31,089 Ich bin da auf lange Sicht ganz positiv gestimmt. 1048 00:56:31,189 --> 00:56:35,701 Ich glaub, auf lange Sicht über die nächsten sechs bis zehn Jahre 1049 00:56:35,801 --> 00:56:37,409 wird da einiges passieren. 1050 00:56:37,509 --> 00:56:39,715 Auf lange Sicht wird es besser. 1051 00:56:39,815 --> 00:56:42,434 Was mir eher Sorgen macht, ist die kurze Sicht, 1052 00:56:42,534 --> 00:56:46,628 wo es darum geht, jetzt aktuell 1053 00:56:46,728 --> 00:56:49,879 grassierende Desinformation anzugehen, 1054 00:56:49,979 --> 00:56:52,949 wo man strategische Desinformation angehen muss, 1055 00:56:53,049 --> 00:56:55,262 da hab ich akut mehr Sorgen. 1056 00:56:55,362 --> 00:56:58,516 Langfristig, find ich, sind wir gut aufgestellt. 1057 00:56:58,606 --> 00:57:00,380 Da hab ich ganz schön doof geguckt. 1058 00:57:00,589 --> 00:57:03,685 Ich finde, Sie haben etwas sehr Schönes, Wichtiges gesagt. 1059 00:57:03,785 --> 00:57:05,685 Lassen Sie uns Beziehungen nutzen, 1060 00:57:05,797 --> 00:57:11,194 auch wenn ich als stellvertretender Regierungssprecher 1061 00:57:11,294 --> 00:57:13,459 für eine staatliche Organisation spreche, 1062 00:57:13,559 --> 00:57:15,838 Das ist nicht immer eine staatliche Aufgabe, 1063 00:57:15,938 --> 00:57:18,448 gerade Beziehungen im gesellschaftlichen Raum, 1064 00:57:18,548 --> 00:57:20,448 wo sind die am intensivsten? 1065 00:57:20,633 --> 00:57:22,436 In Familien und mit Freunden. 1066 00:57:22,536 --> 00:57:24,550 Auch da sollten wir das intensiv nutzen, 1067 00:57:24,650 --> 00:57:26,250 dass wir darüber reden. 1068 00:57:26,326 --> 00:57:28,657 Dass wir unsere Kinder darüber aufklären, 1069 00:57:28,757 --> 00:57:30,945 dass wir mit Freunden darüber diskutieren, 1070 00:57:31,045 --> 00:57:32,989 wo gibt es vernünftige Informationen 1071 00:57:33,141 --> 00:57:35,673 und wo sitzen Leute sehr leicht Quatsch auf, 1072 00:57:35,773 --> 00:57:37,673 gegen den man sich wehren muss. 1073 00:57:37,812 --> 00:57:41,098 Gerade diese nicht offiziellen Beziehungen, 1074 00:57:41,198 --> 00:57:45,030 sondern die privaten und persönlichen Beziehungen sind die stärksten, 1075 00:57:45,130 --> 00:57:48,282 die sollten wir nutzen und unerschrocken reingehen. 1076 00:57:49,176 --> 00:57:50,741 Vielen Dank, danke. 1077 00:57:50,841 --> 00:57:53,424 Ich hab noch eine Frage gesehen. 1078 00:57:53,524 --> 00:57:56,238 Wir müssen relativ pünktlich - die hat sich dann doch - 1079 00:57:57,065 --> 00:57:58,379 Ja? Perfekt. 1080 00:57:58,479 --> 00:58:00,379 Wie würden Sie empfehlen, 1081 00:58:00,483 --> 00:58:02,840 wenn man auf dem Laufenden bleiben will, 1082 00:58:02,940 --> 00:58:04,804 wenn man sich gut informieren will, 1083 00:58:04,904 --> 00:58:07,164 sollte man da auf eine Quelle zurückgreifen, 1084 00:58:07,264 --> 00:58:09,268 vielleicht öffentlich-rechtlich, 1085 00:58:09,368 --> 00:58:14,273 oder ist es gut, verschiedene Quellen zu Rate zu ziehen? 1086 00:58:15,512 --> 00:58:17,719 Ich würde immer sagen, verschiedene. 1087 00:58:17,819 --> 00:58:20,811 Aber es ist ja auch eine Frage, wie viel Zeit man hat. 1088 00:58:20,911 --> 00:58:26,520 Ich höre morgens beim Kaffeetrinken erst mal Radio. 1089 00:58:26,603 --> 00:58:28,315 Noch ganz altmodisch. 1090 00:58:28,415 --> 00:58:31,056 Find ich gut, ich arbeite beim Radio. 1091 00:58:32,830 --> 00:58:37,670 Auf dem Weg zur Arbeit lese ich eine Zeitung. 1092 00:58:37,802 --> 00:58:39,851 Das klingt jetzt wirklich doof. 1093 00:58:39,951 --> 00:58:43,602 Aber ich würde sagen, man sollte drei, vier Medien haben, 1094 00:58:43,702 --> 00:58:46,088 auf die man immer wieder zurückgreift. 1095 00:58:46,188 --> 00:58:49,283 Die leiten einen dann auch zu anderen. 1096 00:58:49,368 --> 00:58:52,694 Man merkt, die greifen was auf und dann kann man das verfolgen. 1097 00:58:52,794 --> 00:58:54,332 So würde ich das sagen. 1098 00:58:54,432 --> 00:58:58,494 Ich würd auf die Fußnoten zurückgreifen, von denen ich gesprochen hab. 1099 00:58:58,594 --> 00:59:01,994 Also schauen, wo finde ich Belege für etwas, das gesagt wurde. 1100 00:59:02,094 --> 00:59:03,967 Wie sind die Belege nachvollziehbar? 1101 00:59:04,067 --> 00:59:05,888 Dann sind das Erfahrungswerte. 1102 00:59:05,988 --> 00:59:12,050 Wenn ich merke, aus einem Medium hab ich besser nachvollziehbare Informationen 1103 00:59:12,150 --> 00:59:15,235 als aus einem anderen, habe Belege für das, was gesagt ist, 1104 00:59:15,335 --> 00:59:17,848 kann das ein vertrauenswürdiges Medium werden. 1105 00:59:17,948 --> 00:59:20,180 Nach meiner Erfahrung ist es so, 1106 00:59:20,280 --> 00:59:23,917 wir haben Medien, die haben über einen langen Zeitraum bewiesen, 1107 00:59:24,017 --> 00:59:26,755 dass sie die verlässlichen Informationen liefern. 1108 00:59:26,855 --> 00:59:29,447 Da ist die Vertrauensanmutung höher, 1109 00:59:29,604 --> 00:59:31,745 als wenn ich "Russia Today" einschalte. 1110 00:59:33,216 --> 00:59:35,449 Möchten Sie? 1111 00:59:35,549 --> 00:59:37,763 Oder Applaus kurz an der Stelle. 1112 00:59:37,942 --> 00:59:39,357 * Beifall * 1113 00:59:39,457 --> 00:59:41,853 Ich hab gerade noch mal abschließend gedacht, 1114 00:59:41,953 --> 00:59:46,265 es wäre noch mal schön zu hören, 1115 00:59:46,365 --> 00:59:49,926 einmal hatte ich die Frage, welche Bedeutung hat die Ausbildung 1116 00:59:50,026 --> 00:59:53,487 zum Journalisten für die Demokratie? 1117 00:59:53,587 --> 00:59:59,320 Aber gleichzeitig auch, was konsumieren Sie denn an Medien? 1118 00:59:59,420 --> 01:00:03,933 Um einfach mal zu hören, dass nicht nur TikTok cool ist. 1119 01:00:06,228 --> 01:00:10,227 Sorry, ich hab schon gesagt, was ich für Medien konsumiere. 1120 01:00:10,327 --> 01:00:13,592 Was ich interessant finde an diesen Schulbesuchen, 1121 01:00:13,692 --> 01:00:16,939 was ich mitnehme von den Schulbesuchen, die wir machen, 1122 01:00:17,039 --> 01:00:19,930 ist, dass ganz viele Leute sich gar nicht bewusst sind, 1123 01:00:20,030 --> 01:00:25,026 wo genau die Informationen herkommen, die sie konsumieren. 1124 01:00:25,126 --> 01:00:26,917 Es bringt, glaube ich, auch was, 1125 01:00:27,017 --> 01:00:30,005 einfach neugierig jedes Mal zu checken, 1126 01:00:30,105 --> 01:00:32,835 wo das, das einem jetzt zugespielt wird, 1127 01:00:32,935 --> 01:00:34,835 ursprünglich mal herkam. 1128 01:00:34,905 --> 01:00:39,526 Oft sind die Quellen ganz klassische Medien. 1129 01:00:39,626 --> 01:00:43,255 Dadurch kann man eine Routine entwickeln. 1130 01:00:43,355 --> 01:00:46,427 Aber sich einfach die schlichte Frage zu stellen, 1131 01:00:46,527 --> 01:00:49,612 wer hat das Video gemacht und wer hat es verbreitet, 1132 01:00:49,712 --> 01:00:52,187 wer hat dafür bezahlt, dass es gemacht wird, 1133 01:00:52,287 --> 01:00:55,199 ist wichtig und für mich ein Automatismus. 1134 01:00:55,299 --> 01:00:58,149 Der wäre auch für andere sinnvoll. 1135 01:00:58,665 --> 01:01:00,991 Möchten Sie das kurz ergänzen? 1136 01:01:01,091 --> 01:01:03,895 Ganz kurz aus nicht journalistischer Sicht: 1137 01:01:03,995 --> 01:01:07,035 Ich gehe auch so vor, wenn ich etwas sehe 1138 01:01:07,135 --> 01:01:09,647 denke ich: "Ach Quatsch, ist das wahr?" 1139 01:01:09,747 --> 01:01:13,600 Dann schau ich, ob das andere Medien auch aufgegriffen haben. 1140 01:01:13,700 --> 01:01:15,600 Ob ich Belege dafür finde, 1141 01:01:15,639 --> 01:01:18,416 das ist dann auch ein Vertrauenshinweis. 1142 01:01:18,516 --> 01:01:22,395 Natürlich muss man immer hinterfragen, 1143 01:01:22,495 --> 01:01:24,997 ich beschäftige mich beruflich mit Desinformation, 1144 01:01:25,097 --> 01:01:27,519 was sind die Interessen, die dahinterstehen, 1145 01:01:27,619 --> 01:01:29,296 was ist das für ein Medium, 1146 01:01:29,396 --> 01:01:31,570 wurde es woanders aufgegriffen? 1147 01:01:31,670 --> 01:01:33,570 So kann man sich dem Ganzen nähern 1148 01:01:33,633 --> 01:01:36,587 und nicht bei der ersten Eilmeldung sofort draufspringen 1149 01:01:36,687 --> 01:01:38,587 und irgendwas weiterverbreiten. 1150 01:01:38,629 --> 01:01:41,159 Manchmal hilft es, ein paar Stunden zu warten 1151 01:01:41,259 --> 01:01:43,306 und zu gucken, kommt was Ähnliches rein? 1152 01:01:43,406 --> 01:01:45,811 Dann kann man sich ein Bild dazu machen. 1153 01:01:45,911 --> 01:01:50,177 Möchten Sie noch einen letzten Satz hinzufügen? 1154 01:01:50,277 --> 01:01:53,218 Sie sind ja stellvertretender Chef des Bundespresseamts. 1155 01:01:53,329 --> 01:01:54,748 Nein. - Alles klar. 1156 01:01:55,856 --> 01:01:57,688 Dann würde ich abschließen. 1157 01:01:57,788 --> 01:02:00,670 Ganz, ganz herzlichen Dank. 1158 01:02:00,770 --> 01:02:03,334 Unser Thema: Desinformation und Fake News erkennen. 1159 01:02:03,487 --> 01:02:04,992 * Beifall * 1160 01:02:05,092 --> 01:02:07,227 Wie werde ich Faktenchecker*in? 1161 01:02:07,327 --> 01:02:09,227 Vielen Dank an Wolfgang Büchner, 1162 01:02:09,307 --> 01:02:10,826 Henriette Löwisch, 1163 01:02:10,926 --> 01:02:14,488 Josefine Ballon und David Schraven für Ihre Expertise. 1164 01:02:14,588 --> 01:02:17,034 Wir haben das Ganze auch aufgezeichnet. 1165 01:02:17,134 --> 01:02:20,789 Es erscheint an späterer Stelle noch mal in der Mediathek 1166 01:02:20,889 --> 01:02:24,309 der Bundesregierung, um das Ganze noch mal nachzuschauen. 1167 01:02:24,409 --> 01:02:26,894 Ich habe auch wahnsinnig viel dabei gelernt. 1168 01:02:26,994 --> 01:02:31,377 Um 17.15 Uhr geht es weiter mit meiner Kollegin Andrea Thilo 1169 01:02:31,477 --> 01:02:33,581 und der Außenministerin Baerbock zum Thema: 1170 01:02:33,681 --> 01:02:35,940 Wie passt menschenrechtsbasierte Außenpolitik 1171 01:02:36,040 --> 01:02:38,870 in die Zeit von Krieg, Ressourcen- und Handelskonflikten? 1172 01:02:38,970 --> 01:02:41,091 Weiterhin viel Vergnügen, danke schön. 1173 01:02:41,191 --> 01:02:42,764 * Beifall *