1 00:00:24,200 --> 00:00:27,251 (Helge Braun) Einen wunderschönen guten Morgen 2 00:00:27,503 --> 00:00:30,976 und herzlich willkommen im Bundeskanzleramt. 3 00:00:32,085 --> 00:00:35,404 Und ich darf zunächst ankündigen, 4 00:00:35,866 --> 00:00:39,476 die Kollegin Staatsministerin Bär ist auch im Zulauf. 5 00:00:39,556 --> 00:00:41,976 Die kommt noch. Der Platz ist noch leer. 6 00:00:42,056 --> 00:00:44,226 Die hat noch verkehrliche Probleme. 7 00:00:44,306 --> 00:00:48,097 Aber zunächst will ich mich ganz herzlich bedanken 8 00:00:48,178 --> 00:00:51,226 bei allen Expertinnen und Experten. 9 00:00:51,306 --> 00:00:53,604 Dass Sie heute Morgen zu uns gekommen sind. 10 00:00:53,685 --> 00:00:58,477 Dass wir die Gelegenheit haben, heute als Auftakt für die Erarbeitung 11 00:00:58,558 --> 00:01:02,335 einer Datenstrategie mal Ihre Meinung zu hören. 12 00:01:02,617 --> 00:01:05,070 Das ist uns außerordentlich wichtig. 13 00:01:05,151 --> 00:01:10,665 Insofern, und ich will neben Ihnen allen 14 00:01:10,746 --> 00:01:13,726 auch die Interessierten begrüßen. 15 00:01:13,806 --> 00:01:17,726 Sie, die davon mitprofitieren wollen, nämlich zahlreiche Vertreter 16 00:01:17,806 --> 00:01:21,476 hier im Saal unserer verschiedenen Bundesressorts. 17 00:01:21,954 --> 00:01:26,726 Aber auch die Öffentlichkeit über unseren Livestream. 18 00:01:27,108 --> 00:01:30,976 Dieser gibt Gelegenheit, dass wir alle ein bisschen lernen 19 00:01:31,056 --> 00:01:36,476 und profitieren von dem sehr breit aufgestellten Wissen im Raum. 20 00:01:36,556 --> 00:01:40,899 Aus Wissenschaft, aus Zivilgesellschaft und auch 21 00:01:40,980 --> 00:01:44,947 aus dem Bereich der Behörden und Verbände. 22 00:01:45,028 --> 00:01:47,394 Also wir sind sehr breit heute hier aufgestellt. 23 00:01:47,952 --> 00:01:51,714 Wir wollten uns Zeit nehmen bis 12:30 Uhr, 24 00:01:52,237 --> 00:01:54,494 das Thema zu diskutieren. 25 00:01:55,307 --> 00:01:57,794 Und ich will von meiner Seite aus sagen: 26 00:02:00,115 --> 00:02:02,774 Wir schreiben jetzt das Jahr 2020. 27 00:02:03,454 --> 00:02:07,174 Das heißt, wir sind schon voll in einer Welt, 28 00:02:07,255 --> 00:02:11,594 in der Daten eine ganz zentrale Rolle spielen. 29 00:02:12,176 --> 00:02:16,157 Und wir sind ein sehr ausgefeilter Rechtsstaat. 30 00:02:16,238 --> 00:02:19,171 Das heißt in wettbewerbsrechtlicher, 31 00:02:19,252 --> 00:02:22,334 in datenschutzrechtlicher Hinsicht. 32 00:02:23,133 --> 00:02:25,374 In Fragen der Praxis in den Unternehmen. 33 00:02:26,799 --> 00:02:31,514 Wir fangen ja mit nichts bei null an, und trotzdem… 34 00:02:31,595 --> 00:02:36,134 Dann gibt es einen politischen Mainstream, der sagt: 35 00:02:37,717 --> 00:02:42,194 Auf der einen Seite sind wir in der Nutzung von Daten 36 00:02:42,275 --> 00:02:44,894 für Wertschöpfung nicht Weltmeister. 37 00:02:44,975 --> 00:02:47,617 Stattdessen ist da noch Luft nach oben. 38 00:02:47,698 --> 00:02:52,032 Auf der anderen Seite, glaube ich, suchen wir die gute Rolle, 39 00:02:52,113 --> 00:02:54,531 die wir gerne einnehmen wollen. 40 00:02:55,001 --> 00:02:59,372 Sowohl in Deutschland, wie auch in Europa. 41 00:02:59,715 --> 00:03:02,994 Also wenn man da ein bisschen in die Welt schaut. 42 00:03:03,075 --> 00:03:07,914 Also wir wollen keine Weltregion und wir wollen auch kein Land sein, 43 00:03:08,494 --> 00:03:11,474 in dem es übermächtige Plattformen gibt. 44 00:03:11,555 --> 00:03:14,534 Die sich sozusagen unserer Privatsphäre bemächtigen. 45 00:03:14,916 --> 00:03:18,134 Wir wollen auch kein Land sein, wo der sich Staat sozusagen 46 00:03:18,215 --> 00:03:22,094 der Daten und damit auch der Kontrolle seiner Bürger bemächtigt. 47 00:03:22,175 --> 00:03:26,934 Aber wir wollen eine Region sein, die an der digitalen Wertschöpfung… 48 00:03:27,015 --> 00:03:29,282 Und es gibt ja Studien, die sagen: 49 00:03:29,363 --> 00:03:33,794 Bis zu 60 % der Wertschöpfung der Zukunft spielt sich ab 50 00:03:33,875 --> 00:03:38,634 im Bereich Software und dann ja auch immer Datennutzung. 51 00:03:38,894 --> 00:03:42,254 Das ist eine immense Entwicklung, vor der wir da stehen. 52 00:03:42,335 --> 00:03:44,454 Wenn wir unseren Wohlstand halten wollen, 53 00:03:44,535 --> 00:03:46,814 müssen wir an dieser Wertschöpfung teilhaben. 54 00:03:46,895 --> 00:03:52,494 Deshalb fangen mit unserer Datenstrategie nicht bei null an. 55 00:03:52,575 --> 00:03:58,374 Stattdessen hat die Bundesregierung schon zwei Kommissionen beauftragt, 56 00:03:58,455 --> 00:04:01,894 sich mit Teilaspekten der Datennutzung zu beschäftigen. 57 00:04:01,975 --> 00:04:06,592 Zum einen die Datenethikkommission, die den Abschlussbericht vorlegte 58 00:04:07,100 --> 00:04:11,174 und das andere war die Wettbewerbskommission 4.0. 59 00:04:11,854 --> 00:04:16,166 Diese hat sich mit wettbewerblichen Fragen auseinandergesetzt. 60 00:04:16,535 --> 00:04:18,194 Und da hat man auch gesehen: 61 00:04:18,275 --> 00:04:20,674 Es gibt auch natürlich auch… 62 00:04:20,755 --> 00:04:24,477 Man kann, wenn man sich anguckt, wie macht man es richtig, 63 00:04:24,558 --> 00:04:27,154 auch immer mal international gucken. 64 00:04:27,734 --> 00:04:31,574 Aber wir haben durch unsere mittelständisch geprägte Wirtschaft, 65 00:04:31,655 --> 00:04:35,374 so haben wir wenig Konzernstrukturen, mehr kleinteilige Wirtschaft. 66 00:04:35,934 --> 00:04:39,734 Natürlich auch in Hinblick auf Kooperation 67 00:04:39,815 --> 00:04:43,054 und große Datenmenge, gemeinsame Datentools. 68 00:04:43,454 --> 00:04:46,614 Dadurch haben wir ganz andere Erfahrungen als andere Länder. 69 00:04:46,695 --> 00:04:51,854 Deshalb wollen wir diese ganzen Problemfelder heute aufbereiten. 70 00:04:51,935 --> 00:04:55,374 Und die Erwartung an Sie ist ganz einfach. 71 00:04:56,623 --> 00:05:01,214 Sie sollen uns sagen, wo es langgeht, indem Sie ein bisschen 72 00:05:02,197 --> 00:05:05,654 die Problemfelder skizzieren aus Ihrer Sicht. 73 00:05:05,735 --> 00:05:08,174 Und dass wir einfach nur mal anreißen, 74 00:05:08,255 --> 00:05:12,974 in welche Richtung man auch Lösungen denken kann. 75 00:05:13,055 --> 00:05:15,974 Und ich glaube, sozusagen für die Präzision der Diskussion 76 00:05:16,055 --> 00:05:21,094 ist es immer ganz gut, wenn man dabei auch ein bisschen hinzufügt. 77 00:05:21,175 --> 00:05:23,574 Sozusagen an wen sich eine Forderung adressiert. 78 00:05:23,655 --> 00:05:26,224 Eine Gesamtdatenstrategie 79 00:05:26,305 --> 00:05:28,854 ist eine Strategie am Ende der Bundesregierung. 80 00:05:29,697 --> 00:05:33,272 Aber es ist natürlich auch irgendwie eine Strategie für Deutschland. 81 00:05:33,353 --> 00:05:37,834 Und deshalb brauchen wir jetzt keine Scheuklappe haben. 82 00:05:37,915 --> 00:05:40,525 Es gibt sicherlich auch Punkte, wo man sagt: 83 00:05:40,606 --> 00:05:44,057 Das muss der Staat nicht regeln, das muss die Wirtschaft machen. 84 00:05:44,138 --> 00:05:46,373 Es gibt Punkte, da ist es eher 85 00:05:46,454 --> 00:05:49,940 eine Länder- oder eine kommunale Angelegenheit. 86 00:05:50,372 --> 00:05:54,161 Das haben wir gerade beim Wettbewerbsrecht schon gespürt, 87 00:05:54,242 --> 00:05:56,274 es wird eine Menge geben, wo wir sagen: 88 00:05:56,355 --> 00:05:59,137 Das müssen wir dann in Europa thematisieren. 89 00:06:00,375 --> 00:06:03,908 Wenn man das immer, soweit man das einschätzen kann, 90 00:06:03,989 --> 00:06:09,491 auch zuordnet, erreichen wir ein hohes Maß an Konkretion. 91 00:06:10,233 --> 00:06:15,254 Und weil sich gerade manches in Europa abspielt, 92 00:06:15,884 --> 00:06:20,152 ist es auch unser Ziel mit der Datenstrategie, also die Frage: 93 00:06:20,233 --> 00:06:23,964 Was ist sozusagen Ihr Input? Wie geht es mit dem weiter? 94 00:06:24,045 --> 00:06:28,594 Wir werden Ende Februar dann 95 00:06:28,675 --> 00:06:31,934 eine ganz breite Onlinekonsultation starten. 96 00:06:32,746 --> 00:06:35,134 Grundlage von all dem sind ja die Eckpunkte, 97 00:06:35,215 --> 00:06:39,594 die wir auf der Klausurtagung des Bundeskabinetts beschlossen haben. 98 00:06:39,675 --> 00:06:41,385 Die war im November in Meseberg. 99 00:06:41,466 --> 00:06:46,029 Unser Ziel ist es, dass die Strategie vor der Sommerpause fertig wird. 100 00:06:46,110 --> 00:06:49,894 Gerade eben ist das in mehrerlei Hinsicht sinnvoll. 101 00:06:50,694 --> 00:06:51,761 Das eine ist: 102 00:06:52,149 --> 00:06:55,372 Wenn wir das schaffen, haben wir noch genügend Zeit, 103 00:06:55,453 --> 00:07:00,574 um in der Verantwortung dieser Bundesregierung bis zur Wahl 2021 104 00:07:01,106 --> 00:07:06,313 umzusetzen in eigener Verantwortung, was wir an Erkenntnis gewonnen haben. 105 00:07:06,394 --> 00:07:09,934 Und das zweite ist, dass wir im zweiten Halbjahr 106 00:07:10,015 --> 00:07:12,694 ja die Europäische Ratspräsidentschaft haben. 107 00:07:13,262 --> 00:07:17,763 Wenn dann Dinge sind, die in Europa zu adressieren sind, 108 00:07:17,843 --> 00:07:23,712 hätten wir eine gute Möglichkeit, direkt über den Vorsitz 109 00:07:23,793 --> 00:07:29,336 und den Einfluss auf die Agenda Dinge prominent zu platzieren. 110 00:07:29,417 --> 00:07:33,354 Das ist so ein bisschen die Idee dabei. 111 00:07:33,435 --> 00:07:36,098 Deshalb ist das eine breite Einladung. 112 00:07:36,179 --> 00:07:39,874 Und die gilt natürlich auch an Sie, wenn Sie im Nachgang Ideen haben. 113 00:07:39,955 --> 00:07:42,015 Das ist heute alles nicht abschließend, 114 00:07:42,096 --> 00:07:45,951 aber ein für uns sehr, sehr wichtiger erster Aufschlag. 115 00:07:46,032 --> 00:07:50,654 Und deshalb nochmal ganz herzlich willkommen an alle 116 00:07:51,374 --> 00:07:53,694 und genug der Vorrede. 117 00:07:54,374 --> 00:07:58,076 Wir hatten uns das Verfahren jetzt so vorgestellt: 118 00:07:58,157 --> 00:08:01,094 Wir machen es so, dass wir die Experten alle bitten, 119 00:08:01,175 --> 00:08:04,685 ein kurzes Statement abzugeben zur Frage: 120 00:08:04,766 --> 00:08:08,984 Welche zentralen Probleme und Hindernisse 121 00:08:09,065 --> 00:08:12,493 beim Thema Datennutzung sehen Sie? 122 00:08:12,574 --> 00:08:18,411 Welche Maßnahmen sollten zur Lösung ergriffen werden? 123 00:08:19,951 --> 00:08:24,574 Wir hatten an eine harte Obergrenze von vier Minuten gedacht. 124 00:08:25,134 --> 00:08:27,774 Dass erst die Wissenschaft, Verbände, Wirtschaft 125 00:08:27,855 --> 00:08:30,973 und dann den Governmentbereich zu Wort kommen. 126 00:08:31,054 --> 00:08:35,321 Dass wir dann in eine hoffentlich muntere Diskussion eintreten. 127 00:08:37,414 --> 00:08:39,414 Und Vorschlag aus vergangenen Runden: 128 00:08:39,495 --> 00:08:41,974 Wir lassen alles weg, 129 00:08:42,055 --> 00:08:47,161 was die Bedeutung des Themas unterstreicht. 130 00:08:47,242 --> 00:08:51,474 Weil ich sage das immer, wenn wir im Kanzleramt zum Gipfel laden, 131 00:08:51,555 --> 00:08:55,294 dann ist das Thema Bedeutung quasi ex ante schon geklärt. 132 00:08:55,375 --> 00:08:57,914 Sonst würden wir uns alle nicht damit beschäftigen. 133 00:08:57,995 --> 00:09:01,933 Sondern dass wir, ich sag mal, operativ werden in der Frage: 134 00:09:02,014 --> 00:09:03,014 Was ist zu tun? 135 00:09:04,568 --> 00:09:06,754 Ja, und nochmal herzlich willkommen. 136 00:09:06,835 --> 00:09:12,214 Gibt es zum Ablauf des Tages noch Fragen oder zum Verfahren? 137 00:09:14,094 --> 00:09:18,374 Wenn das alles nicht der Fall ist, dann beginnen wir. 138 00:09:19,094 --> 00:09:22,142 Und wenn ich es richtig sehe, 139 00:09:22,223 --> 00:09:27,665 beginnen wir mit Herrn Professor Otto vom Fraunhofer Institut. 140 00:09:27,746 --> 00:09:29,147 Bitte schön, Herr Otto. 141 00:09:29,228 --> 00:09:31,500 (Boris Otto) Ja, Herr Bundesminister Braun, 142 00:09:31,581 --> 00:09:34,914 herzlichen Dank für die Einladung zu dieser Expertenanhörung, 143 00:09:34,995 --> 00:09:36,874 der ich sehr gerne gefolgt bin. 144 00:09:36,955 --> 00:09:41,974 Ich gebe gerne ein Statement zu dem Entwurf der Datenstrategie ab. 145 00:09:42,055 --> 00:09:43,694 Sie hatten es angesprochen: 146 00:09:43,775 --> 00:09:45,742 Bei der Ausarbeitung der Datenstrategie 147 00:09:45,823 --> 00:09:48,035 sind ja zwei Fragen maßgeblich. 148 00:09:48,116 --> 00:09:50,224 Und ich möchte auf die Erste eingehen: 149 00:09:50,305 --> 00:09:53,811 „Wo stehen wir beim Thema Datennutzung in Deutschland? 150 00:09:53,892 --> 00:09:56,359 Welches sind die zentralen Probleme?“ 151 00:09:56,440 --> 00:09:58,594 Die unternehmensübergreifende Datennutzung 152 00:09:58,675 --> 00:10:00,494 steckt noch in den Kinderschuhen. 153 00:10:00,575 --> 00:10:02,718 Die deutsche und die europäische Wirtschaft 154 00:10:02,799 --> 00:10:04,792 verfügen über einen Datenschatz. 155 00:10:04,873 --> 00:10:07,354 Der kommt von Prozessdaten aus der Fertigung, 156 00:10:07,435 --> 00:10:11,834 oder von Nutzungsdaten aus Maschinen und Anlagen beim Einsatz beim Kunden. 157 00:10:11,915 --> 00:10:14,274 Aber das damit verbundene Innovationspotenzial 158 00:10:14,355 --> 00:10:16,946 dieses Schatzes wird bisher noch nicht gehoben. 159 00:10:17,027 --> 00:10:19,234 Dafür sind viele Gründe ursächlich. 160 00:10:19,315 --> 00:10:21,231 Aber zu den Hauptgründen gehören eher 161 00:10:21,312 --> 00:10:24,309 einerseits mangelndes Vertrauen als Erstes. 162 00:10:24,390 --> 00:10:27,846 Beim Austausch sensibler Daten ist das Vertrauen in Geschäftspartner 163 00:10:27,927 --> 00:10:30,795 und Plattformanbieter nicht hoch genug 164 00:10:30,876 --> 00:10:33,713 in Bezug auf den gewünschten Umgang mit den Daten, 165 00:10:33,794 --> 00:10:37,920 um in eine gemeinsame Nutzung oder den Datenaustausch einzuwilligen. 166 00:10:38,001 --> 00:10:39,809 Zweitens, Interoperabilität. 167 00:10:39,890 --> 00:10:42,714 In vielen Fällen sind die Daten nicht gemeinsam nutzbar. 168 00:10:42,795 --> 00:10:46,928 Zum einen, weil die Daten selbst keinem Standard entsprechen. 169 00:10:47,009 --> 00:10:49,658 Aber vor allen Dingen auch keine Standards existieren 170 00:10:49,739 --> 00:10:51,691 für Nutzungsbedingungen an den Daten. 171 00:10:51,772 --> 00:10:53,954 Wir haben also keine Terms and Conditions 172 00:10:54,035 --> 00:10:56,702 für die Datenökonomie, wenn man so will. 173 00:10:56,783 --> 00:10:59,001 Dritter Punkt, Data Readiness. 174 00:10:59,082 --> 00:11:00,914 Also die Fähigkeit der Unternehmen, 175 00:11:00,995 --> 00:11:03,324 überhaupt mitzuwirken bei Datenaustausch. 176 00:11:03,405 --> 00:11:06,194 Selbst wenn Unternehmen willens sind, Daten zu teilen, 177 00:11:06,275 --> 00:11:08,861 sind sie in weiten Teilen dazu nicht in der Lage. 178 00:11:08,942 --> 00:11:12,634 Auf einer Skala von 0 bis 5 zur Beschreibung des digitalen Reifegrads 179 00:11:12,715 --> 00:11:18,334 ordnen sich 84% auf den beiden ersten Stufen, also 0 und 1 ein. 180 00:11:18,415 --> 00:11:20,054 Und 0 heißt analog. 181 00:11:21,214 --> 00:11:24,613 Geschäftslogik multilateraler Plattformen und Ökosysteme 182 00:11:24,694 --> 00:11:27,354 in Deutschland und Europa finden wir in vielen Domänen 183 00:11:27,435 --> 00:11:30,836 nicht den einzigen alleinigen Plattformanbieter. 184 00:11:30,917 --> 00:11:34,121 Wir finden eine Vielzahl etwa gleich starker Akteure. 185 00:11:34,202 --> 00:11:37,194 Aber wer ist nun derjenige, der den Aufbau einer Plattform 186 00:11:37,275 --> 00:11:41,542 für gemeinsame Ökosysteme startet und damit auch vorfinanziert? 187 00:11:41,623 --> 00:11:44,794 Deutschland und Europa haben einige Anstrengungen ergriffen, 188 00:11:44,875 --> 00:11:48,674 um zentrale Probleme bei Datennutzung und -souveränität zu beheben. 189 00:11:48,755 --> 00:11:51,154 Hier sind insbesondere das Projekt GAIA-X 190 00:11:51,235 --> 00:11:54,633 und die Initiative International Data Spaces zu nennen. 191 00:11:54,714 --> 00:11:56,996 Aber es sind eben weitere Maßnahmen nötig, 192 00:11:57,077 --> 00:11:58,834 was mich zur zweiten Frage bringt: 193 00:11:58,915 --> 00:12:01,834 Welche Maßnahme muss denn unbedingt ergriffen werden 194 00:12:01,915 --> 00:12:04,295 zur Lösung dieser Herausforderungen? 195 00:12:04,376 --> 00:12:05,376 Wie gesagt: 196 00:12:05,457 --> 00:12:07,998 Eindeutig handelt es sich um ein Maßnahmenbündel. 197 00:12:08,079 --> 00:12:11,154 Aber eine zentrale Maßnahme ist sicherlich technischer Natur 198 00:12:11,235 --> 00:12:14,568 und betrifft den Aufbau einer Dateninfrastruktur. 199 00:12:14,649 --> 00:12:18,281 Bei einer Dateninfrastruktur handelt es sich um eine Infrastruktur 200 00:12:18,362 --> 00:12:20,882 aus Softwarekomponenten und -diensten. 201 00:12:21,234 --> 00:12:24,227 Diese ermöglichen einerseits das leichte Teilen von Daten. 202 00:12:24,308 --> 00:12:27,411 Dabei gewährleistet sie die Souveränität des Datengebers, 203 00:12:27,492 --> 00:12:32,574 aber eben auch den Vertrauensschutz des Datennutzers. 204 00:12:33,054 --> 00:12:35,377 So eine Dateninfrastruktur ist ja auch bereits 205 00:12:35,458 --> 00:12:38,398 in der nationalen KI-Strategie halt angelegt. 206 00:12:38,479 --> 00:12:42,279 Wir haben eine Reihe von fundamentalen Bausteinen dafür, 207 00:12:42,360 --> 00:12:44,227 wie erwähnt GAIA-X und IDS. 208 00:12:44,828 --> 00:12:47,556 Beide Initiativen werden mit europäischen Partnern 209 00:12:47,637 --> 00:12:49,222 entwickelt und vorangetrieben. 210 00:12:49,303 --> 00:12:52,737 Aber diese Dateninfrastruktur muss eben auch betrieben werden. 211 00:12:52,818 --> 00:12:54,418 Sie muss vorher da sein, 212 00:12:54,499 --> 00:12:58,084 bevor sich datengetriebene Innovationen darauf entwickeln. 213 00:12:58,165 --> 00:13:01,796 Das ist vergleichbar zu einem Infrastrukturnetz 214 00:13:01,877 --> 00:13:05,478 wie beispielsweise dem Autobahnnetz oder der Eisenbahninfrastruktur. 215 00:13:05,559 --> 00:13:09,074 Die müssen auch da sein, bevor der erste Lastwagen fährt. 216 00:13:09,155 --> 00:13:13,023 In diesem Sinne sollte der Staat folgende Stoßrichtung verfolgen: 217 00:13:13,104 --> 00:13:15,307 Unterstützung und Förderung des Aufbaus 218 00:13:15,388 --> 00:13:19,055 einer Betreiberorganisation dieser Dateninfrastruktur. 219 00:13:19,234 --> 00:13:21,620 Einforderung der Dateninfrastrukturdienste 220 00:13:21,701 --> 00:13:23,554 auch bei öffentlichen Ausschreibungen. 221 00:13:23,635 --> 00:13:26,035 Also wo der Staat selbst Nutzer ist. 222 00:13:26,272 --> 00:13:29,366 Auch eine weitere Förderung von datengetriebenen Ökosystemen, 223 00:13:29,447 --> 00:13:33,894 um diese Deadlock Situation, "Wer fängt jetzt an?", zu überwinden. 224 00:13:34,739 --> 00:13:36,874 Gegebenenfalls auch Förderung und Aufbau 225 00:13:36,955 --> 00:13:39,354 von Softwareunternehmen für Datensouveränität. 226 00:13:39,435 --> 00:13:43,038 Möglicherweise auch in Analogie zur Batteriezellenproduktion, 227 00:13:43,119 --> 00:13:46,048 und Förderung von Standards für Datensouveränität. 228 00:13:46,129 --> 00:13:48,366 Sowie die Erwägung regulatorischer Maßnahmen 229 00:13:48,447 --> 00:13:50,676 für den digitalen europäischen Binnenmarkt. 230 00:13:50,757 --> 00:13:54,934 Gegebenenfalls auch im Sinne eines Datensouveränitätsacts. 231 00:13:55,831 --> 00:13:58,573 Damit möchte ich schließen, aber nicht, ohne nochmal 232 00:13:58,654 --> 00:14:01,521 die Dringlichkeit der Maßnahme zu betonen. 233 00:14:01,602 --> 00:14:03,935 Die Welt wird nicht auf uns warten. 234 00:14:04,386 --> 00:14:05,491 Ich persönlich glaube, 235 00:14:05,572 --> 00:14:08,064 dass wir das Heft des Handelns in der Hand halten. 236 00:14:08,145 --> 00:14:10,278 Aber das Gelegenheitsfenster schließt sich. 237 00:14:10,359 --> 00:14:12,031 Wir sollten diese Chance nutzen. 238 00:14:12,112 --> 00:14:13,112 Vielen Dank. 239 00:14:13,618 --> 00:14:16,168 (Helge Braun) Danke schön. Frau Riphahn. 240 00:14:16,249 --> 00:14:18,590 (Regina T. Riphahn) Vielen Dank! Guten Morgen! 241 00:14:18,671 --> 00:14:22,057 Als Vorsitzende des Rats für Sozial- und Wirtschaftsdaten 242 00:14:22,138 --> 00:14:24,654 begrüße ich die Initiative der Bundesregierung. 243 00:14:24,735 --> 00:14:26,400 Ich danke für die Einladung. 244 00:14:26,481 --> 00:14:28,434 Aus Sicht der Forschung gibt es 245 00:14:28,515 --> 00:14:32,154 vier zentrale Problemfelder der Datennutzung in Deutschland. 246 00:14:32,235 --> 00:14:35,702 Für Details verweise ich auf unser Positionspapier. 247 00:14:35,866 --> 00:14:38,599 Problemfeld eins: Fehlender Datenzugang. 248 00:14:39,240 --> 00:14:42,994 Wir haben in Deutschland gute Daten der öffentlichen Verwaltung. 249 00:14:43,075 --> 00:14:46,106 Aber für die Wissenschaft gibt es dazu oft keinen Zugang. 250 00:14:46,187 --> 00:14:49,239 Das betrifft wichtige Register und Statistiken, zum Beispiel: 251 00:14:49,320 --> 00:14:51,988 Melde- und Bildungsregister, Steuerdaten, 252 00:14:52,069 --> 00:14:55,269 Immobiliendaten und die Kriminalitätsstatistik. 253 00:14:55,723 --> 00:14:59,154 Auch für den Zugang der Wissenschaft zu den kommerziellen Daten 254 00:14:59,235 --> 00:15:01,462 gibt es noch keine geregelten Verfahren. 255 00:15:01,543 --> 00:15:03,714 Wir als Rat für Sozial- und Wirtschaftsdaten 256 00:15:03,795 --> 00:15:05,928 haben hierzu Vorschläge gemacht. 257 00:15:06,009 --> 00:15:09,543 Problemfeld zwei: Fehlende technische Möglichkeiten. 258 00:15:09,985 --> 00:15:12,194 Für amtliche Daten, die zugänglich sind, 259 00:15:12,275 --> 00:15:14,675 fehlen Cloud-Lösungen zur Auswertung. 260 00:15:15,127 --> 00:15:16,993 Außerdem brauchen wir Zugang 261 00:15:17,074 --> 00:15:19,941 via Remote Access zur amtlichen Statistik. 262 00:15:20,431 --> 00:15:23,034 Derzeit ist der Zugang nur mit hohem zeitlichen 263 00:15:23,115 --> 00:15:25,368 und organisatorischen Aufwand möglich. 264 00:15:25,449 --> 00:15:28,516 Und der RatSWD hat hierzu Vorschläge gemacht. 265 00:15:28,895 --> 00:15:31,454 Problemfeld drei: Datenqualität. 266 00:15:32,334 --> 00:15:35,306 Durch die Digitalisierung entstehen große Datenmengen. 267 00:15:35,727 --> 00:15:38,254 Ihre Qualität ist aber nicht immer gesichert. 268 00:15:38,575 --> 00:15:42,074 Die unreflektierte Nutzung solcher Daten ist eine Gefahr: 269 00:15:42,155 --> 00:15:44,881 für das Vertrauen in wissenschaftliche Forschung 270 00:15:44,962 --> 00:15:47,203 und auch für den gesellschaftlichen Diskurs. 271 00:15:47,303 --> 00:15:50,454 Problemfeld vier: Kultur des Misstrauens. 272 00:15:51,414 --> 00:15:53,914 Der Forschung wird seitens Politik und Behörden 273 00:15:53,995 --> 00:15:56,062 häufig mit Misstrauen begegnet. 274 00:15:56,301 --> 00:16:00,394 Daraus ergeben sich Hürden, die verhindern, dass vorhandene Daten 275 00:16:00,475 --> 00:16:04,334 sinnvoll verknüpft, zusammengeführt, geteilt und genutzt werden. 276 00:16:05,774 --> 00:16:10,211 Zur zweiten Frage: Wir sehen Handlungsbedarf in vier Bereichen. 277 00:16:10,292 --> 00:16:14,559 Erstens: Der Datenzugang für die Forschung muss möglich werden. 278 00:16:14,869 --> 00:16:19,269 Über das Modell der Forschungs- datenzentren, FDZ nennen wir sie, 279 00:16:19,754 --> 00:16:22,636 können sensible Daten weitergegeben werden. 280 00:16:22,717 --> 00:16:25,434 Dieses Modell sollte auf viele weitere Bereiche 281 00:16:25,515 --> 00:16:27,368 der Verwaltung ausgeweitet werden. 282 00:16:27,449 --> 00:16:30,709 Dadurch können die vorhandenen Daten auch genutzt werden. 283 00:16:30,790 --> 00:16:34,740 Die Forschungsdatenzentren der amtlichen Statistiken arbeiten gut, 284 00:16:34,821 --> 00:16:37,754 aber sie müssen besser ausgestattet werden. 285 00:16:38,080 --> 00:16:40,734 Für kommerzielle Daten brauchen wir geregelte Zugänge, 286 00:16:40,815 --> 00:16:44,293 die auch die Interessen der Dateneigner berücksichtigen. 287 00:16:44,374 --> 00:16:47,307 Eine Treuhandstelle kann hier weiterhelfen. 288 00:16:47,698 --> 00:16:51,431 Zweitens: Technische Lösungen müssen realisiert werden. 289 00:16:51,777 --> 00:16:55,544 Die angestoßenen Cloud-Vorhaben sind sinnvoll und zu fördern. 290 00:16:55,625 --> 00:17:00,374 Um den Zugang via Remote Access zu amtlichen Daten zu ermöglichen, 291 00:17:00,614 --> 00:17:04,347 brauchen wir Gesetzesänderungen und auch Pilotprojekte. 292 00:17:05,023 --> 00:17:08,714 Drittens: Die Qualität von Daten und ihr wissenschaftlicher Wert 293 00:17:08,795 --> 00:17:12,262 sollte in der Datenstrategie berücksichtigt werden. 294 00:17:12,617 --> 00:17:15,954 Viertens: Der Kultur des Misstrauens ist entgegenzutreten. 295 00:17:16,035 --> 00:17:18,246 Unser wichtigstes Desiderat hier ist, 296 00:17:18,327 --> 00:17:21,007 dass Datenverknüpfungen ermöglicht werden sollten. 297 00:17:21,088 --> 00:17:24,342 Viele wissenschaftlich und gesellschaftlich wertvolle Projekte 298 00:17:24,423 --> 00:17:27,690 unterbleiben aufgrund restriktiver Vorschriften. 299 00:17:27,771 --> 00:17:32,099 Datenverknüpfungen müssen in gesichertem Rahmen ermöglicht werden. 300 00:17:32,180 --> 00:17:33,799 Wissenschaft sucht Erkenntnis 301 00:17:33,880 --> 00:17:38,003 und ist nicht an Reidentifizierung von Individuen interessiert. 302 00:17:38,084 --> 00:17:39,151 Man sollte daher 303 00:17:39,232 --> 00:17:43,270 eine datenschutzrechtliche Privilegierung der Forschung prüfen. 304 00:17:43,351 --> 00:17:46,691 Wir begrüßen die Datenstrategie und möchten zum Gelingen beitragen. 305 00:17:46,772 --> 00:17:50,155 Gerne unterstützen wir die Schaffung rechtlicher Rahmenbedingungen, 306 00:17:50,236 --> 00:17:54,983 Identifikation vitaler Datenquellen, die Gestaltung von Datenzugängen, 307 00:17:55,064 --> 00:17:58,555 Datenanonymisierung und die Entwicklung der Datenstruktur. 308 00:17:58,636 --> 00:18:00,613 Wir freuen uns auf die Zusammenarbeit. 309 00:18:00,694 --> 00:18:01,694 Danke. 310 00:18:01,775 --> 00:18:03,754 (Helge Braun) Ja, vielen Dank. 311 00:18:03,835 --> 00:18:05,635 Als Nächstes Herr Marquardt. 312 00:18:06,561 --> 00:18:07,863 (Wolfgang Marquardt) Ja. 313 00:18:07,944 --> 00:18:11,313 Herr Bundesminister, meine sehr verehrten Damen und Herren. 314 00:18:11,394 --> 00:18:12,731 Danke für die Einladung. 315 00:18:12,812 --> 00:18:16,554 Gerne bin ich hier, um meine Erfahrung einzubringen 316 00:18:16,635 --> 00:18:18,161 in verschiedenen Funktionen. 317 00:18:18,242 --> 00:18:22,194 Unter anderem auch als Mitglied des Rats für Informationsinfrastrukturen. 318 00:18:22,275 --> 00:18:23,754 Auch in meiner Funktion 319 00:18:23,835 --> 00:18:26,794 als wissenschaftlicher Leiter des Forschungszentrums Jülich. 320 00:18:26,875 --> 00:18:30,608 Lassen Sie mich die Frage eins und zwei zusammenziehen, 321 00:18:30,689 --> 00:18:35,223 nämlich die Probleme bei dem Thema Datennutzung und Lösungsansätze. 322 00:18:35,365 --> 00:18:37,419 Und ich beginne mit der Feststellung: 323 00:18:37,500 --> 00:18:39,858 Wir müssen bei dem Thema Datennutzung letztlich 324 00:18:39,939 --> 00:18:43,006 über den Infrastrukturstack insgesamt denken. 325 00:18:43,087 --> 00:18:46,354 Also von den Datenprodukten, die benutzt werden, 326 00:18:46,435 --> 00:18:50,809 um Wertschöpfung auch zu generieren, hin zu einer Hardwareschicht. 327 00:18:50,890 --> 00:18:54,074 Ich möchte nicht mit Begriffen wie Cloud operieren, 328 00:18:54,155 --> 00:18:59,354 sondern ganz basal die Technologie eben hier erwähnen. 329 00:18:59,435 --> 00:19:00,474 Welche man braucht, 330 00:19:00,555 --> 00:19:05,334 um überhaupt die Softwareschichten da drüber zu organisieren. 331 00:19:06,030 --> 00:19:08,317 Die erste Frage ist natürlich: 332 00:19:08,398 --> 00:19:10,073 Haben wir… Wie weit sind wir? 333 00:19:10,154 --> 00:19:11,969 Da spreche ich sicher jetzt aus der 334 00:19:12,050 --> 00:19:15,419 der naturwissenschaftlich-technisch- lebenswissenschaftlichen Sicht. 335 00:19:15,500 --> 00:19:17,419 Sind die Datensammlung gut organisiert? 336 00:19:17,500 --> 00:19:19,595 Ja, in Teilfeldern haben wir die. 337 00:19:19,676 --> 00:19:21,674 Da könnte ich viele Beispiele nennen. 338 00:19:21,755 --> 00:19:23,074 Aber wir haben Probleme. 339 00:19:23,155 --> 00:19:25,463 Wir haben ein Finanzierungsproblem langfristig. 340 00:19:25,544 --> 00:19:27,568 Wir haben keine nachhaltigen Strukturen, 341 00:19:27,649 --> 00:19:30,784 um diese Datensätze auch langfristig bereitzustellen. 342 00:19:30,865 --> 00:19:33,120 Außer in ganz wenigen Ausnahmen vielleicht. 343 00:19:33,201 --> 00:19:34,611 Was sehr interessant ist: 344 00:19:34,692 --> 00:19:36,855 Es gibt zum Teil Dateninfrastrukturen, 345 00:19:36,936 --> 00:19:39,314 die nicht von den Akteuren benutzt werden. 346 00:19:39,395 --> 00:19:40,674 Kann man Fragen: Warum? 347 00:19:40,755 --> 00:19:44,174 Also nicht befüllt werden und auch nicht abgefragt werden. 348 00:19:45,334 --> 00:19:47,874 Was man wahrscheinlich braucht, da kann ich 349 00:19:47,955 --> 00:19:50,623 an meinen beiden Vorrednern auch sehr gut anschließen. 350 00:19:50,704 --> 00:19:52,394 Man muss Intermediäre haben, 351 00:19:52,475 --> 00:19:55,594 die letztlich vermitteln zwischen Datenerzeugung und -nutzung. 352 00:19:55,675 --> 00:19:56,691 Und die Dienste… 353 00:19:56,772 --> 00:19:59,384 Ob das jetzt wissenschaftlich, öffentlich finanziert 354 00:19:59,465 --> 00:20:02,394 oder eben privatwirtschaftlich finanziert zu denken ist. 355 00:20:02,475 --> 00:20:05,674 Diese Intermediäre müssen letztlich die Dienste erbringen, 356 00:20:05,755 --> 00:20:10,672 die es erlaubt, Datenerzeuger mit Datennutzer zusammen zu bringen. 357 00:20:10,753 --> 00:20:13,458 Und das Bündel an Diensten da bereitzustellen. 358 00:20:13,539 --> 00:20:17,279 Wir haben bei den Datenerzeugern Ängste, Daten zu teilen. 359 00:20:17,360 --> 00:20:19,933 In der Wissenschaft geht es um Reputationsgewinne, 360 00:20:20,014 --> 00:20:21,390 die einem entgehen können. 361 00:20:21,471 --> 00:20:22,834 In der Wirtschaft geht es 362 00:20:22,915 --> 00:20:25,782 um Wertschöpfung, die einem entgehen kann. 363 00:20:25,863 --> 00:20:30,234 Da brauchen wir definitiv einen Rechtsrahmen. 364 00:20:30,534 --> 00:20:33,598 Auch vielleicht Blaupausen für Kooperationsverträge, 365 00:20:33,679 --> 00:20:39,523 um die Rechte der Datenerzeuger auch wirklich abzusichern. 366 00:20:39,604 --> 00:20:42,594 Im Wissenschaftsbereich sicher auch 367 00:20:42,675 --> 00:20:45,486 ein entsprechendes Reputations- und Belohnungssystem. 368 00:20:45,567 --> 00:20:48,349 Immer wichtiger werden übergreifende Daten. 369 00:20:48,430 --> 00:20:53,154 Das ist in der Industrie, Interoperabilität nannte Herr Otto, 370 00:20:53,235 --> 00:20:56,079 in der Industrie ist es ein altes Thema, 20 Jahre plus. 371 00:20:56,160 --> 00:20:58,356 In der Wissenschaft kommt das langsam auch. 372 00:20:58,437 --> 00:21:01,060 Mein Lieblingsbeispiel ist immer Luftqualitätsdaten 373 00:21:01,141 --> 00:21:03,542 und Daten über Atemwegserkrankungen. 374 00:21:03,623 --> 00:21:07,384 Das sind Felder, die völlig getrennt heute bearbeitet werden. 375 00:21:07,465 --> 00:21:10,794 Und es ist klar, dass man die hochaufgelöst in Ort und Zeit, 376 00:21:10,875 --> 00:21:15,094 individuell aufgelöst haben müsste, um da was zu machen. 377 00:21:15,716 --> 00:21:18,625 Die Aktivitäten, die laufen, GAIA-X wurde erwähnt. 378 00:21:18,706 --> 00:21:20,162 Im wissenschaftlichen Bereich 379 00:21:20,243 --> 00:21:22,479 die nationale Forschungsdateninfrastruktur. 380 00:21:22,560 --> 00:21:24,321 Im europäischen Bereich OSC. 381 00:21:24,402 --> 00:21:25,554 Tolle Initiativen. 382 00:21:25,635 --> 00:21:26,835 Wird viel geredet. 383 00:21:27,015 --> 00:21:30,994 Wir müssen viel, viel, viel investieren und vor allem 384 00:21:31,075 --> 00:21:34,274 in Kooperation investieren, um diese voranzubringen. 385 00:21:34,355 --> 00:21:37,007 Mein Hauptpunkt, den ich sehe, ist: 386 00:21:37,088 --> 00:21:42,634 All diese Initiativen werden zu stark von der Technologenseite getrieben 387 00:21:42,715 --> 00:21:45,394 und nicht von der Nutzerseite getrieben werden. 388 00:21:45,475 --> 00:21:48,570 Und das könnte ein Schuss in die falsche Richtung sein. 389 00:21:48,651 --> 00:21:51,501 Wir müssen also gerade bei den Initiativen sicherstellen, 390 00:21:51,582 --> 00:21:56,531 dass die Nutzer, die Zielgruppen, ganz stark mitbeteiligt werden. 391 00:21:57,854 --> 00:22:01,342 Da komme ich gleich jetzt oder springe ich noch ganz kurz 392 00:22:01,423 --> 00:22:03,994 von den Datensammlungen zu den Diensten. 393 00:22:04,254 --> 00:22:07,946 Auch hier ist es nötig, bei Datenprodukten 394 00:22:08,027 --> 00:22:11,066 nicht irgendwelche Priorisierungen am Grünen Tisch zu machen. 395 00:22:11,147 --> 00:22:15,993 Sondern in Schlüsselfeldern, wo die Wertschöpfung greifbar ist, 396 00:22:16,074 --> 00:22:19,531 von hinten zu denken und dann sozusagen rückwärts zu arbeiten. 397 00:22:19,616 --> 00:22:22,479 Also vom Nutzer, vom Datenprodukt, rückwärts zu arbeiten. 398 00:22:22,560 --> 00:22:24,905 Welche Funktion brauche ich in diesem Stack 399 00:22:24,986 --> 00:22:29,547 vom Nutzer, vom Datenprodukt bis auf die Hardwareebene? 400 00:22:29,628 --> 00:22:31,499 Und auch diese Denke ist, glaube ich, 401 00:22:31,580 --> 00:22:34,453 in Forschung und Entwicklung viel zu wenig vertreten. 402 00:22:34,534 --> 00:22:37,654 Wir haben da eine zu starke Infrastrukturschicht. 403 00:22:37,735 --> 00:22:40,354 Letzter Punkt, den ich gerne machen möchte. 404 00:22:40,435 --> 00:22:45,994 Bei Datennutzung ist das Thema fair, offene Daten ein Kernkonzept, 405 00:22:46,075 --> 00:22:49,486 hinter dem eigentlich, sag ich mal, die Community weitgehend steht. 406 00:22:49,567 --> 00:22:52,571 Vor einem Jahr, würde ich sagen, stand sie fest dahinter. 407 00:22:52,652 --> 00:22:56,165 Heute sieht man, dass es eine ganze Reihe von Konfliktlinien auch gibt. 408 00:22:56,246 --> 00:22:58,637 Und die muss man explizit machen. 409 00:22:58,722 --> 00:23:02,950 Und wir müssen Wege finden, mit diesen Konfliktlinien umzugehen. 410 00:23:03,031 --> 00:23:05,074 In einer idealen Welt würden wir sagen: 411 00:23:05,155 --> 00:23:09,594 Daten ist so was wie ein Global Common, die von jedermann 412 00:23:09,675 --> 00:23:12,691 und an jedem Ort und von jedem genutzt werden kann. 413 00:23:12,772 --> 00:23:16,002 Aber in der realen Welt haben wir Datenschutzregeln 414 00:23:16,083 --> 00:23:18,474 bei personenbezogenen Daten, glücklicherweise. 415 00:23:18,555 --> 00:23:20,747 Und wir haben natürlich auch die Frage: 416 00:23:20,828 --> 00:23:23,934 Wo entsteht Wertschöpfung 417 00:23:24,275 --> 00:23:26,852 auf der Grundlage von wessen Daten in der Welt? 418 00:23:26,933 --> 00:23:28,825 Und ich glaube, wir müssen überlegen: 419 00:23:28,906 --> 00:23:31,080 Wie geht man mit diesen Konfliktlinien um: 420 00:23:31,161 --> 00:23:34,019 Open Data versus IP-Schutz und Verwertung 421 00:23:34,100 --> 00:23:36,703 und eben auch Open Data versus Datenschutz. 422 00:23:36,784 --> 00:23:39,634 Gibt es eine Reihe von Möglichkeiten, da dran zu gehen. 423 00:23:39,715 --> 00:23:42,705 Vielleicht können wir darauf in der Diskussion noch kommen. 424 00:23:42,786 --> 00:23:45,561 Insgesamt begrüße ich sehr, dass wir hier zusammen sind, 425 00:23:45,642 --> 00:23:50,816 um eine Datenstrategie im Großen sozusagen uns mal zu überlegen. 426 00:23:50,897 --> 00:23:55,914 Weil das ist eine Riesenaufgabe, die da vor uns liegt, 427 00:23:56,249 --> 00:23:58,834 das abgewogen, ausgewogen, zu machen. 428 00:23:58,915 --> 00:24:01,051 Wie Sie es vorhin sagten, Herr Braun. 429 00:24:01,132 --> 00:24:02,369 Weder auf eine Seite, 430 00:24:02,450 --> 00:24:05,722 noch auch nicht auf die andere Seite zu fallen in diesem Spektrum. 431 00:24:05,803 --> 00:24:08,334 Das wird nur gelingen, wenn wir die Kräfte bündeln: 432 00:24:08,415 --> 00:24:10,674 Über die verschiedenen Akteurskonstellationen 433 00:24:10,755 --> 00:24:13,839 Wissenschaft, Wirtschaft, aber auch der öffentliche Raum. 434 00:24:13,920 --> 00:24:17,414 Wenn wir da gemeinsame Ziele formulieren, ganz wichtig. 435 00:24:17,495 --> 00:24:21,279 Bevor wir uns mit einer Fülle von Maßnahmen auf den Weg machen, 436 00:24:21,360 --> 00:24:23,670 die dann zur Fragmentierung führen. 437 00:24:23,751 --> 00:24:24,751 Vielen Dank. 438 00:24:25,231 --> 00:24:27,451 (Helge Braun) Ja, vielen herzlichen Dank. 439 00:24:27,532 --> 00:24:30,649 Als nächstes Frau Bertschek, ZEW. 440 00:24:31,643 --> 00:24:33,538 (Irene Bertschek) Ja, vielen Dank. 441 00:24:33,619 --> 00:24:36,060 Meine Vorredner haben schon fast alles gesagt. 442 00:24:36,141 --> 00:24:38,670 Ich versuche mich auf die Punkte zu beschränken, 443 00:24:38,751 --> 00:24:41,033 die noch ein bisschen dazu addieren. 444 00:24:41,114 --> 00:24:43,580 Und da möchte ich zwei Positionen einnehmen. 445 00:24:43,661 --> 00:24:45,994 Einmal die Position als Forscherin, 446 00:24:46,075 --> 00:24:49,177 die sich mit der Digitalisierung der Wirtschaft befasst. 447 00:24:49,258 --> 00:24:53,525 Und einmal als Wissenschaftlerin der Wirtschaftswissenschaften. 448 00:24:53,606 --> 00:24:55,714 Zum Bereich Wirtschaft: 449 00:24:56,214 --> 00:24:59,796 Deutschland hat im europäischen Vergleich deutlich zugelegt 450 00:24:59,877 --> 00:25:03,436 bei der Nutzung großer Datenmengen in den letzten Jahren. 451 00:25:03,517 --> 00:25:05,631 Das zeigen Daten von Eurostat. 452 00:25:05,712 --> 00:25:09,834 Also der Anteil der Unternehmen, die Big Data analysieren, 453 00:25:09,915 --> 00:25:15,834 ist von knapp sechs Prozent in 2016 auf 15 Prozent in 2018 gestiegen. 454 00:25:16,370 --> 00:25:20,503 Wir sehen aber auch aus Daten, die wir selbst am ZEW erheben: 455 00:25:20,795 --> 00:25:25,528 Zahlreiche Unternehmen sehen sich durch Regulierungen beim Datenschutz 456 00:25:25,609 --> 00:25:30,494 in ihren Innovationsaktivitäten behindert und erschwert. 457 00:25:31,214 --> 00:25:34,310 Wir wissen auch aus Studien, die wir gemacht haben: 458 00:25:34,391 --> 00:25:39,524 Firmen, die Big Data analysieren, haben eine höhere Wahrscheinlichkeit, 459 00:25:39,605 --> 00:25:41,939 Produktinnovationen zu realisieren. 460 00:25:42,020 --> 00:25:45,220 Sie profitieren insbesondere dann von Big Data, 461 00:25:45,301 --> 00:25:49,946 wenn sie in die digitalen Kompetenzen ihrer Beschäftigten investieren. 462 00:25:50,027 --> 00:25:54,044 Und ich glaube, das ist ein Schlüsselpunkt, also mitzudenken. 463 00:25:54,125 --> 00:25:57,725 Es geht nicht nur um Zugang oder Nutzung zu Daten. 464 00:25:57,806 --> 00:26:01,439 Es geht auch um die Kompetenzen der Beschäftigten, 465 00:26:01,520 --> 00:26:03,920 die mit den Daten letztlich umgehen. 466 00:26:05,364 --> 00:26:08,301 Zum zweiten Bereich, der Wissenschaft. 467 00:26:08,382 --> 00:26:11,634 Und hier habe ich wie auch Frau Riebhahn die Perspektive 468 00:26:11,715 --> 00:26:14,984 der sozial- und wirtschafts- wissenschaftlichen Forschung. 469 00:26:15,065 --> 00:26:18,228 Ich unterstütze alle Forderungen, die Frau Riebhahn genannt hat, 470 00:26:18,309 --> 00:26:20,833 also ohne Einschränkung, absolut richtig. 471 00:26:20,914 --> 00:26:25,346 Ich möchte vielleicht nochmal drei kleine Punkte erwähnen. 472 00:26:25,427 --> 00:26:29,494 Einmal die Verknüpfbarkeit von Daten, die Sie erwähnt haben. 473 00:26:29,575 --> 00:26:34,041 Also von Daten, von Individualdaten, von Unternehmen und Personen. 474 00:26:34,257 --> 00:26:36,300 Das ist sehr schwierig, wenn diese Daten 475 00:26:36,381 --> 00:26:40,714 in unterschiedlichen Behörden oder Ministerien angesiedelt sind. 476 00:26:40,945 --> 00:26:45,145 Dann ist praktisch die Verknüpfung dieser Daten nicht möglich. 477 00:26:45,709 --> 00:26:48,776 Der zweite Punkt betrifft Löschungspflichten. 478 00:26:49,130 --> 00:26:52,597 Dies gilt für Wissenschaftlerin und Wissenschaftler 479 00:26:52,678 --> 00:26:54,154 oder Forschungseinrichtungen, 480 00:26:54,235 --> 00:26:57,035 die Daten von anderen Datengebern nutzen. 481 00:26:57,116 --> 00:26:58,972 Sie sind verpflichtet, die Daten 482 00:26:59,053 --> 00:27:01,868 nach Beendigung des Forschungsprojekts zu löschen. 483 00:27:01,949 --> 00:27:06,407 Das widerspricht den Standards wissenschaftlichen Arbeitens, 484 00:27:06,488 --> 00:27:10,488 beziehungsweise den Regeln guter wissenschaftlicher Praxis, 485 00:27:10,569 --> 00:27:12,951 wie sie die deutsche Forschungsgemeinschaft 486 00:27:13,032 --> 00:27:17,365 den Forschenden auferlegt und zu denen diese sich verpflichten. 487 00:27:19,445 --> 00:27:20,828 Warum ist das wichtig? 488 00:27:20,909 --> 00:27:23,285 Wir erwarten in der Wissenschaft, 489 00:27:23,366 --> 00:27:27,105 dass Forschungsergebnisse replizierbar und nachprüfbar sind. 490 00:27:27,186 --> 00:27:29,330 Und das erschwert sozusagen die Möglichkeit 491 00:27:29,411 --> 00:27:32,211 der Replizierbarkeit und Nachprüfbarkeit. 492 00:27:32,651 --> 00:27:35,969 Ein ähnliches Problem haben wir bei Daten, 493 00:27:36,050 --> 00:27:38,881 die aus dem Internet erhoben werden. 494 00:27:38,962 --> 00:27:40,994 Frau Riebhahn hat es auch angesprochen. 495 00:27:41,075 --> 00:27:43,374 Durch die Digitalisierung ist es leichter, 496 00:27:43,455 --> 00:27:45,989 jetzt Daten direkt im Internet zu erheben. 497 00:27:46,070 --> 00:27:49,029 Beispielsweise über Web Scraping Methoden: 498 00:27:49,110 --> 00:27:52,310 Also Daten von digitalen Plattformen zu erheben 499 00:27:52,391 --> 00:27:54,369 und für Forschungszwecke zu nutzen. 500 00:27:54,450 --> 00:27:57,151 Auch hier bestehen Löschungspflichten. 501 00:27:57,232 --> 00:28:01,134 Beziehungsweise die Daten müssen nach dem Urheberrecht 502 00:28:01,707 --> 00:28:06,104 nach Beendigung des Projekts gespeichert oder archiviert werden, 503 00:28:06,185 --> 00:28:09,196 zum Bespiel in Archiven oder in öffentlichen Bibliotheken. 504 00:28:09,277 --> 00:28:10,277 Das heißt: 505 00:28:10,358 --> 00:28:12,105 Sie sind nicht einfach zugänglich 506 00:28:12,186 --> 00:28:14,513 oder können nicht einfach weitergegeben werden. 507 00:28:14,594 --> 00:28:16,463 Auch nicht für die Wissenschaft 508 00:28:16,544 --> 00:28:20,464 und für die Nachvollziehbarkeit und Replizierbarkeit von Ergebnissen. 509 00:28:20,545 --> 00:28:22,411 Das heißt, Petitum ist hier: 510 00:28:22,492 --> 00:28:26,605 Die Regeln für die Nutzung von Daten müssen so umgesetzt werden, 511 00:28:26,686 --> 00:28:32,294 dass sie im Einklang sind mit Regeln für "gute wissenschaftliche Praxis". 512 00:28:34,974 --> 00:28:35,974 Danke schön. 513 00:28:36,426 --> 00:28:38,367 (Helge Braun) Vielen herzlichen Dank. 514 00:28:38,448 --> 00:28:41,293 Das war sozusagen die Stimme der Wissenschaft. 515 00:28:41,374 --> 00:28:43,525 Jetzt kommen wir zu Verbänden, 516 00:28:43,606 --> 00:28:46,874 Organisationen, Zivilgesellschaft und Thinktanks. 517 00:28:46,955 --> 00:28:50,114 Und wir beginnen mit Frau Zweig 518 00:28:50,195 --> 00:28:53,262 von der TU Kaiserslautern, Algorithm Watch. 519 00:28:54,221 --> 00:28:56,304 (Katharina A. Zweig) Schönen guten Morgen. 520 00:28:56,385 --> 00:28:58,520 Katharina Zweig, danke für die Vorstellung. 521 00:28:58,601 --> 00:29:01,513 Danke an die Einladung, Frau Ministerin, Herr Minister. 522 00:29:01,594 --> 00:29:05,162 Ja, ich werde oft gefragt, ob wir schon abgehängt sind 523 00:29:05,243 --> 00:29:09,294 in der Datenfrage, in der KI-Frage, von China und USA. 524 00:29:09,752 --> 00:29:13,391 Und ich glaube, dass wir hier nicht genug Selbstbewusstsein haben. 525 00:29:13,472 --> 00:29:16,064 Was wir in unserer Forschung sehen: Daten, die man 526 00:29:16,145 --> 00:29:21,534 in anderen Kulturen erhebt, sind nicht auf uns übertragbar, 527 00:29:21,615 --> 00:29:24,490 sofern es um personalisierte Empfehlungsalgorithmen geht. 528 00:29:24,571 --> 00:29:29,214 Und das ist der ganz große Bereich von Werbung, Produktempfehlung 529 00:29:29,574 --> 00:29:33,641 bis hin zu Newsfiltern, bis hin zu personalisierter Medizin. 530 00:29:34,274 --> 00:29:38,074 Der erste Punkt ist, dass man aus Daten anderer Kulturen 531 00:29:38,155 --> 00:29:41,730 nichts über das deutsche und europäische Verhalten lernen kann. 532 00:29:41,811 --> 00:29:43,011 Ergo bedeutet das, 533 00:29:43,092 --> 00:29:47,491 dass wir einen Markt von 500 Millionen Bürgern haben. 534 00:29:47,572 --> 00:29:49,466 Der ist nicht übersehbar. 535 00:29:49,747 --> 00:29:53,459 Und das bedeutet, dass wir deutlich weniger zahm sein könnten 536 00:29:53,540 --> 00:29:58,234 in der Art und Weise, wie wir mit unseren Daten umgehen wollen. 537 00:29:58,776 --> 00:30:01,554 Und das heißt, wir können diktieren, 538 00:30:01,635 --> 00:30:04,600 wie aus unseren Daten gelernt werden darf. 539 00:30:04,681 --> 00:30:06,970 Wie es im Moment passiert, wissen wir alle. 540 00:30:07,051 --> 00:30:09,137 Die Daten werden zentral gesammelt 541 00:30:09,218 --> 00:30:11,494 und dann für alles Mögliche verwendet. 542 00:30:11,575 --> 00:30:15,175 Damit werden wichtige Grundrechte von uns missachtet. 543 00:30:15,594 --> 00:30:20,175 Zum Beispiel die Datensparsamkeit oder die Zweckgebundenheit der Daten. 544 00:30:20,256 --> 00:30:24,413 Mein Vorschlag ist daher, dass auf deutschen und europäischen Daten 545 00:30:24,494 --> 00:30:27,029 zum Ziel der personalisierten Empfehlung 546 00:30:27,110 --> 00:30:30,334 nur dezentral gelernt werden darf. 547 00:30:30,415 --> 00:30:32,614 Das heißt, das sind andere Techniken, 548 00:30:32,695 --> 00:30:35,922 andere Technologien als die, die wir bisher sehen. 549 00:30:36,003 --> 00:30:38,315 Die sind noch nicht so stark erforscht. 550 00:30:38,396 --> 00:30:42,127 Das heißt, hier gibt es eine Forschungslücke. 551 00:30:42,654 --> 00:30:45,666 Denn die bisherigen Forschungen scheinen anzuzeigen, 552 00:30:45,747 --> 00:30:47,951 dass man vielleicht etwas weniger gut lernt. 553 00:30:48,032 --> 00:30:51,654 Es ist auf jeden Fall aufwendiger, wenn die Maschine zu den Daten kommt. 554 00:30:52,094 --> 00:30:53,427 Wenn sie dort etwas lernt 555 00:30:53,508 --> 00:30:56,632 und damit weitergeht zum nächsten Ort, um da zu lernen. 556 00:30:56,713 --> 00:31:00,445 Die Stichwörter, unter denen Sie diese Technologien finden, 557 00:31:00,526 --> 00:31:06,134 sind Federated Learning oder Differential Privacy Ansätze. 558 00:31:06,752 --> 00:31:09,954 Ich glaube, das wäre eine radikale Idee. 559 00:31:10,035 --> 00:31:11,835 Was hätte das für Vorteile? 560 00:31:12,347 --> 00:31:15,314 Wir hätten keine Datensammlungen mehr im Ausland. 561 00:31:15,395 --> 00:31:17,154 Wir könnten die Zweckbindung 562 00:31:17,235 --> 00:31:20,102 und Datensparsamkeit leichter durchsetzen. 563 00:31:20,378 --> 00:31:25,044 Die Durchsetzbarkeit dieser Idee ist nochmal getrennt zu diskutieren. 564 00:31:25,316 --> 00:31:28,434 Aber das ist ja bei all diesen komplexen Dingen so. 565 00:31:28,515 --> 00:31:30,793 Was ich auch sehr spannend finde: 566 00:31:30,874 --> 00:31:34,731 Wenn die Daten hier wären und hier blieben, dann könnte man 567 00:31:34,812 --> 00:31:39,174 eine Besteuerung des Lernerfolges hier vornehmen. 568 00:31:39,534 --> 00:31:41,974 Denn wir wüssten, wenn die Maschine kommt, 569 00:31:42,055 --> 00:31:44,014 hat sie eine solche Lernqualität. 570 00:31:44,095 --> 00:31:45,428 Dann lernt sie hier. 571 00:31:45,509 --> 00:31:48,474 Dann können wir messen, um wie viel sich das verbessert hat. 572 00:31:48,555 --> 00:31:53,054 Und ich glaube, dass das ein zu versteuerndes Gut sein könnte. 573 00:31:53,774 --> 00:31:55,434 Was ist dazu notwendig? 574 00:31:55,674 --> 00:31:59,155 Sicherlich können wir alle auf unseren Smartphones nicht genügend 575 00:31:59,236 --> 00:32:01,134 Akku und Rechenpower haben, 576 00:32:01,574 --> 00:32:04,779 damit die Maschine hierher kommt und hier direkt lernt. 577 00:32:04,860 --> 00:32:07,304 Das heißt, wir brauchen eine Dateninfrastruktur, 578 00:32:07,385 --> 00:32:11,054 eine Hardwarestruktur, Trusted Data Center. 579 00:32:12,336 --> 00:32:16,013 Ich glaube, dass wir auch mehr darüber nachdenken müssen, 580 00:32:16,094 --> 00:32:20,227 ob nicht die Datenverarbeitung tatsächlich etwas kosten muss. 581 00:32:20,308 --> 00:32:22,305 Das vielleicht im Gegensatz zu dem, 582 00:32:22,386 --> 00:32:24,773 was Frau Kollegin Riebhahn gesagt hat. 583 00:32:24,854 --> 00:32:27,453 Denn es gibt eine große rote Linie. 584 00:32:27,534 --> 00:32:30,734 Wir dürfen keine Dateninfrastrukturen aufbauen, 585 00:32:30,815 --> 00:32:35,734 die ausnutzbar ist, wenn ein Staat sich den Bürger wendet. 586 00:32:36,134 --> 00:32:40,334 Wir hatten gerade erst den 75. Jahrestag der Wannseekonferenz. 587 00:32:40,415 --> 00:32:44,954 Stellen Sie sich vor, was passiert wäre mit zentralen Datenregister 588 00:32:45,035 --> 00:32:49,685 über Gesundheitsdaten, Religions- zugehörigkeiten und Suchergebnissen. 589 00:32:49,766 --> 00:32:53,592 Das heißt, ja, vielleicht müssen wir Daten zugänglicher machen. 590 00:32:53,673 --> 00:32:56,836 Aber vielleicht muss es tatsächlich auch etwas kosten, 591 00:32:56,917 --> 00:33:00,043 und zwar physisch kosten, diese zu verarbeiten. 592 00:33:00,124 --> 00:33:01,803 Und ich könnte mir vorstellen, 593 00:33:01,884 --> 00:33:05,910 dass Verschlüsselungstechniken dafür sorgen könnten. 594 00:33:05,991 --> 00:33:10,136 Dass das bewusster wird, dass Datennutzung schwierig ist 595 00:33:10,217 --> 00:33:13,924 und eben nur in bedingten Fällen nutzbar ist. 596 00:33:14,005 --> 00:33:16,912 Ob wir für unsere Forschung da dann ein Privileg brauchen, 597 00:33:16,993 --> 00:33:20,059 ist sicherlich gesondert davon zu besprechen. 598 00:33:20,140 --> 00:33:22,488 Mir geht es da vor allen Dingen um Daten, 599 00:33:22,569 --> 00:33:26,640 die auch zur Straftatuntersuchung genutzt werden könnten. 600 00:33:26,721 --> 00:33:30,084 Da sollte man darüber nachdenken, ob man die verschlüsselt ablegt, 601 00:33:30,165 --> 00:33:34,820 so dass es physisch schwieriger wird, an diese Daten heranzukommen. 602 00:33:34,901 --> 00:33:35,901 Vielen Dank. 603 00:33:37,622 --> 00:33:39,014 (Helge Braun) Danke schön. 604 00:33:39,095 --> 00:33:42,654 Und jetzt Frau Müller von D21. 605 00:33:43,689 --> 00:33:47,451 (Lena-Sophie Müller) Herzlichen Dank, sehr geehrter Herr Minister Braun, 606 00:33:47,532 --> 00:33:49,119 liebe Staatsministerin. 607 00:33:49,200 --> 00:33:51,569 Ich freue mich, dass ich für die Initiative D21 608 00:33:51,650 --> 00:33:54,217 die Eckpunkte der Datenstrategie der Bundesregierung 609 00:33:54,298 --> 00:33:57,391 mit dem Blick auf die digitale Gesellschaft kommentieren darf. 610 00:33:57,472 --> 00:34:00,394 Ich möchte gerne auf zwei Perspektiven eingehen. 611 00:34:00,475 --> 00:34:03,080 Eine ist die Perspektive des Staates und das andere 612 00:34:03,161 --> 00:34:06,397 die der gesellschaftlichen Veränderungen, die damit einhergehen. 613 00:34:06,478 --> 00:34:07,835 Ich beginne mit dem Staat. 614 00:34:07,916 --> 00:34:10,783 Da sehe ich zwei wichtige Handlungsfelder. 615 00:34:10,864 --> 00:34:13,797 Nämlich einmal den Datenzugang des Staates. 616 00:34:13,878 --> 00:34:18,112 Als zweites die strategische Datennutzung durch den Staat 617 00:34:18,193 --> 00:34:21,060 in Richtung eines Data Driven Governments. 618 00:34:21,141 --> 00:34:23,541 Zuerst zwei Punkte zur Datennutzung. 619 00:34:24,265 --> 00:34:27,580 Wir haben es schon gehört und auch die ganze Open Data Diskussion 620 00:34:27,670 --> 00:34:30,795 der vergangenen Jahre hat diese Themen ausführlich behandelt. 621 00:34:30,876 --> 00:34:32,865 Der Staat hat enorm viele Daten. 622 00:34:32,946 --> 00:34:36,148 Sie liegen an vielen Stellen nicht in maschinenlesbarer Form vor. 623 00:34:36,229 --> 00:34:39,090 Es ist bisher nicht möglich, einen Datenfluss zu schaffen 624 00:34:39,171 --> 00:34:42,706 über die verschiedenen föderalen Ebenen oder über die Ressorts hinweg. 625 00:34:42,787 --> 00:34:47,094 Das ist sicher ein Handlungsfeld, das man angehen sollte. 626 00:34:47,454 --> 00:34:50,419 Ein großes Potenzial liegt darin, die Weichen so zu stellen, 627 00:34:50,500 --> 00:34:53,371 dass die Daten des Staates quasi befreit werden, 628 00:34:53,452 --> 00:34:55,450 diese Fragmentierung aufgehoben wird 629 00:34:55,531 --> 00:34:58,168 und der Staat Zugang zu den eigenen Daten hat. 630 00:34:58,249 --> 00:35:00,908 Der zweite Aspekt bei der Datennutzung ist aber auch, 631 00:35:00,989 --> 00:35:03,215 dass der Staat vorausschauend fragen sollte: 632 00:35:03,296 --> 00:35:08,634 Wo sind relevante Datenpools, die mir neue Erkenntnisse geben? 633 00:35:08,715 --> 00:35:13,248 Wo vielleicht neben der eigenen Erhebung der Zugang zu diesen Daten 634 00:35:13,329 --> 00:35:17,601 sehr relevant für die staatliche, hoheitliche Aufgabenerfüllung wäre. 635 00:35:17,682 --> 00:35:20,711 Das kann zum Beispiel neue Erkenntnisse 636 00:35:20,792 --> 00:35:23,625 für die kluge Erfüllung der Daseinsvorsorge sein. 637 00:35:23,706 --> 00:35:27,001 Und der Staat hat aus meiner Sicht auf allen föderalen Ebenen 638 00:35:27,082 --> 00:35:28,695 hier einen sehr wichtigen Hebel. 639 00:35:28,776 --> 00:35:31,829 Denn er ist Auftraggeber für sehr, sehr viele Dienste. 640 00:35:31,910 --> 00:35:35,397 Er beschafft viele Aspekte oder er genehmigt auch viele Themen. 641 00:35:35,856 --> 00:35:39,554 Man könnte hier über die Festlegung von bestimmten Lizenzen direkt schon 642 00:35:39,635 --> 00:35:43,558 die Regelung über die zukünftige Datennutzung mit verankern. 643 00:35:43,639 --> 00:35:47,841 Dann hätte man hier die Möglichkeit, dass der Staat agiert als Akteur. 644 00:35:47,922 --> 00:35:49,789 Er kann Daten demokratisieren 645 00:35:49,870 --> 00:35:53,303 und Daten dem Gemeinwohl zur Verfügung stellen. 646 00:35:53,654 --> 00:35:56,474 Das ließe sich zum Beispiel darüber regeln, dass man 647 00:35:56,555 --> 00:36:01,622 von vornherein ein Datennutzungsrecht auch auf staatlicher Seite initiiert. 648 00:36:01,960 --> 00:36:06,560 Wir wissen natürlich heute, dass wir aus den Erkenntnissen aus Daten 649 00:36:06,874 --> 00:36:09,797 ja, ganz neue, bessere Politik machen könnten. 650 00:36:09,878 --> 00:36:13,234 Wenn wir uns überlegen, dass wir zum Beispiel im Bildungsbereich 651 00:36:13,315 --> 00:36:14,983 nicht nur eine Schule angucken. 652 00:36:15,064 --> 00:36:17,394 Wir könnten uns das gesamte Ökosystem anschauen 653 00:36:17,475 --> 00:36:18,734 und uns nicht nur fragen: 654 00:36:18,815 --> 00:36:20,193 „Hat die Schule Internet?“ 655 00:36:20,274 --> 00:36:22,096 Wo wohnen die SchülerInnen? 656 00:36:22,177 --> 00:36:24,996 Ist dort die Abdeckung gegeben, sodass auch Hausaufgaben 657 00:36:25,077 --> 00:36:27,392 mit Hilfe des Internets gemacht werden können? 658 00:36:27,473 --> 00:36:29,354 Wie überhaupt die Verkehrsbildung ist. 659 00:36:29,435 --> 00:36:31,603 Wie weiter Bildungsangebote vor Ort sind. 660 00:36:31,684 --> 00:36:34,754 Das sind alles Aspekte, die wir eben auch schon gehört haben, 661 00:36:34,835 --> 00:36:38,020 die in der Verschneidung von verschiedenen Datenquellen liegen. 662 00:36:38,101 --> 00:36:41,375 Da liegt aus meiner Sicht eine ganz wichtige Rolle des Staates, 663 00:36:41,456 --> 00:36:44,254 genau diese Daten zu demokratisieren. 664 00:36:44,335 --> 00:36:47,190 Guckt man sich Erhebungen an, 665 00:36:47,271 --> 00:36:49,487 zum Beispiel von Open Data Watch, sieht man: 666 00:36:49,568 --> 00:36:51,840 Genau die Sozialdaten sind solche Aspekte, 667 00:36:51,921 --> 00:36:55,163 die bisher nicht in maschinenlesbarer Form vorliegen. 668 00:36:55,874 --> 00:36:57,740 Wir kommen in ein Ökosystem, 669 00:36:57,821 --> 00:37:01,302 in dem der Staat nicht nur Daten erfasst 670 00:37:01,383 --> 00:37:06,104 und Datenstrategie und Datenzugang für andere Akteure gewährleistet. 671 00:37:06,234 --> 00:37:10,600 Sondern er demokratisiert auch für sich selbst Zugang zu diesen Daten. 672 00:37:10,681 --> 00:37:12,987 Er wird selbst zum klugen Nutzer dieser Daten 673 00:37:13,068 --> 00:37:17,041 und kann damit eine bessere Politik für die Gesellschaft gestalten. 674 00:37:17,122 --> 00:37:19,208 Das bringt mich zu dem zweiten Aspekt: 675 00:37:19,289 --> 00:37:21,185 Die gesellschaftlichen Veränderungen, 676 00:37:21,266 --> 00:37:23,697 die mit einer Datengesellschaft einhergehen. 677 00:37:23,778 --> 00:37:28,256 Aus meiner Sicht fokussieren die Eckpunkte aktuell sehr stark 678 00:37:28,337 --> 00:37:33,028 auf Daten als Ressource, die man nutzen, erheben kann. 679 00:37:33,586 --> 00:37:39,554 Aber noch zu wenig auf den Aspekt der Wirkung dieser Daten. 680 00:37:40,592 --> 00:37:43,623 Ich plädiere deswegen dafür, dass wir uns bewusst machen: 681 00:37:43,704 --> 00:37:46,063 Alle technologischen Entwicklungen gehen immer 682 00:37:46,144 --> 00:37:50,611 mit gesellschaftlichen Veränderungen und Anpassungsprozessen einher. 683 00:37:50,692 --> 00:37:53,405 Es ist glaube ich außer Frage, dass wir Menschen alle 684 00:37:53,486 --> 00:37:55,634 von der Datennutzung profitieren können. 685 00:37:55,715 --> 00:37:57,792 Wenn wir ins Gesundheitswesen schauen, 686 00:37:57,873 --> 00:38:00,474 alles, was da möglich wird an neuen Erkenntnissen. 687 00:38:00,555 --> 00:38:05,194 Aber wir verändern mit dem Pfad einer Datengesellschaft 688 00:38:05,275 --> 00:38:09,675 auch die Art und Weise, wie wir Entscheidungen zukünftig treffen. 689 00:38:09,756 --> 00:38:13,302 Auf welche Art und Weise wir uns auf Informationen verlassen. 690 00:38:13,383 --> 00:38:16,508 Wir treten ein in Entscheidungen, die einfach sehr viel stärker 691 00:38:16,589 --> 00:38:19,403 datengeprägt sind und auf Analysen beruhen. 692 00:38:19,484 --> 00:38:21,454 Und das birgt auch Risiken. 693 00:38:21,974 --> 00:38:25,436 Zum einen, weil es bisher so war, dass einzelne Entscheidungen 694 00:38:25,517 --> 00:38:27,294 einzelne Personen betroffen haben. 695 00:38:27,375 --> 00:38:29,896 Legen wir aber Software und Algorithmen zugrunde, 696 00:38:29,977 --> 00:38:31,886 betrifft das immer eine große Gruppe. 697 00:38:31,967 --> 00:38:34,834 Damit einher geht eine größere Verantwortung. 698 00:38:34,915 --> 00:38:39,487 Jetzt wissen wir alle, wir Menschen sind kognitive Faulpelze. 699 00:38:39,568 --> 00:38:44,074 Wir hinterfragen ungerne Dinge, die logisch und sachlich erscheinen. 700 00:38:44,155 --> 00:38:47,624 Aber genau da liegt das Risiko in der Datengesellschaft. 701 00:38:47,705 --> 00:38:49,582 Wir laufen auch Gefahr, 702 00:38:49,663 --> 00:38:52,255 dass wir Automation Bias oder Data Bias aufsetzen. 703 00:38:52,336 --> 00:38:54,105 Dass wir nicht hinterfragen: 704 00:38:54,186 --> 00:38:57,219 Wie können wir mit dieser Herausforderung umgehen? 705 00:38:57,300 --> 00:39:00,661 Aus meiner Sicht müssen wir der Gesellschaft im Datenzeitalter 706 00:39:00,742 --> 00:39:02,805 die notwendigen Kompetenzen vermitteln. 707 00:39:02,886 --> 00:39:06,474 Der Ausbau von Digitalkompetenzen, vor allem Data Literacy, 708 00:39:06,555 --> 00:39:08,452 steht am Anfang der Bemühungen. 709 00:39:08,533 --> 00:39:11,600 So würde ich den Status Quo mal einsortieren. 710 00:39:12,167 --> 00:39:16,100 Die Vermittlung muss aber eine ganz obere Priorität haben. 711 00:39:16,181 --> 00:39:19,745 Und sie muss aus unserer Sicht auch rollenspezifisch erfolgen. 712 00:39:19,826 --> 00:39:21,994 Die Menschen, die mit Daten arbeiten, 713 00:39:22,075 --> 00:39:25,055 brauchen andere Kompetenz als zum Beispiel die Bevölkerung, 714 00:39:25,136 --> 00:39:26,787 die bestimmte Daten nutzt. 715 00:39:27,194 --> 00:39:31,657 Finnland ist mit einer guten Maßnahme vorangeschritten. 716 00:39:31,738 --> 00:39:34,541 Es hat sich ein ehrgeiziges, messbares Ziel gesetzt: 717 00:39:34,622 --> 00:39:38,474 Ein Prozent der Bevölkerung mit Grundkompetenzen 718 00:39:38,555 --> 00:39:41,257 im Bereich der Künstlichen Intelligenz auszustatten. 719 00:39:41,338 --> 00:39:43,532 Die Bevölkerung soll mitreden können, 720 00:39:43,613 --> 00:39:45,609 dass sie diese neuen Logiken versteht. 721 00:39:45,690 --> 00:39:47,824 Es hat auf EU-Ebene beschlossen, 722 00:39:47,905 --> 00:39:51,114 das Ganze für alle europäischen Länder zur Verfügung zu stellen. 723 00:39:51,195 --> 00:39:53,692 Deutschland übernimmt die Ratspräsidentschaft 724 00:39:53,773 --> 00:39:55,799 und könnte den klugen Weg fortsetzen, 725 00:39:55,880 --> 00:39:59,614 das Ganze um Komponenten der Data Literacy ergänzen. 726 00:39:59,695 --> 00:40:02,912 Und sicher kann man auch auf nationaler Ebene überlegen, 727 00:40:02,993 --> 00:40:05,572 dass es in der Vergangenheit schon Überlegungen gab, 728 00:40:05,653 --> 00:40:08,954 dass eine Zentrale für politische Bildung für gut befunden wurde. 729 00:40:09,035 --> 00:40:11,674 Vielleicht müssen wir auch bundesweit Aktivitäten 730 00:40:11,755 --> 00:40:14,754 Richtung einer Zentrale für digitale Bildung haben. 731 00:40:14,835 --> 00:40:15,835 Als Fazit: 732 00:40:15,916 --> 00:40:18,482 Die Erstellung einer Datenstrategie für Deutschland 733 00:40:18,563 --> 00:40:20,699 ist eine sehr, sehr sinnvolle Initiative. 734 00:40:20,780 --> 00:40:24,224 Auch, sie aus so vielen Perspektiven zu berücksichtigen. 735 00:40:24,305 --> 00:40:27,238 Denn darüber können wir das volle Potenzial 736 00:40:27,319 --> 00:40:29,914 für unser Land und unsere Gesellschaft heben. 737 00:40:29,995 --> 00:40:31,772 (Helge Braun) Vielen Dank. 738 00:40:31,853 --> 00:40:34,253 Dann Herr Dachwitz von netzpolik.org. 739 00:40:34,452 --> 00:40:36,930 (Ingo Dachwitz) Sehr geehrter Herr Minister Braun, 740 00:40:37,011 --> 00:40:39,992 sehr geehrte Frau Bär, vielen Dank für die Einladung. 741 00:40:40,073 --> 00:40:41,566 Ich freue mich sehr, 742 00:40:41,647 --> 00:40:44,565 heute eine zivilgesellschaftliche Perspektive einzubringen. 743 00:40:44,646 --> 00:40:46,103 Wir sollten nicht besprechen, 744 00:40:46,184 --> 00:40:48,751 wie wir mit noch mehr Daten Innovation ermöglichen. 745 00:40:48,832 --> 00:40:51,405 Ich würde aus dieser Perspektive lieber fokussieren, 746 00:40:51,486 --> 00:40:53,846 welche Innovationen wir als Gesellschaft wollen. 747 00:40:53,927 --> 00:40:56,805 Wie es mehr von der Art werden, die dem Gemeinwohl dienen. 748 00:40:56,886 --> 00:40:58,920 Daten sind in der digitalen Gesellschaft 749 00:40:59,001 --> 00:41:01,216 nicht nur Wirtschafts-, sondern Machtfaktor. 750 00:41:01,297 --> 00:41:04,632 Sie können der Ermächtigung vieler, aber auch ihrer Entmündigung dienen. 751 00:41:04,713 --> 00:41:06,576 Die Datenstrategie der Bundesregierung 752 00:41:06,657 --> 00:41:09,390 muss Ersteres ermöglichen und vor Zweiterem schützen. 753 00:41:09,471 --> 00:41:12,354 Oder wie der Chaos Computer Club es vor mehr als 30 Jahren 754 00:41:12,435 --> 00:41:14,059 in der Hackerethik formulierte: 755 00:41:14,140 --> 00:41:17,066 "Öffentliche Daten nützen, persönliche Daten schützen." 756 00:41:17,147 --> 00:41:19,999 Wenn heute die Rede von Daten ist, fühlen sich die meisten 757 00:41:20,080 --> 00:41:22,389 in Deutschland weder ermächtigt noch geschützt. 758 00:41:22,470 --> 00:41:24,847 Statt an Innovation denken sie an Geheimdienste, 759 00:41:24,928 --> 00:41:26,230 an Kriminelle, an Stalker, 760 00:41:26,311 --> 00:41:29,688 an das, was Shoshana Zuboff Überwachungskapitalismus nennt: 761 00:41:29,769 --> 00:41:33,294 Die unkontrollierte Analyse ihres Verhaltens durch Unternehmen. 762 00:41:33,375 --> 00:41:35,490 Die Datenstrategie soll Akzeptanz finden 763 00:41:35,571 --> 00:41:38,020 und ihr Ziel einer offenen Datenkultur erreichen. 764 00:41:38,101 --> 00:41:39,306 Dafür darf sie nicht nur 765 00:41:39,387 --> 00:41:42,145 nach der Infrastruktur und der Standardisierung fragen. 766 00:41:42,226 --> 00:41:43,812 Sie muss auch diesem Misstrauen 767 00:41:43,893 --> 00:41:46,148 in die Digitalwirtschaft und Politik begegnen. 768 00:41:46,229 --> 00:41:48,221 Ursachen liegen meiner Meinung nach aber 769 00:41:48,302 --> 00:41:50,781 in der bisherigen Datenpolitik der Regierung. 770 00:41:50,862 --> 00:41:53,772 Die Menschen sind verunsichert über spionierende Apps 771 00:41:53,853 --> 00:41:57,619 und datengetriebene Manipulation à la Cambridge Analytica. 772 00:41:57,700 --> 00:42:00,474 Währenddessen fordern prominente Regierungsmitglieder 773 00:42:00,559 --> 00:42:03,155 wie die Bundeskanzlerin oder der Gesundheitsminister 774 00:42:03,236 --> 00:42:04,239 die BürgerInnen auf: 775 00:42:04,320 --> 00:42:06,885 Sie sollen ihre Bedenken in Sachen Datenschutz 776 00:42:06,966 --> 00:42:09,776 über Bord werfen und freigiebiger mit ihren Daten werden. 777 00:42:09,857 --> 00:42:13,154 Gleichzeitig mauert der Staat dort, wo er selbst Daten geben soll. 778 00:42:13,235 --> 00:42:15,425 Halbherzig sind die Bemühungen der Regierung 779 00:42:15,506 --> 00:42:16,906 im Bereich Offenheit. 780 00:42:16,987 --> 00:42:19,969 Das schwache Open Data Gesetz bleibt weitgehend wirkungslos. 781 00:42:20,050 --> 00:42:22,313 Gleichzeitig blockiert das Bundesinstitut mit 782 00:42:22,394 --> 00:42:25,588 Urheberrechtsvorwürfen Aktivisten, die ein staatliches Gutachten 783 00:42:25,669 --> 00:42:28,444 zum Krebsrisiko von Glyphosat zugänglich machen wollten. 784 00:42:28,525 --> 00:42:31,428 Wenn Sie nach dem zentralen Problem beim Thema Datennutzung 785 00:42:31,509 --> 00:42:33,162 in Deutschland fragen, sage ich: 786 00:42:33,243 --> 00:42:35,043 Es ist Ihre eigene Politik. 787 00:42:35,124 --> 00:42:37,243 Wer von Daten nur als Rohstoff spricht, 788 00:42:37,324 --> 00:42:40,288 sie Öl oder Gold der Zukunft nennt, darf sich nicht wundern, 789 00:42:40,369 --> 00:42:42,995 dass Unternehmen sie lieber horten als zu teilen 790 00:42:43,076 --> 00:42:45,234 und auch Menschen an Datenausbeutung denken, 791 00:42:45,315 --> 00:42:47,866 wenn die Bundeskanzlerin von Datenreichtum spricht. 792 00:42:47,947 --> 00:42:51,377 Will die Bundesregierung die Probleme bei der Datennutzung beheben, 793 00:42:51,458 --> 00:42:55,058 braucht es nicht weniger als einen Paradigmenwechsel. 794 00:42:55,139 --> 00:42:57,234 Dazu können folgende Maßnahmen beitragen: 795 00:42:57,315 --> 00:42:58,315 Erstens: 796 00:42:58,396 --> 00:43:00,899 Eine Voraussetzung für eine offene Datenkultur ist, 797 00:43:00,980 --> 00:43:03,714 dass sie im Grundrecht auf Datenschutz Grenzen findet. 798 00:43:03,795 --> 00:43:05,706 Vertrauen erwirkt man durch Regeln 799 00:43:05,787 --> 00:43:07,541 und deren effiziente Durchsetzung. 800 00:43:07,622 --> 00:43:10,265 Wollen Sie, dass BürgerInnen Ihrer Datenstrategie 801 00:43:10,346 --> 00:43:12,354 und möglichen Datentreuhändern vertrauen? 802 00:43:12,435 --> 00:43:15,235 Dann ist der Datenschutz nicht Ihr Feind. 803 00:43:15,316 --> 00:43:16,316 Zweitens: 804 00:43:16,397 --> 00:43:19,348 Verabschieden Sie sich vom Fokus auf personenbezogene Daten. 805 00:43:19,429 --> 00:43:21,455 Silicon Valleys Überwachungskapitalismus 806 00:43:21,536 --> 00:43:22,939 hat in der EU keine Zukunft. 807 00:43:23,020 --> 00:43:25,588 Dieser gibt für die deutsche Wirtschaft keinen Sinn, 808 00:43:25,669 --> 00:43:29,879 weil deren Stärke in der Industrie, im Mittelstand und im Export liegen. 809 00:43:30,254 --> 00:43:32,538 Drittens: Damit diese Neuorientierung gelingt, 810 00:43:32,619 --> 00:43:35,674 braucht es erhebliche Anstrengungen im Bereich Anonymisierung. 811 00:43:35,755 --> 00:43:38,034 Von anonymisierten Daten zu reden, ist leicht. 812 00:43:38,115 --> 00:43:39,777 Sie aber herzustellen, ist schwer. 813 00:43:39,858 --> 00:43:41,934 Ohne in die technischen Details zu gehen: 814 00:43:42,015 --> 00:43:44,738 Die Forschung zeigt, langfristig sichere Anonymisierung 815 00:43:44,819 --> 00:43:47,445 gibt es eigentlich gar nicht, höchstens temporäre. 816 00:43:47,526 --> 00:43:50,369 Statt zu hoffen, dass man Datensätze durch Löschung von 817 00:43:50,450 --> 00:43:52,002 Identifiern anonymisieren kann, 818 00:43:52,083 --> 00:43:55,039 muss man Anonymisierung in Systemen und Prozessen denken, 819 00:43:55,120 --> 00:43:57,124 zu denen auch klare Löschfristen gehören. 820 00:43:57,205 --> 00:43:59,653 Hierfür braucht es Standards und Kontrolle 821 00:43:59,734 --> 00:44:03,034 und viel mehr Forschung, wie das praktisch umgesetzt werden kann. 822 00:44:03,115 --> 00:44:04,115 Viertens: 823 00:44:04,196 --> 00:44:08,094 Eine Voraussetzung für Datennutzung ist das Vertrauen aller Akteure 824 00:44:08,175 --> 00:44:10,446 in die Integrität der genutzten Infrastruktur. 825 00:44:10,527 --> 00:44:12,766 Das fällt schwer, solange die Bundesregierung 826 00:44:12,847 --> 00:44:15,239 auf der einen Seite IT-Sicherheit stärken will. 827 00:44:15,320 --> 00:44:18,781 Andererseits fordert sie Hintertüren zu verschlüsselten Datentransfers 828 00:44:18,862 --> 00:44:20,465 und will Staatstrojaner nutzen. 829 00:44:20,546 --> 00:44:22,447 Diese erfordern, dass staatliche Stellen 830 00:44:22,528 --> 00:44:24,826 Sicherheitslücken offen lassen und selbst horten. 831 00:44:24,907 --> 00:44:25,907 Fünftens: 832 00:44:25,988 --> 00:44:28,554 Soll der Staat Vorreiter in Sachen Open Data sein, 833 00:44:28,635 --> 00:44:31,582 ist der einzige Weg dahin ein echtes Transparenzgesetz. 834 00:44:31,663 --> 00:44:34,859 Staatliche Stellen müssen proaktiv und zeitnah Informationen 835 00:44:34,940 --> 00:44:37,525 und Daten in maschinenlesbarer Form veröffentlichen, 836 00:44:37,606 --> 00:44:40,334 die nicht aus sehr gutem Grund geheim bleiben müssen. 837 00:44:40,415 --> 00:44:41,415 Sechstens: 838 00:44:41,496 --> 00:44:45,107 Um mit der Open Data Kultur ernst zu machen, reicht ein Gesetz nicht aus. 839 00:44:45,188 --> 00:44:47,142 Es braucht einen Kulturwandel. 840 00:44:47,223 --> 00:44:50,670 Jedes Ministerium braucht eine Transparenz- und Open-Data-Strategie. 841 00:44:50,751 --> 00:44:54,270 Jede Behörde, jedes Unternehmen, Public Private Partnership 842 00:44:54,351 --> 00:44:56,873 auch die öffentlich-rechtlichen Rundfunkanstalten. 843 00:44:56,954 --> 00:44:59,278 Ebenso braucht es Personal, das dies umsetzt, 844 00:44:59,359 --> 00:45:01,905 Weiterbildung und klar definierte Arbeitsabläufe 845 00:45:01,986 --> 00:45:04,225 und entsprechende Tools zur Veröffentlichung. 846 00:45:04,306 --> 00:45:08,439 Ein Open Data Institut nach britischem Vorbild könnte helfen. 847 00:45:08,751 --> 00:45:09,751 Siebtens: 848 00:45:09,832 --> 00:45:12,101 Nutzung des Vergabe- und Beschaffungswesens 849 00:45:12,182 --> 00:45:14,340 als Steuerungsinstrument für eine offene 850 00:45:14,421 --> 00:45:16,353 und gemeinwohlorientierte Datenpolitik. 851 00:45:16,434 --> 00:45:18,514 Das hieße: Public Money, Public Good. 852 00:45:18,595 --> 00:45:21,989 Wo öffentliches Geld reinfließt, müssen offene Daten, 853 00:45:22,070 --> 00:45:24,223 offener Code und freies Wissen rausfließen. 854 00:45:24,615 --> 00:45:25,615 Achtens: 855 00:45:25,696 --> 00:45:27,184 Nutzen Sie auch die Forschungs-, 856 00:45:27,265 --> 00:45:29,720 Entwicklungs- und Wirtschaftsförderung als Instrument. 857 00:45:29,801 --> 00:45:32,241 Datenschutz, Open Data und Anonymisierungstechnologien 858 00:45:32,322 --> 00:45:35,161 sollten nicht wissenschaftliche Förderschwerpunkte sein. 859 00:45:35,242 --> 00:45:38,455 Sie könnten Kriterium in der Startup-Förderung werden. 860 00:45:38,536 --> 00:45:39,914 Und zuletzt, neuntens: 861 00:45:39,995 --> 00:45:43,825 Teilhabe aller an offener Datenkultur braucht mehr als nur Bildung. 862 00:45:43,906 --> 00:45:47,000 Es braucht Unterstützung für die klassische Zivilgesellschaft, 863 00:45:47,081 --> 00:45:49,834 selbst noch mehr Kompetenzen im Datenbereich aufzubauen. 864 00:45:49,915 --> 00:45:53,367 Und damit komme ich tatsächlich auch zu meiner abschließenden Bitte. 865 00:45:53,448 --> 00:45:57,354 Wenn Sie die bessere Nutzung von Daten zum Wohle aller wollen, 866 00:45:57,435 --> 00:45:59,740 wie es im Eckpunktepapier steht, 867 00:45:59,821 --> 00:46:03,041 dann reden Sie im Strategieprozess bitte auch diesen vielen. 868 00:46:03,122 --> 00:46:06,232 Sprechen Sie mit der Zivilgesellschaft. 869 00:46:06,313 --> 00:46:09,748 Ich weiß, dass ein Novum ist, dass ich für Netzpolitik hier bin. 870 00:46:09,829 --> 00:46:11,621 Es gibt aber noch mehr Kompetenz 871 00:46:11,702 --> 00:46:14,034 und Erfahrung der digitalen Zivilgesellschaft. 872 00:46:14,115 --> 00:46:16,568 Ich gebe Ihnen gerne eine Liste mit Kontakten 873 00:46:16,649 --> 00:46:19,768 und Empfehlungen von Organisationen, die Sie ansprechen können. 874 00:46:19,876 --> 00:46:21,577 (Helge Braun) Vielen Dank. 875 00:46:21,658 --> 00:46:23,534 Und dann Frau Dehmel, Bitkom. 876 00:46:25,602 --> 00:46:27,269 (Susanne Dehmel) Ja, vielen Dank. 877 00:46:27,350 --> 00:46:30,554 Was sind die Probleme der Datennutzung in Deutschland? 878 00:46:30,635 --> 00:46:33,348 Mit der Digitalisierung von den Daten, die wir haben, 879 00:46:33,429 --> 00:46:38,075 sind wir noch nicht so weit, wie wir sein wollen. 880 00:46:38,149 --> 00:46:43,334 Neben diesen allgemeinen Faktoren, gibt es natürlich genug, 881 00:46:43,415 --> 00:46:47,213 eigentlich schon genügend Daten, die genutzt werden können. 882 00:46:47,294 --> 00:46:49,653 Es passiert aber noch lange nicht in dem Umfang, 883 00:46:49,734 --> 00:46:51,740 der eigentlich für die Weiterentwicklung 884 00:46:51,821 --> 00:46:55,268 von Wirtschaft und Gesellschaft erforderlich wäre aus unserer Sicht. 885 00:46:55,349 --> 00:46:56,416 Woran liegt das? 886 00:46:56,801 --> 00:46:59,549 Ein großer Grund, er ist auch schon angeklungen, 887 00:46:59,630 --> 00:47:02,171 ist aus unserer Sicht Unsicherheit. 888 00:47:02,252 --> 00:47:05,146 Unsicherheit bei Unternehmen und auch bei Behörden. 889 00:47:05,227 --> 00:47:08,894 Die wissen gar nicht, was sie genau mit den Daten machen dürfen 890 00:47:08,975 --> 00:47:12,975 und in welchen Fällen sie sie teilen dürfen und wann nicht. 891 00:47:13,056 --> 00:47:15,072 Woraus ergibt sich diese Unsicherheit? 892 00:47:15,153 --> 00:47:18,594 Die entsteht zum großen Teil aus einer Rechtsunsicherheit, 893 00:47:18,675 --> 00:47:22,415 die insbesondere im Datenschutzrecht besteht. 894 00:47:23,494 --> 00:47:28,286 Die entspringt auch beim Stichwort „Datenteilen“ aus dem Kartellrecht. 895 00:47:28,367 --> 00:47:30,234 Und aus mangelnder Erfahrung 896 00:47:30,315 --> 00:47:35,220 in Bezug auf vertragliche Regelungen zur gemeinsamen Datennutzung. 897 00:47:35,301 --> 00:47:38,035 Wie man umgeht mit Geschäftsgeheimnissen 898 00:47:38,116 --> 00:47:41,941 und IP-Rechten in solchen Projekten. 899 00:47:42,274 --> 00:47:44,913 68% der deutschen Unternehmen sagen: 900 00:47:44,994 --> 00:47:48,087 Die Rechtsunsicherheit sei bei der Datenschutzgrundverordnung 901 00:47:48,234 --> 00:47:50,034 das größte Problem für sie. 902 00:47:50,115 --> 00:47:51,864 Und jedes siebte Unternehmen sagt: 903 00:47:51,945 --> 00:47:53,945 Innovative Projekte sind schon 904 00:47:54,026 --> 00:47:58,826 an unklaren oder entgegenstehenden Datenschutzvorschriften gescheitert. 905 00:47:59,425 --> 00:48:03,617 Der zweite Grund steht damit in engem Zusammenhang. 906 00:48:03,698 --> 00:48:05,994 Denn aus dieser Rechtsunsicherheit ergibt sich 907 00:48:06,075 --> 00:48:08,742 ein hohes auch wirtschaftliches Risiko. 908 00:48:08,881 --> 00:48:14,338 Wenn ich mir im Datenschutz auf der einen Seite nicht klar bin, 909 00:48:14,419 --> 00:48:17,088 wo liegen die Grenzen von bestimmten Regelungen? 910 00:48:17,169 --> 00:48:18,909 Was darf ich tatsächlich tun? 911 00:48:18,990 --> 00:48:22,723 Auf der anderen Seite habe ich bei Datenschutzverstößen 912 00:48:22,804 --> 00:48:26,634 mit Sanktionen in Millionenhöhe zu rechnen. 913 00:48:26,880 --> 00:48:29,954 Daraus… Und Ähnliches ist im Kartellrecht. 914 00:48:30,035 --> 00:48:32,947 Wenn ich dort was falsch mache, habe ich auch sofort 915 00:48:33,028 --> 00:48:38,914 mit großen Sanktionssummen und enormen Imageschäden zu kämpfen. 916 00:48:40,014 --> 00:48:41,230 Der dritte Grund: 917 00:48:41,311 --> 00:48:44,114 Auch die Daten, die wir eigentlich eben von Seiten 918 00:48:44,195 --> 00:48:48,462 gerade der öffentlichen Hand haben, die man frei nutzen könnte, 919 00:48:48,837 --> 00:48:52,440 da ist Bereitstellung und der Zugang noch zu wenig forciert. 920 00:48:52,521 --> 00:48:56,794 Unternehmen finden Daten, die sie suchen, im Zweifel nicht, 921 00:48:56,875 --> 00:48:59,915 weil es kein einheitliches Datenportal in Deutschland gibt. 922 00:48:59,996 --> 00:49:02,648 Es gibt keine einheitlichen Schnittstellen 923 00:49:02,729 --> 00:49:04,314 bei den vorhandenen Portalen. 924 00:49:04,395 --> 00:49:07,716 Es gibt auch wenig Orientierung bundeslandübergreifend. 925 00:49:07,797 --> 00:49:10,834 Und es fehlt einfach in vielen Behörden generell noch 926 00:49:10,915 --> 00:49:13,576 an einer gelebten Open Data Kultur. 927 00:49:14,094 --> 00:49:15,361 Was können wir tun? 928 00:49:15,442 --> 00:49:18,003 Eine Maßnahme wird sicherlich nicht reichen. 929 00:49:18,084 --> 00:49:21,634 Ich nenn zunächst eine: ich würde mir wünschen, 930 00:49:21,715 --> 00:49:24,584 dass die öffentliche Hand im Rahmen der Datenstrategie 931 00:49:24,665 --> 00:49:29,742 und Digitalisierungsstrategie eine Vorreiterrolle einnimmt. 932 00:49:29,823 --> 00:49:33,894 Sie muss bei der Verfügbarmachung von Daten vorantreiben, 933 00:49:33,975 --> 00:49:37,575 dass die Anbindung aller Open Data Portale 934 00:49:37,656 --> 00:49:42,699 an ein nationales Datenportal, an so eine Art Datenfonds geschieht. 935 00:49:42,974 --> 00:49:46,273 Sie muss Orientierung bieten, wo welche Daten zu finden sind. 936 00:49:46,354 --> 00:49:49,550 Sie muss die Prinzipien Open by Default, Open by Design 937 00:49:49,631 --> 00:49:53,099 aus dem Open Data Gesetz des Bundes konsequent verfolgen. 938 00:49:53,180 --> 00:49:57,780 Damit erzielt sie eine Hebelwirkung für eine Vielzahl von Sektoren 939 00:49:57,861 --> 00:50:02,069 und Unternehmen, die daraus dann Innovation ermöglichen können. 940 00:50:02,150 --> 00:50:05,885 Damit könnte man auch Erfahrungen im Umgang mit solchen Projekten 941 00:50:05,966 --> 00:50:09,474 und der Öffnung von Daten sammeln. 942 00:50:09,555 --> 00:50:14,434 Man kann im öffentlichen Sektor Nutzungsverträge etc. etablieren, 943 00:50:14,515 --> 00:50:17,870 die dann auch weiter genutzt werden können in anderen Bereichen. 944 00:50:17,951 --> 00:50:21,107 Parallel kann man das Problem der Rechtsunsicherheit angehen. 945 00:50:21,188 --> 00:50:23,674 Es gibt diese Konflikte. 946 00:50:23,934 --> 00:50:26,134 Da müssen wir gesetzlich was tun. 947 00:50:26,711 --> 00:50:28,994 Schaffung expliziter Erlaubnistatbestände 948 00:50:29,075 --> 00:50:33,208 für bestimmte Nutzung wie zum Beispiel Forschungsaktivitäten. 949 00:50:33,682 --> 00:50:36,093 Oder die Erleichterung der Nutzung 950 00:50:36,174 --> 00:50:38,527 von pseudonymisierten, anonymisierten Daten. 951 00:50:38,608 --> 00:50:43,034 Mehr Forschung, Förderung für diese technischen Verfahren 952 00:50:43,115 --> 00:50:45,065 zu mehr Datensicherheit sind wichtig. 953 00:50:45,146 --> 00:50:47,808 All das ist aus meiner Sicht vorrangig anzugehen. 954 00:50:47,889 --> 00:50:51,556 Bevor man über so eingriffsintensive Maßnahmen, 955 00:50:51,637 --> 00:50:56,977 wie zum Beispiel Datenzugangsrechte in der Breite der Wirtschaft andenkt. 956 00:50:57,058 --> 00:51:00,687 Wenn überhaupt kann man das bei bestehendem Marktversagen 957 00:51:00,768 --> 00:51:02,754 in einzelnen Sektoren andenken. 958 00:51:02,947 --> 00:51:03,947 Danke. 959 00:51:04,897 --> 00:51:06,454 (Helge Braun) Ja, vielen Dank. 960 00:51:06,535 --> 00:51:09,034 Die nächste Runde geht jetzt an die Wirtschaft. 961 00:51:09,115 --> 00:51:12,814 Und da beginnt Herr Post von Festo. 962 00:51:14,005 --> 00:51:17,258 (Peter Post) Ja, Herr Bundesminister, Frau Staatsministerin, 963 00:51:17,339 --> 00:51:19,154 sehr geehrte Damen und Herren. 964 00:51:19,235 --> 00:51:21,737 Ich habe mich sehr gefreut, dass wir heute hier 965 00:51:21,818 --> 00:51:24,408 auch aus Sicht der Plattform Industrie 4.0, 966 00:51:24,489 --> 00:51:28,124 einige Dinge zu diesem wichtigen Thema 967 00:51:28,205 --> 00:51:32,089 der gemeinsamen Datenstrategie beitragen können. 968 00:51:32,170 --> 00:51:34,790 Und ich möchte mich nahtlos an die Ausführungen 969 00:51:34,871 --> 00:51:36,714 von dem Herrn Otto anschließen. 970 00:51:36,795 --> 00:51:41,266 Die systematische Datennutzung und Integration datenbasierter Werkzeuge, 971 00:51:41,347 --> 00:51:44,934 das sind die Voraussetzung für langfristigen, nachhaltigen Erfolg 972 00:51:45,015 --> 00:51:46,921 auch deutscher Wirtschaftsunternehmen. 973 00:51:47,007 --> 00:51:50,581 und die erfolgreiche Umsetzung von Industrie 4.0-Anwendungen. 974 00:51:50,662 --> 00:51:54,595 Wir brauchen dieses, um Produktionsprozesse zu optimieren, 975 00:51:54,676 --> 00:51:56,954 im Detail bezogen auf verschiedene Kriterien. 976 00:51:57,035 --> 00:52:01,102 Um ganze Wertschöpfungsnetzwerke und Partner in den Netzwerken 977 00:52:01,183 --> 00:52:05,583 miteinander zu verbinden und neue Geschäftsmodelle zu entwickeln. 978 00:52:06,933 --> 00:52:10,701 Wir brauchen ein tragfähiges Konzept für die Sammlung, Speicherung 979 00:52:10,782 --> 00:52:14,266 und Auswertung der vielen Daten, die on premise entstehen. 980 00:52:14,347 --> 00:52:16,754 Um sie in der... On edge zu verarbeiten 981 00:52:16,835 --> 00:52:19,655 und in Cloud-Systemen und -lösungen zu verarbeiten. 982 00:52:19,736 --> 00:52:23,616 Und dabei ist Digital Trust die Grundvoraussetzung für neue, 983 00:52:23,697 --> 00:52:27,427 datenbasierte Lösungsansätze und diese Geschäftsmodelle. 984 00:52:27,508 --> 00:52:30,194 Wir brauchen eine vertrauenswürdige und sichere, 985 00:52:30,275 --> 00:52:32,615 aber auch leistungsfähige Dateninfrastruktur 986 00:52:32,696 --> 00:52:35,544 als Basis für Digitaltransformation in der Industrie. 987 00:52:35,625 --> 00:52:37,702 Das nicht nur hier in Deutschland, 988 00:52:37,783 --> 00:52:40,234 sondern auch darüber hinaus in Europa. 989 00:52:40,315 --> 00:52:43,545 Heute dominieren Cloud-Anbieter aus Amerika oder China 990 00:52:43,626 --> 00:52:46,608 mit schnell skalierenden Infrastrukturen den globalen Markt. 991 00:52:46,689 --> 00:52:49,879 Sowie viele Lösungen, die hier angeboten werden. 992 00:52:49,960 --> 00:52:52,219 Viele Privatpersonen und auch Unternehmen 993 00:52:52,300 --> 00:52:55,015 haben gleichermaßen ein mulmiges Gefühl. 994 00:52:55,096 --> 00:52:58,576 Wer macht ohne mein Wissen etwas mit meinen Daten? 995 00:52:58,854 --> 00:53:01,434 Kann ich morgen noch auf meine Daten zugreifen? 996 00:53:01,515 --> 00:53:03,362 Es fehlt das digitale Vertrauen. 997 00:53:03,443 --> 00:53:06,110 Und das ist hinderlich in der Umsetzung 998 00:53:06,191 --> 00:53:10,474 und dem Transfer von digitalen Lösungen in der Industrie. 999 00:53:11,094 --> 00:53:14,635 Deswegen unterstützt und fordert auch die Plattform Industrie 4.0 1000 00:53:14,716 --> 00:53:17,904 den Aufbau einer sicheren und verteilten Dateninfrastruktur 1001 00:53:17,985 --> 00:53:19,718 in Deutschland und Europa. 1002 00:53:19,994 --> 00:53:23,794 Wobei aus unserer Sicht mit GAIA-X ein Schritt in die richtige Richtung 1003 00:53:23,875 --> 00:53:29,114 einer souveränen Dateninfrastruktur angestoßen wurde. 1004 00:53:29,254 --> 00:53:32,997 Aber wir brauchen auch die anderen Akteure außerhalb der Industrie 1005 00:53:33,078 --> 00:53:35,834 als die bereits angesprochenen Zielgruppen. 1006 00:53:35,915 --> 00:53:39,020 Nämlich Verwaltung, Gesundheit, Mobilität und so weiter. 1007 00:53:39,101 --> 00:53:41,320 Sie müssen dringend ihren Beitrag leisten, 1008 00:53:41,401 --> 00:53:45,787 um von vornherein das ausreichende Skalierungspotenzial darzustellen. 1009 00:53:46,154 --> 00:53:48,943 Wir brauchen also eine vertrauenswürdige, eine sichere, 1010 00:53:49,024 --> 00:53:53,624 eine leistungs- und wettbewerbsfähige Dateninfrastruktur für Europa. 1011 00:53:53,705 --> 00:53:56,514 Eine, die sich an europäischen Werten orientiert. 1012 00:53:56,595 --> 00:53:57,595 Das heißt: 1013 00:53:57,676 --> 00:54:00,644 Europäischer Datenschutz, Authentizität und Vertrauen, 1014 00:54:00,725 --> 00:54:05,261 Modularität und die angesprochene Interoperabilität 1015 00:54:05,342 --> 00:54:09,604 von entsprechenden Komponenten. 1016 00:54:09,685 --> 00:54:12,403 Ganz wichtig ist hier die Datensouveränität. 1017 00:54:12,484 --> 00:54:15,074 Also die selbstbestimmte Kontrolle der Unternehmen, 1018 00:54:15,155 --> 00:54:19,794 aber auch Bürgerinnen und Bürger über ihre gespeicherten Daten. 1019 00:54:19,875 --> 00:54:24,353 Sowie die Entscheidung darüber, wer darauf zugreifen darf 1020 00:54:24,434 --> 00:54:25,434 und wer nicht. 1021 00:54:25,515 --> 00:54:29,160 Die Betonung liegt dabei auf offenen, aber sicheren Ökosystemen, 1022 00:54:29,241 --> 00:54:32,487 der durch Vielfalt und Pluralität und Dezentralität geprägten 1023 00:54:32,568 --> 00:54:36,278 mittelständischen Landschaft, die wir hier in Europa haben. 1024 00:54:36,429 --> 00:54:39,596 Eine leistungsfähige Infrastruktur ist die Voraussetzung 1025 00:54:39,677 --> 00:54:43,069 für die Verknüpfung millionenfacher intelligenter autonomer Systeme, 1026 00:54:43,248 --> 00:54:46,241 für die Implementierung der Lösungen, 1027 00:54:46,322 --> 00:54:49,662 die wir durch die Künstliche Intelligenz geboten kriegen. 1028 00:54:49,743 --> 00:54:51,543 Konkreten Nutzen sehen wir. 1029 00:54:51,624 --> 00:54:54,754 Ich möchte einfach drei ganz kurze Beispiele aufzeigen. 1030 00:54:54,835 --> 00:54:58,712 Den sicheren Austausch und die gemeinsame Nutzung von Maschinendaten 1031 00:54:58,793 --> 00:55:02,165 beim sogenannten Condition Monitoring zwischen allen Beteiligten: 1032 00:55:02,246 --> 00:55:03,903 Dem Komponentenhersteller, 1033 00:55:03,984 --> 00:55:06,489 dem Anlagenbauer und dem Anlagenbetreiber. 1034 00:55:06,783 --> 00:55:10,280 Die herstellerübergreifende Integration und Vernetzung 1035 00:55:10,361 --> 00:55:12,617 von autonomen intelligenten Komponenten 1036 00:55:12,698 --> 00:55:15,165 in heterogenen Produktionsumgebungen 1037 00:55:15,399 --> 00:55:18,614 für neue datenbasierte Mehrwertsysteme. 1038 00:55:18,695 --> 00:55:21,988 Die Verbesserung von Transparenz und Steuerungsfähigkeit 1039 00:55:22,074 --> 00:55:23,741 von komplexen Zulieferketten. 1040 00:55:23,822 --> 00:55:25,074 Ganz komplexe Systeme, 1041 00:55:25,155 --> 00:55:29,288 die hier effizienter arbeiten können durch Nutzung von Daten. 1042 00:55:29,900 --> 00:55:33,073 Und diese Daten müssen nicht nur sicher sein, 1043 00:55:33,154 --> 00:55:35,674 sondern es braucht eine digitale Infrastruktur, 1044 00:55:35,755 --> 00:55:39,344 die auf internationaler Offenheit und Partnerschaft basiert. 1045 00:55:39,425 --> 00:55:43,074 Für uns, hier spreche ich für die Plattform Industrie 4.0, 1046 00:55:43,159 --> 00:55:45,801 und für das Industrieunternehmen Festo. 1047 00:55:45,882 --> 00:55:49,434 Für uns sind Sicherheit und Vertrauen die Grundvoraussetzungen 1048 00:55:49,515 --> 00:55:52,395 für die erfolgreiche Umsetzung von neuen Geschäftsmodellen 1049 00:55:52,476 --> 00:55:55,395 mit einer transparenten Nutzung unterschiedlichster Daten 1050 00:55:55,476 --> 00:55:57,120 in einem verzahnten Ökosystem. 1051 00:55:57,201 --> 00:56:00,354 Und ich möchte zum Schluss nochmal hinweisen auf GAIA-X 1052 00:56:00,435 --> 00:56:02,635 als vernetzte Dateninfrastruktur, 1053 00:56:02,716 --> 00:56:05,219 als Wiege eines vitalen europäischen Ökosystems. 1054 00:56:05,300 --> 00:56:06,815 Wir haben begonnen damit. 1055 00:56:06,896 --> 00:56:08,866 Hoffentlich ist es damit nicht zu spät. 1056 00:56:08,947 --> 00:56:12,674 Ich hoffe, dass es gelingt, dass durch die gemeinsame Aktion 1057 00:56:12,755 --> 00:56:16,587 aller beteiligten Akteure hier Schlagkraft entwickelt wird, 1058 00:56:16,668 --> 00:56:19,002 damit wir diese Dinge voranbringen. 1059 00:56:19,426 --> 00:56:23,359 Wir brauchen auch außerhalb der Industrie weitere Akteure, 1060 00:56:23,440 --> 00:56:25,030 um dieses Thema voranzutreiben. 1061 00:56:25,111 --> 00:56:26,178 Herzlichen Dank. 1062 00:56:26,259 --> 00:56:28,407 (Helge Braun) Vielen, vielen Dank. 1063 00:56:28,488 --> 00:56:30,902 Jetzt Herr Peylo, Bosch. 1064 00:56:32,599 --> 00:56:36,012 (Christoph Peylo) Herr Minister Braun, Frau Staatsministerin Bär, 1065 00:56:36,093 --> 00:56:37,457 meine Damen und Herren. 1066 00:56:37,538 --> 00:56:38,889 Danke für die Einladung. 1067 00:56:38,970 --> 00:56:41,324 Ich versuche möglichst kompakt, 1068 00:56:41,405 --> 00:56:43,538 aber auch differenziert zu sein. 1069 00:56:43,619 --> 00:56:47,074 Die erste Frage betraf die Positionierung, 1070 00:56:47,155 --> 00:56:50,794 also Datennutzung und die zentralen Probleme. 1071 00:56:51,272 --> 00:56:55,672 Bei den Daten müssen wir zwischen zwei Datenarten differenzieren. 1072 00:56:56,246 --> 00:56:58,674 Einmal Daten als Eindrücke 1073 00:56:58,755 --> 00:57:01,343 oder Befunde aus Verhältnissen der physischen Welt. 1074 00:57:01,424 --> 00:57:03,502 Diese werden über Sensoren erfasst, 1075 00:57:03,583 --> 00:57:07,310 digitalisiert und können dann weiterverarbeitet werden. 1076 00:57:07,391 --> 00:57:09,874 Diese möchte ich als Primärdaten bezeichnen. 1077 00:57:09,955 --> 00:57:12,888 Da steht Deutschland gar nicht schlecht da. 1078 00:57:14,934 --> 00:57:19,029 Beispielhaft könnte man hier die Automobilindustrie 1079 00:57:19,149 --> 00:57:22,667 und Zulieferindustrie als Ganzes und die Bosch-Gruppe nennen. 1080 00:57:22,748 --> 00:57:28,093 Diese nimmt mit ihrer Sensorik eine sehr führende Position ein. 1081 00:57:28,174 --> 00:57:33,040 Deutschland ist in dem Bereich der Primärdatenerfassung gut aufgestellt. 1082 00:57:33,465 --> 00:57:38,794 Ich möchte das als Sekundär- oder als abgeleitete Daten bezeichnen. 1083 00:57:39,628 --> 00:57:42,958 Das sind Daten, die angereichert werden 1084 00:57:43,039 --> 00:57:47,690 durch Anreicherung und inhaltliche Weiterverarbeitung, 1085 00:57:47,771 --> 00:57:52,757 einschließlich Lern- und Schließprozesse, also so Reasoning. 1086 00:57:53,386 --> 00:57:56,319 Da ist das Bild wesentlich problematischer. 1087 00:57:57,264 --> 00:58:03,162 Das möchte ich im Wesentlichen als große Herausforderung nennen. 1088 00:58:03,390 --> 00:58:08,381 Auch dort, wo wir schon öffentliche Datenrepositorien haben, 1089 00:58:08,462 --> 00:58:11,954 die auch von der Wissenschaft zum Trainieren verwendet werden, 1090 00:58:12,035 --> 00:58:17,228 ist die Urheberschaft für jedes abgelegte Datum nicht immer klar. 1091 00:58:17,309 --> 00:58:20,842 Das gilt auch, wenn es Open Source Datenbanken sind. 1092 00:58:21,633 --> 00:58:26,974 Das heißt, aus Industrieperspektive kann das nicht verwendet werden. 1093 00:58:27,494 --> 00:58:31,674 International bringt es einen in eine schwierige Position, 1094 00:58:31,755 --> 00:58:33,774 wenn alle anderen so etwas verwenden. 1095 00:58:33,855 --> 00:58:37,954 Innerhalb von Deutschland oder als deutsches Unternehmen, 1096 00:58:38,035 --> 00:58:42,682 als europäisches Unternehmen, hat man einen echten Nachteil, 1097 00:58:42,763 --> 00:58:48,374 wenn man sich quasi als einziger "an die Regeln hält". 1098 00:58:48,704 --> 00:58:50,637 Das ist eine Herausforderung. 1099 00:58:51,593 --> 00:58:57,590 Öffentliche Datenrepositorien, die Daten beinhalten, 1100 00:58:57,671 --> 00:59:01,537 die man verwenden kann, wären ein sehr starkes Desiderat. 1101 00:59:01,618 --> 00:59:05,914 Dann die DSGVO, die wir grundsätzlich bejahen. 1102 00:59:05,995 --> 00:59:09,661 Das ist etwas sehr Gutes und ein mächtiges Instrument. 1103 00:59:10,640 --> 00:59:15,354 Hinsichtlich der Anwendung überfordert es aber noch manche. 1104 00:59:15,435 --> 00:59:21,396 Das hat Schwierigkeiten und erfordert viel Kompetenz, 1105 00:59:21,477 --> 00:59:25,210 eine aufwendige und komplexe Struktur zur Datenhaltung, 1106 00:59:25,291 --> 00:59:29,649 zur Datenspeicherung, auch Nichtmonotonie-Eigenschaften. 1107 00:59:29,730 --> 00:59:32,874 Das heißt also, ein Datum, das aus einem Trainingssatz war, 1108 00:59:32,955 --> 00:59:35,634 muss eventuell auch wieder entfernt werden. 1109 00:59:35,715 --> 00:59:40,711 Das macht diese Lern- und Trainingsprozesse sehr kompliziert 1110 00:59:41,930 --> 00:59:46,427 und damit auch sehr teuer und aufwendig. 1111 00:59:46,680 --> 00:59:50,481 Auch da wünschen wir uns ein dringendes Desiderat. 1112 00:59:50,562 --> 00:59:53,805 Ich glaube, das ist nicht nur im Sinne der Industrie, 1113 00:59:53,886 --> 00:59:56,629 sondern auch der Wissenschaft und Forschung. 1114 00:59:56,710 --> 01:00:01,379 Es muss Handreichungen geben, die einen kompakten Überblick 1115 01:00:01,460 --> 01:00:04,354 über die Erwartungen der Aufsichtsbehörden geben. 1116 01:00:04,435 --> 01:00:06,394 Sie sollen Best Practices vorstellen, 1117 01:00:06,475 --> 01:00:08,722 an denen man sich entlanghangeln kann. 1118 01:00:08,803 --> 01:00:10,691 Das würde unglaublich viel helfen. 1119 01:00:10,772 --> 01:00:13,494 Dann als dritte Herausforderung: 1120 01:00:14,371 --> 01:00:16,385 Man muss diagnostizieren, 1121 01:00:16,466 --> 01:00:21,294 dass es uns insgesamt bei geeigneter Infrastruktur fehlt. 1122 01:00:22,692 --> 01:00:28,074 Bei dem Wachstum von der KI und der Durchbruch von KI 1123 01:00:28,155 --> 01:00:29,888 in ganz vielen Anwendungen 1124 01:00:29,969 --> 01:00:34,094 gab es materielle Grundlagen, die das verstärkt haben. 1125 01:00:34,346 --> 01:00:36,334 Speicher ist billig geworden. 1126 01:00:36,446 --> 01:00:39,339 Rechenkapazität ist billig geworden. 1127 01:00:39,420 --> 01:00:42,220 Und auch die Verbindungen, also Internet. 1128 01:00:43,821 --> 01:00:46,874 International, im Vergleich zur Relation zu anderen, 1129 01:00:46,955 --> 01:00:51,237 hat sich hier unsere Lage und die Kostenposition verschlechtert. 1130 01:00:51,318 --> 01:00:57,195 Das heißt, diese Grundlagen, die dieses Wachstum beflügelt haben, 1131 01:00:57,276 --> 01:01:00,774 geschaffen haben, die gehen uns jetzt verloren. 1132 01:01:01,246 --> 01:01:05,180 Auch an dieser Stelle müsste dringend nachjustiert werden. 1133 01:01:08,094 --> 01:01:12,294 Zu den Maßnahmen, die also unbedingt getroffen werden sollten, 1134 01:01:12,375 --> 01:01:16,945 um die angesprochenen Herausforderungen lösen zu können: 1135 01:01:17,198 --> 01:01:23,114 Ich empfehle die Weiterentwicklung des geltenden Rechts 1136 01:01:23,694 --> 01:01:29,614 in der Form, dass Open Data Ansätze, dass der Zugang erleichtert wird. 1137 01:01:29,695 --> 01:01:35,679 Das gilt gerade für Daten, die von der öffentlichen Hand erhoben wurden. 1138 01:01:35,760 --> 01:01:39,884 Um den Austausch von Daten von Unternehmen 1139 01:01:40,410 --> 01:01:46,234 oder Wirtschaftsgruppen zu erhöhen, müssen die kartellrechtlichen Grenzen 1140 01:01:46,315 --> 01:01:50,374 von Datenkooperationen geklärt und erweitert werden. 1141 01:01:51,261 --> 01:01:54,252 Dann ganz dringend, ich hatte es vorher schon angesprochen, 1142 01:01:54,333 --> 01:01:58,541 eben diese Förderung rechtskonformer öffentlicher Datenrepositorien. 1143 01:01:58,622 --> 01:02:03,022 Das nicht nur für die Wirtschaft, sondern auch für die Forschung, 1144 01:02:03,103 --> 01:02:07,177 die sicher internationale Benchmarks braucht. 1145 01:02:07,258 --> 01:02:11,253 Deshalb braucht ee Datenrepositorien, auf die alle zugreifen können. 1146 01:02:11,334 --> 01:02:12,734 Das ist sehr wichtig. 1147 01:02:12,897 --> 01:02:17,278 Natürlich dann der bundesweite Ausbau der digitalen Infrastruktur, 1148 01:02:18,421 --> 01:02:24,413 um eben die materiellen Grundlagen für die Datenökonomie zu sichern 1149 01:02:25,290 --> 01:02:31,193 und eben die Veröffentlichung von Best Practices für die DSGVO. 1150 01:02:31,274 --> 01:02:35,074 Das reicht nicht nur, wenn man eigentlich einen tollen Ansatz hat. 1151 01:02:35,155 --> 01:02:37,821 Wenn er kompliziert ist, muss er auch erklärt werden. 1152 01:02:37,902 --> 01:02:40,754 Diese Best Practices zu veröffentlichen 1153 01:02:40,835 --> 01:02:46,494 und da mehr Handreichungen zu geben, ist auch ein wichtiges Desiderat. 1154 01:02:46,879 --> 01:02:47,879 Vielen Dank. 1155 01:02:49,287 --> 01:02:53,354 (Helge Braun) Danke schön, dann Herr Karlitschek, Nextcloud. 1156 01:02:54,039 --> 01:02:55,772 (Frank Karlitschek) Vielen Dank. 1157 01:02:55,853 --> 01:02:58,087 Sehr geehrter Herr Minister, Frau Ministerin, 1158 01:02:58,168 --> 01:03:00,824 ich freue mich sehr, heute hier sein zu dürfen, 1159 01:03:00,905 --> 01:03:04,494 insbesondere als Vertreter von Nextcloud. 1160 01:03:04,934 --> 01:03:07,592 Nextcloud ist ja auch Lieferant der Bundesverwaltung. 1161 01:03:07,673 --> 01:03:08,994 Wir sind damit befasst, 1162 01:03:09,075 --> 01:03:12,747 die Daten der Bundesverwaltung zu speichern und zu verarbeiten. 1163 01:03:12,828 --> 01:03:16,694 Deswegen finde ich das Thema auch noch sehr interessant für uns. 1164 01:03:16,775 --> 01:03:20,134 Man muss leider sagen, dass Deutschland zurückhinkt, 1165 01:03:20,215 --> 01:03:23,734 genauso wie Europa, im Bereich KI, Cloud Computing, 1166 01:03:24,174 --> 01:03:27,952 Datennutzung und Digitalisierung insgesamt. 1167 01:03:28,033 --> 01:03:31,634 Wir sind hier in einem Aufholrennen 1168 01:03:31,715 --> 01:03:35,394 mit dem internationalen Wettbewerb, speziell USA und China. 1169 01:03:35,475 --> 01:03:39,208 Wir sollten allerdings bei dieser Aufholjagd versuchen, 1170 01:03:39,289 --> 01:03:42,574 uns auf unsere Stärken zu besinnen. 1171 01:03:42,818 --> 01:03:46,575 Wir müssen schauen, dass wir nicht einfach nur stumpf andere kopieren 1172 01:03:46,656 --> 01:03:48,833 und denken, dann würde es funktionieren. 1173 01:03:48,914 --> 01:03:51,234 Wir müssen uns auf unsere Stärken konzentrieren 1174 01:03:51,315 --> 01:03:53,167 und dann haben wir eine Chance. 1175 01:03:53,248 --> 01:03:58,411 Ich habe drei Bereiche rausgegriffen, wo ich darauf eingehen möchte. 1176 01:03:58,712 --> 01:04:01,195 Das erste ist dezentrale Systeme. 1177 01:04:01,839 --> 01:04:05,634 Wir sollten nicht versuchen, zentrale Datentöpfe, 1178 01:04:05,715 --> 01:04:10,448 zentrale Datensilos zu schaffen, wie in den USA, in China existierend. 1179 01:04:10,642 --> 01:04:14,645 Wir müssen beachten, wie Deutschland und Europa strukturiert ist 1180 01:04:14,726 --> 01:04:18,508 und wie die Wirtschaft, speziell der Mittelstand, hier funktioniert. 1181 01:04:18,589 --> 01:04:22,974 Da sind dezentrale Systeme eigentlich der bessere Ansatz. 1182 01:04:23,374 --> 01:04:28,554 Es ist ein Missverständnis zu denken, dass effiziente Datennutzung 1183 01:04:28,635 --> 01:04:32,968 und Künstliche Intelligenz riesige zentrale Datentöpfe brauchen. 1184 01:04:33,049 --> 01:04:34,582 Das ist nicht der Fall. 1185 01:04:35,523 --> 01:04:39,256 Der zweite Punkt ist: Offene Standards und Open Source. 1186 01:04:40,011 --> 01:04:44,811 Nur durch offene Standards können Daten auch vernünftig geteilt werden. 1187 01:04:44,892 --> 01:04:49,425 Nur durch Open Source kommt es zu einer Demokratisierung von allen, 1188 01:04:49,506 --> 01:04:51,640 speziell auch des Mittelstandes. 1189 01:04:51,721 --> 01:04:55,713 So hat eben jeder die Möglichkeit, die Daten auch entsprechend zu nutzen 1190 01:04:55,794 --> 01:04:59,593 und auch teilzuhaben an diesem neuen Datenökosystem. 1191 01:04:59,674 --> 01:05:02,469 Es gibt noch weitere positive Aspekte von Open Source: 1192 01:05:02,550 --> 01:05:06,261 Nämlich, dass man überprüfen kann, was passiert überhaupt mit den Daten. 1193 01:05:06,342 --> 01:05:08,250 Gibt es hier irgendwo Missbrauch? 1194 01:05:08,331 --> 01:05:10,834 Oder fließen Daten wohin, wo man es nicht möchte? 1195 01:05:10,915 --> 01:05:13,454 Das ist nur mit Open Source möglich. 1196 01:05:14,542 --> 01:05:18,075 Das zweite ist... Nein, das dritte ist der Datenschutz. 1197 01:05:18,156 --> 01:05:19,889 Privatsphäre, Datenschutz. 1198 01:05:19,970 --> 01:05:23,289 Man hört immer wieder, dass es ein Wettbewerbsnachteil wäre, 1199 01:05:23,370 --> 01:05:26,939 der KI und vernünftige Datennutzung verhindert: 1200 01:05:27,020 --> 01:05:31,853 Unsere DSGVO und unser hohes Verständnis für Datenschutz. 1201 01:05:31,934 --> 01:05:35,734 Ich möchte hier die gegenteilige Position einnehmen. 1202 01:05:35,874 --> 01:05:40,094 Ich würde sagen, man kann das als Wettbewerbsvorteil sehen. 1203 01:05:40,175 --> 01:05:41,175 Man kann sagen: 1204 01:05:41,256 --> 01:05:44,090 Es ist eine Riesenchance für die europäische Industrie, 1205 01:05:44,171 --> 01:05:46,278 hier einen Wettbewerbsvorteil zu haben. 1206 01:05:46,359 --> 01:05:48,223 Wenn man sich gut aufgestellt. 1207 01:05:48,304 --> 01:05:51,237 Praktisches Beispiel: Selbstfahrende Autos. 1208 01:05:51,318 --> 01:05:54,452 Man stellt sich vor, unsere Automobilindustrie 1209 01:05:54,533 --> 01:05:57,389 würde ein Auto auf den Markt bringen, 1210 01:05:57,470 --> 01:06:01,954 was keine nach innen gerichtete Kamera hat, wie bei Teslas. 1211 01:06:02,035 --> 01:06:07,614 Oder was Daten entsprechend datensparsam sammelt und verarbeitet, 1212 01:06:08,294 --> 01:06:11,174 vielleicht dezentral dem Nutzer zur Verfügung stellt. 1213 01:06:11,255 --> 01:06:16,576 Anderes Beispiel ist IoT oder Industrie 4.0, wo man sagt: 1214 01:06:16,657 --> 01:06:18,739 Naja, vielleicht sammelt man die Daten, 1215 01:06:18,820 --> 01:06:22,414 wie gerade angesprochen, aber man verarbeitet sie in Edge Clouds. 1216 01:06:22,495 --> 01:06:26,159 Es muss nicht alles zentral sein. Es kann auch dezentral funktionieren. 1217 01:06:26,240 --> 01:06:31,454 Man kann da einen Wettbewerbsvorteil daraus generieren. 1218 01:06:31,894 --> 01:06:33,627 Ich bin eigentlich sicher, 1219 01:06:33,708 --> 01:06:39,334 dass man da auf offene Ohren stößt, in Europa und außerhalb von Europa. 1220 01:06:40,494 --> 01:06:44,314 Meine Zusammenfassung wurde mir von Herrn Dachwitz vorweggenommen, 1221 01:06:44,395 --> 01:06:46,822 nämlich das Motto des Chaos Computer Clubs: 1222 01:06:46,903 --> 01:06:50,237 "Öffentliche Daten nützen, private Daten schützen." 1223 01:06:50,318 --> 01:06:51,318 Vielen Dank. 1224 01:06:51,834 --> 01:06:53,500 (Helge Braun) Danke schön. 1225 01:06:53,874 --> 01:06:59,134 So, aus der Wirtschaft jetzt Herr Shamsi von Datarade. 1226 01:07:03,321 --> 01:07:06,721 (Thani Shamsi) Herr Bundesminister Braun, Frau Staatsministerin Bär. 1227 01:07:06,802 --> 01:07:09,314 Ich freue mich sehr, eingeladen worden zu sein 1228 01:07:09,395 --> 01:07:11,234 und heute hier zu sein. 1229 01:07:11,315 --> 01:07:14,685 Ich bin Mitgründer und Geschäftsführer der Datarade. 1230 01:07:14,766 --> 01:07:18,499 Wir sind ein globaler Matchmaker für kommerzielle Daten 1231 01:07:18,634 --> 01:07:22,174 und auch Mitglied des KI-Bundesverbandes in Deutschland. 1232 01:07:22,774 --> 01:07:25,826 Ich würde die beiden Fragen getrennt voneinander beantworten. 1233 01:07:25,907 --> 01:07:28,589 Wo stehen wir heute aus meiner Sicht 1234 01:07:28,670 --> 01:07:32,154 oder aus unserer Sicht zum Thema Datennutzung in Deutschland? 1235 01:07:32,235 --> 01:07:34,674 Die Studien zur Datennutzung gehen ehrlich gesagt 1236 01:07:34,755 --> 01:07:37,330 weit auseinander und sind sehr widersprüchlich. 1237 01:07:37,411 --> 01:07:39,439 Eine Studie von TERRA Data aus 2017 sagt: 1238 01:07:39,520 --> 01:07:43,194 Deutschland, deutsche Unternehmen sind internationale Spitzenreiter 1239 01:07:43,275 --> 01:07:45,092 im Bereich Big Data und Analytics. 1240 01:07:45,173 --> 01:07:47,409 Das Institut der Deutschen Wirtschaft 1241 01:07:47,490 --> 01:07:49,554 nennt Big Data Neuland für Unternehmen. 1242 01:07:49,635 --> 01:07:52,114 Denn laut deren Unternehmensbefragung 2019, 1243 01:07:52,195 --> 01:07:55,915 führen nur acht Prozent der deutschen Unternehmen Big Data Analysen durch. 1244 01:07:55,996 --> 01:07:59,634 Ich glaube, ich habe hier auch schon andere Studienergebnisse gehört. 1245 01:07:59,715 --> 01:08:02,714 Aus unserer Sicht als global agierende Datenfirma 1246 01:08:02,795 --> 01:08:05,720 gibt es eine Datennutzungsschere in Deutschland. 1247 01:08:05,801 --> 01:08:07,714 So würde ich es jetzt mal beschreiben. 1248 01:08:07,795 --> 01:08:09,580 Auf der einen Seite sehen wir 1249 01:08:09,661 --> 01:08:13,074 extrem ambitionierte Startup-Projekte und auch Softwareunternehmen. 1250 01:08:13,155 --> 01:08:15,719 Die bauen innovative und datengetriebene 1251 01:08:15,800 --> 01:08:17,798 Geschäftsmodelle und Technologien auf. 1252 01:08:17,879 --> 01:08:22,746 Wie zum Beispiel Celonis, Datameer, Exasol, eine Zeotap, scoutbee 1253 01:08:22,827 --> 01:08:26,241 oder SAP oder die Gesundheitscloud, um nur einige zu nennen. 1254 01:08:26,322 --> 01:08:29,593 Auf der anderen Seite traditionelle mittelständische Unternehmen, 1255 01:08:29,674 --> 01:08:32,788 die sich noch im Prozess der Digitalisierung befinden. 1256 01:08:32,869 --> 01:08:34,261 Die müssen überhaupt erst 1257 01:08:34,342 --> 01:08:37,474 Strukturen zur internen Datengewinnung und -nutzung schaffen. 1258 01:08:37,555 --> 01:08:40,289 Das führt aus unserer Sicht diesen Herausforderungen: 1259 01:08:40,370 --> 01:08:43,177 Weniger deutsche Unternehmen zeigen sich bereit, 1260 01:08:43,258 --> 01:08:47,274 ihre internen Daten zu teilen und externe Daten zum Beispiel zu nutzen. 1261 01:08:47,355 --> 01:08:50,166 Das wirkt sich auf das Datenangebot aus. 1262 01:08:50,247 --> 01:08:53,062 Aus unserer internen Forschung als Firma kommen auf 1263 01:08:53,143 --> 01:08:58,010 einen Datenanbieter in Deutschland zehn Datenanbieter in den USA allein. 1264 01:08:58,091 --> 01:08:59,624 Zweite Herausforderung: 1265 01:08:59,705 --> 01:09:01,983 Es gibt einen erschwerten Zugang zu Daten. 1266 01:09:02,064 --> 01:09:04,149 Kommerzielle wie öffentliche Datenangebote 1267 01:09:04,230 --> 01:09:07,909 sind teilweise nur sehr schwer auffindbar, kaum standardisiert. 1268 01:09:07,990 --> 01:09:10,510 Dadurch sind sie aufwendig auch in der Einbindung 1269 01:09:10,591 --> 01:09:12,954 und Integration mit internen Datenbeständen. 1270 01:09:13,035 --> 01:09:17,568 Das Open Data Portal der USA fasst 260.000 verschiedene Datensätze, 1271 01:09:17,649 --> 01:09:19,510 habe ich gestern nachgeschaut. 1272 01:09:19,591 --> 01:09:25,394 Das Open Data Portal der EU nur 14.000, also circa 20 Mal weniger. 1273 01:09:25,475 --> 01:09:29,944 Heißt das, dass wir weniger Daten in der EU haben? Ich glaube nicht. 1274 01:09:30,025 --> 01:09:31,053 Und drittens: 1275 01:09:31,477 --> 01:09:34,914 Ja, ich glaube, eine Herausforderung ist ein Fachkräftemangel. 1276 01:09:34,995 --> 01:09:38,763 Selbst wenn interne und externe Daten vorliegen, Infrastrukturen vorliegen, 1277 01:09:38,844 --> 01:09:41,716 fehlen vielen deutschen Unternehmen das Fachwissen 1278 01:09:41,797 --> 01:09:44,416 und auch die Kompetenzen im Bereich Big Data und KI. 1279 01:09:44,497 --> 01:09:47,640 Fachkräfte, wie Data Scientists oder Machine Learning Engineers 1280 01:09:47,721 --> 01:09:51,714 die aus Daten Informationen und Wissen und Intelligenz gewinnen. 1281 01:09:51,795 --> 01:09:53,661 Kommen wir zu den Maßnahmen. 1282 01:09:53,742 --> 01:09:56,742 Und hier würde ich auch sehr konkret werden. 1283 01:09:56,823 --> 01:09:58,423 Wir wollen Spitzenreiter 1284 01:09:58,504 --> 01:10:01,434 im Bereich Datennutzung und KI in Deutschland werden. 1285 01:10:01,515 --> 01:10:05,781 Dafür muss der freie Datenverkehr nicht personenbezogener Daten 1286 01:10:05,862 --> 01:10:09,635 zur Priorität und 5. Grundfreiheit des EU-Binnenmarkts werden. 1287 01:10:09,716 --> 01:10:12,754 Die rechtliche, technische und finanzielle Implementierung 1288 01:10:12,835 --> 01:10:16,007 benötigt eine enge Zusammenarbeit zwischen Staat, Wirtschaft, 1289 01:10:16,088 --> 01:10:18,752 Forschung, Verbänden und Zivilgesellschaft. 1290 01:10:18,833 --> 01:10:21,233 Handlungsempfehlungen, ganz konkret: 1291 01:10:21,314 --> 01:10:24,476 Wir müssen mehr Datentransparenz mit Initiativen schaffen, 1292 01:10:24,557 --> 01:10:27,691 die Auffindbarkeit und Zugang zu öffentlichen, 1293 01:10:27,772 --> 01:10:31,074 sowie kommerziell verfügbaren Daten fördern und fordern. 1294 01:10:31,155 --> 01:10:33,514 Fangen wir ganz konkret beim Handelsregister an. 1295 01:10:33,595 --> 01:10:37,461 Unternehmensdaten sind extrem wertvoll für KYC-Prozesse, 1296 01:10:37,542 --> 01:10:40,942 Fraud Prevention und auch b2b-Vertriebsplanung. 1297 01:10:41,103 --> 01:10:45,274 Daten sind über handelsregister.de einzeln abrufbar, 1298 01:10:45,355 --> 01:10:47,396 teilweise halt auch gebührenpflichtig. 1299 01:10:47,477 --> 01:10:49,918 Sie sind jedoch weder maschinell anbindbar, 1300 01:10:49,999 --> 01:10:54,074 zum Beispiel über eine API, noch lizenztechnisch weiterwendbar. 1301 01:10:54,155 --> 01:10:56,074 Ich sage Ihnen aus unserer Erfahrung: 1302 01:10:56,155 --> 01:10:59,378 Solche Unternehmensdaten gehören zu den wertvollsten Daten, 1303 01:10:59,459 --> 01:11:02,502 die Unternehmen in Deutschland nutzen wollen und müssen. 1304 01:11:02,583 --> 01:11:05,634 Zweitens müssen wir gemeinsam Datenstandards schaffen, 1305 01:11:05,715 --> 01:11:08,422 die den freien Austausch von Daten ermöglichen. 1306 01:11:08,503 --> 01:11:11,690 Sie müssen auch die Integration mit Datenquellen erleichtern. 1307 01:11:11,771 --> 01:11:15,104 Nehmen wir wieder Unternehmensdaten als Beispiel. 1308 01:11:15,185 --> 01:11:17,554 Es existiert kein offener und stabiler 1309 01:11:17,635 --> 01:11:19,415 Identifikator für Unternehmen. 1310 01:11:19,496 --> 01:11:23,696 Das erschwert Datenpflege und Austausch von Unternehmensdaten. 1311 01:11:23,894 --> 01:11:26,754 Hier ist die Privatwirtschaft auf proprietäre Standards 1312 01:11:26,835 --> 01:11:28,616 angewiesen und auch abhängig, 1313 01:11:28,697 --> 01:11:31,871 wie zum Beispiel von der D-U-N-S-Number von Dun & Bradstreet. 1314 01:11:31,952 --> 01:11:36,229 Drittens müssen wir gemeinsam mehr positive Aufmerksamkeit, 1315 01:11:36,310 --> 01:11:38,976 Investitionen und Inspirationen fördern 1316 01:11:39,057 --> 01:11:42,494 im Bereich Daten, KI-Forschung, datengetriebener Innovationsprojekte, 1317 01:11:42,575 --> 01:11:45,850 neuartigen Datentechnologien und Anwendungsfällen. 1318 01:11:45,931 --> 01:11:49,137 Auch die verstärkte Zusammenarbeit zwischen Technologie-Startups 1319 01:11:49,218 --> 01:11:52,155 und etablierten Unternehmen kann dazu beitragen, 1320 01:11:52,236 --> 01:11:55,374 dass die Datennutzungsschere sich schließt. 1321 01:11:55,455 --> 01:11:56,455 Vielen Dank. 1322 01:11:57,639 --> 01:11:59,305 (Helge Braun) Danke schön. 1323 01:11:59,386 --> 01:12:02,254 So, jetzt kommt die Runde Government. 1324 01:12:02,335 --> 01:12:06,601 Es beginnt der Bundes- datenschutzbeauftragte, Herr Kelber. 1325 01:12:06,682 --> 01:12:08,149 (Ulrich Kelber) Guten Morgen. 1326 01:12:08,230 --> 01:12:10,269 Danke für die Einladung, die Möglichkeit, 1327 01:12:10,350 --> 01:12:14,843 Einschätzungen und Empfehlungen aus Sicht des Datenschutzes zu geben. 1328 01:12:14,924 --> 01:12:19,954 Die Datenstrategie muss, zumindest was personenbeziehbare Daten angeht, 1329 01:12:20,174 --> 01:12:24,707 zwingend eine klare und positive Linie beim Datenschutz beinhalten. 1330 01:12:24,788 --> 01:12:27,974 Datenschutz ist in Europa von den Grundrechten abgeleitet 1331 01:12:28,055 --> 01:12:29,721 und daher nicht optional. 1332 01:12:29,802 --> 01:12:33,069 Schon das schließt eine Kopie der Datenstrategie 1333 01:12:33,150 --> 01:12:36,688 wie in den Vereinigten Staaten oder in China zum Glück aus. 1334 01:12:36,769 --> 01:12:40,314 Wenn das ein Faktum ist, dann ist die beste Schlussfolgerung: 1335 01:12:40,395 --> 01:12:43,154 Wir sollten den Datenschutz als Innovationsmotor 1336 01:12:43,235 --> 01:12:46,154 einer Digitalisierung Made in Germany nutzen. 1337 01:12:46,235 --> 01:12:49,587 Die technische Entwicklung bestimmt eigentlich die Fragestellung 1338 01:12:49,668 --> 01:12:53,234 nach den Schwierigkeiten und den Herausforderungen der Datennutzung. 1339 01:12:53,315 --> 01:12:55,594 Bereits heute sind personenbezogene Daten 1340 01:12:55,675 --> 01:12:59,514 nicht mehr auf ein paar Informationen über eine Person beschränkt. 1341 01:12:59,595 --> 01:13:03,115 Sie ermöglichen ein vollständiges Abbild der Familie und Freunde, 1342 01:13:03,196 --> 01:13:05,834 Ausbildung und Arbeit, Hobbys, Krankheiten, 1343 01:13:05,915 --> 01:13:08,649 Vorlieben, Schwächen, Bewegungsradius, Einkäufe, 1344 01:13:08,730 --> 01:13:13,523 politische, religiöse Einstellung, sexuelle Identität, Gemütszustand. 1345 01:13:13,604 --> 01:13:17,271 Diese Verschränkung und gegenseitige Beeinflussung von 1346 01:13:17,352 --> 01:13:21,915 nicht digitalem und digitalem Leben beschreibt die besondere Bedeutung. 1347 01:13:21,996 --> 01:13:24,914 Die technische Entwicklung hat dazu geführt, 1348 01:13:24,995 --> 01:13:27,741 dass diese Daten dauerhaft gespeichert werden können 1349 01:13:27,822 --> 01:13:30,834 und jederzeit in Echtzeit neu ausgewertet werden können. 1350 01:13:30,915 --> 01:13:35,781 Erst diese Entwicklungen machen den Wert der personenbezogenen Daten aus 1351 01:13:36,334 --> 01:13:40,467 und schaffen eine Form von bisher nicht gekannter Transparenz 1352 01:13:40,548 --> 01:13:45,493 gegenüber Privatunternehmen und gegenüber Wissenschaft und Staat. 1353 01:13:45,574 --> 01:13:48,874 Das hat viele Vorteile, sie sind hier beschrieben worden, 1354 01:13:48,955 --> 01:13:50,754 was damit erreicht werden kann. 1355 01:13:50,835 --> 01:13:54,354 Wir müssen natürlich auch die Gefahr erkennen: 1356 01:13:54,435 --> 01:13:57,994 Aus dieser Datennutzung der Person können nicht nur Beobachtungen, 1357 01:13:58,075 --> 01:14:02,434 sondern Manipulationen und Ausgrenzung entstehen. 1358 01:14:02,515 --> 01:14:04,181 Profilbildung und Scoring 1359 01:14:04,262 --> 01:14:08,597 hat längst die Nische personalisierter Werbung verlassen. 1360 01:14:08,678 --> 01:14:12,895 Das müssen alle akzeptieren, die Regeln aufstellen. 1361 01:14:12,976 --> 01:14:18,398 Wir brauchen Leitplanken mit klaren Regelungen und wirksamen Sanktionen, 1362 01:14:18,479 --> 01:14:21,714 um diesen Grundrechtsschutz zu gewährleisten. 1363 01:14:23,169 --> 01:14:25,436 Es ist ja schon debattiert worden, 1364 01:14:25,517 --> 01:14:28,578 was die Möglichkeiten der Wertschöpfung aus diesen Daten sind. 1365 01:14:28,659 --> 01:14:32,778 Da muss man einer Überlegung widersprechen, 1366 01:14:32,859 --> 01:14:38,314 dass bestimmte Formen der digitalen Nutzung von Daten zwangsläufig sind. 1367 01:14:38,395 --> 01:14:41,551 Also Tracking und Digitalisierung sind nicht gleichbedeutend. 1368 01:14:41,632 --> 01:14:47,014 Es gibt auch andere Formen der Wertschöpfung als Profilbildung. 1369 01:14:47,533 --> 01:14:50,094 Die Datenstrategie sollte zunächst 1370 01:14:50,175 --> 01:14:53,318 Bürgerinnen und Bürgern die Hoheit über ihre Daten zurückgeben. 1371 01:14:53,399 --> 01:14:57,034 So wissen sie, welche Informationen liegen vor, wie werden sie verwendet. 1372 01:14:57,115 --> 01:15:00,450 Ich glaube, das ist die Grundlage auch für die Bereitschaft, 1373 01:15:00,531 --> 01:15:03,998 Daten einer Nutzung wieder zuzuführen an dem Punkt. 1374 01:15:05,026 --> 01:15:06,492 Deutschland und Europa 1375 01:15:06,573 --> 01:15:09,907 hinken anderen Wirtschaftsräumen bei der Digitalisierung hinter. 1376 01:15:09,988 --> 01:15:13,196 Das war bisher in der Regel nicht ein Problem des Datenschutzes. 1377 01:15:13,277 --> 01:15:15,634 Wenn ich mir Projekte anschaue wie die Register, 1378 01:15:15,715 --> 01:15:19,394 ist es eher der Föderalismus und fehlende technische Vorgaben. 1379 01:15:19,475 --> 01:15:20,994 Auch bei der Gesundheitskarte 1380 01:15:21,075 --> 01:15:24,040 liegen seit zehn Jahren Datenschutzkonzepte auf dem Tisch. 1381 01:15:24,121 --> 01:15:26,456 Trotzdem habe ich sie immer noch nicht 1382 01:15:26,537 --> 01:15:29,994 in meinem Portemonnaie festgestellt bis zum jetzigen Punkt. 1383 01:15:30,075 --> 01:15:34,008 Deswegen Schluss mit so einer defensiven Herangehensweise. 1384 01:15:34,089 --> 01:15:37,437 Tatsächlich Datenschutz by design als Alleinstellungsmerkmal 1385 01:15:37,518 --> 01:15:41,633 deutscher Dienstleistungen und Produkte nutzen. 1386 01:15:41,714 --> 01:15:45,314 Das ist insbesondere überall dort gut, wo Länder ohne 1387 01:15:45,395 --> 01:15:48,714 Datenschutzregelungen nach Produkten und Dienstleistungen fragen. 1388 01:15:48,795 --> 01:15:52,229 Auch in all den anderen Bereichen, wo wir im Augenblick merken, 1389 01:15:52,310 --> 01:15:56,621 dass unser Recht Pate steht für Regelungen in diesen Ländern. 1390 01:15:56,918 --> 01:15:58,634 Kalifornien ist in aller Munde. 1391 01:15:58,715 --> 01:16:02,994 Aber wenn man näher hinschaut, Japan, Nordkorea, Indien, Brasilien, 1392 01:16:03,075 --> 01:16:06,194 Mexiko und weitere Bundesstaaten der USA 1393 01:16:06,275 --> 01:16:09,194 führen Regelungen nach unserem europäischen Ideen ein. 1394 01:16:09,275 --> 01:16:12,627 Hier hätten wir einen Wettbewerbsvorsprung, 1395 01:16:12,708 --> 01:16:16,834 wenn wir diese Regeln in eigene vertrauenswürdige Angebote versetzen. 1396 01:16:16,915 --> 01:16:21,250 Da sollte man ein Stück weit aus dem "Jammer-Modus" herauskommen 1397 01:16:21,331 --> 01:16:24,834 und in den Wettbewerbsmodus übergehen. 1398 01:16:24,915 --> 01:16:26,515 Die Datenethikkommission 1399 01:16:26,596 --> 01:16:29,754 hat der Bundesregierung 75 Empfehlungen gegeben. 1400 01:16:29,835 --> 01:16:32,342 Personenbezogene und nicht personenbezogene Daten. 1401 01:16:32,423 --> 01:16:36,023 Ich würde es konzentrieren dort, wo mit der Förderung 1402 01:16:36,104 --> 01:16:40,154 datenschutzfreundlicher Innovationen gearbeitet werden sollte. 1403 01:16:40,235 --> 01:16:43,754 Im Bereich der Data Spaces, die sind bereits genannt worden. 1404 01:16:43,835 --> 01:16:47,236 Persönliche Datenmanagementsysteme und Datentreuhänder. 1405 01:16:47,317 --> 01:16:50,486 Rechtsgrundlage, aber auch die wirtschaftlichen Fragestellungen. 1406 01:16:50,567 --> 01:16:53,967 Und insbesondere tatsächlich das verteilte Lernen. 1407 01:16:54,354 --> 01:16:58,074 Das halten wir für einen Bereich, wo wir datenschutzfreundlich, 1408 01:16:58,155 --> 01:17:03,299 schnell auch in Front gehen könnten im Vergleich mit anderen Nationen. 1409 01:17:03,380 --> 01:17:06,679 Der Bereich der Interoperabilität könnte Raum schaffen, 1410 01:17:06,760 --> 01:17:10,160 aber auch Platz schaffen für europäische Anbieter. 1411 01:17:10,241 --> 01:17:12,404 Er könnte so nicht nur Oligopole zerstören, 1412 01:17:12,485 --> 01:17:14,998 das überlasse ich einem Berufeneren an der Stelle. 1413 01:17:15,079 --> 01:17:17,412 Das müsste man dann mit Beschaffung 1414 01:17:17,493 --> 01:17:20,354 auch der öffentlichen Hand natürlich unterstützen. 1415 01:17:20,435 --> 01:17:22,754 Ich würde mich freuen, wenn die Bundesregierung 1416 01:17:22,835 --> 01:17:26,233 eine solche Vorwärtsstrategie in ihrer Datenstrategie wählen würde. 1417 01:17:26,314 --> 01:17:28,853 Sie sollte nicht dem ausgetretenen Sackgassenpfad, 1418 01:17:28,934 --> 01:17:31,600 Lockerung der Datenschutzregeln folgen. 1419 01:17:31,681 --> 01:17:33,348 (Helge Braun) Danke schön. 1420 01:17:33,429 --> 01:17:36,300 Der Präsident des Bundeskartellamts, Herr Mundt. 1421 01:17:36,381 --> 01:17:38,834 (Andreas Mundt) Sehr geehrter Herr Minister Braun, 1422 01:17:38,915 --> 01:17:41,181 sehr geehrte Staatsministerin Bär. 1423 01:17:41,262 --> 01:17:44,234 Das Kartellrecht ist ja schon angesprochen worden. 1424 01:17:44,315 --> 01:17:46,935 Als Wettbewerbsbehörde beschäftigt sie sich 1425 01:17:47,016 --> 01:17:50,097 mit dem Thema Daten eigentlich unter zwei Gesichtspunkten. 1426 01:17:50,178 --> 01:17:52,034 Ich will zu beidem kurz was sagen, 1427 01:17:52,115 --> 01:17:55,474 wo wir stehen und wo Handlungsbedarf vielleicht besteht. 1428 01:17:55,555 --> 01:17:56,914 Der eine Gesichtspunkt ist: 1429 01:17:56,995 --> 01:17:58,995 Wie beschränken wir die Macht, 1430 01:17:59,076 --> 01:18:03,071 die manche Unternehmen aus den Daten beziehen, die sie haben? 1431 01:18:03,152 --> 01:18:07,685 Das sind große US-amerikanische, aber auch chinesische Unternehmen, 1432 01:18:08,109 --> 01:18:14,025 die die drei V, Variety, Volume und Velocity perfekt beherrschen. 1433 01:18:14,613 --> 01:18:15,747 Also Unternehmen, 1434 01:18:15,828 --> 01:18:18,956 die einen unglaublichen Schatz an Daten angesammelt haben. 1435 01:18:19,037 --> 01:18:23,237 Die in Echtzeit dabei sind, diesen Datenschatz zu verbreitern. 1436 01:18:23,875 --> 01:18:29,334 Die unglaublich viele Quellen haben, um diese Daten zusammenzutragen. 1437 01:18:29,759 --> 01:18:33,194 Das sind die großen US-amerikanischen Unternehmen, aber auch andere. 1438 01:18:33,275 --> 01:18:35,884 Damit beschäftigen wir uns natürlich sehr intensiv. 1439 01:18:35,965 --> 01:18:39,754 Ich persönlich sehe hier immer im Grunde drei Ansatzpunkte, 1440 01:18:39,835 --> 01:18:43,140 wie man mit dieser Datenmacht umgehen kann. 1441 01:18:43,221 --> 01:18:46,154 Der erste Punkt ist Portabilität fördern, 1442 01:18:46,235 --> 01:18:49,301 dass also Nutzer ihre Daten mitnehmen können. 1443 01:18:49,382 --> 01:18:52,994 Das ist angelegt in der Datenschutz- grundverordnung in Artikel 20. 1444 01:18:53,075 --> 01:18:57,008 Fraglich, wie groß die Wettbewerbs- wirkung von Portabilität ist, 1445 01:18:57,089 --> 01:19:00,329 wenn der Nutzer keinen Provider vorfindet, wo er hingehen könnte, 1446 01:19:00,410 --> 01:19:04,431 weil er sich bewegen muss in der Mono- oder Oligopolstruktur, 1447 01:19:04,512 --> 01:19:07,363 Deswegen glaube ich auch, dass das Thema Portabilität 1448 01:19:07,444 --> 01:19:10,754 bisher noch keine große Durchschlagskraft entfaltet hat. 1449 01:19:10,835 --> 01:19:12,235 Der zweite Punkt ist: 1450 01:19:12,316 --> 01:19:13,675 Man kann die Datensammlung 1451 01:19:13,756 --> 01:19:17,384 und vor allem die Datenverarbeitung durch diese Unternehmen beschränken. 1452 01:19:17,465 --> 01:19:21,509 Das ist ein Ansatz, den wir in unserem Facebook-Fall verfolgen. 1453 01:19:21,590 --> 01:19:24,990 Wir haben Facebook vorgegeben, dass sie zwar Daten 1454 01:19:25,071 --> 01:19:29,854 aus verschiedenen Quellen sammeln, aber nicht zusammenführen dürfen. 1455 01:19:30,444 --> 01:19:33,794 Ein Fall, der im Moment noch vorliegt beim Bundesgerichtshof, 1456 01:19:33,875 --> 01:19:37,477 nachdem wir ihn in erster Runde beim Oberlandesgericht verloren haben. 1457 01:19:37,558 --> 01:19:41,691 Ich glaube vom Grundprinzip her, dass wir hier darauf pochen, 1458 01:19:41,772 --> 01:19:43,372 dass es eine Grenze gibt 1459 01:19:43,453 --> 01:19:47,444 bei Zusammenführung und Auswertung von Daten von Monopolisten. 1460 01:19:47,525 --> 01:19:50,521 Auf die sind diejenigen angewiesen, die die Daten liefern. 1461 01:19:50,602 --> 01:19:53,154 Ich habe das immer innere Entflechtung genannt. 1462 01:19:53,235 --> 01:19:55,754 Ich glaube, dass das ein sinnvoller Ansatz bleibt. 1463 01:19:55,835 --> 01:19:58,674 Wir müssen sehen, wie wir das weiterverfolgen. 1464 01:19:58,755 --> 01:20:00,155 Der dritte Punkt ist: 1465 01:20:00,236 --> 01:20:01,502 Man kann versuchen, 1466 01:20:01,583 --> 01:20:05,650 Zugang zu diesen unglaublichen Datenschätzen zu verschaffen. 1467 01:20:05,731 --> 01:20:09,731 Vielleicht mitunter auch Zugang zu kleineren Datenschätzen. 1468 01:20:09,812 --> 01:20:12,954 Das geht im Wege des Data Pooling. 1469 01:20:13,035 --> 01:20:16,775 Das kann natürlich auch freiwillig geschehen über Datenhandel. 1470 01:20:16,856 --> 01:20:20,674 Aber es ist eben möglicherweise auch möglich, 1471 01:20:20,755 --> 01:20:23,214 Zugang entsprechend durchzusetzen. 1472 01:20:24,474 --> 01:20:29,269 Und das ist auch so angelegt in der GWB-Novelle, die kurz bevorsteht. 1473 01:20:29,350 --> 01:20:35,190 Die zehnte GWB-Novelle, die vor der Veröffentlichung steht. 1474 01:20:35,664 --> 01:20:38,954 Dort gibt es Vorschriften dazu, 1475 01:20:39,035 --> 01:20:44,434 wie solcher Datenzugang gewährt werden kann. 1476 01:20:44,515 --> 01:20:46,781 Das kann sicherlich auch Teil sein 1477 01:20:46,862 --> 01:20:50,529 der Datenstrategie des Bundes und der Bundesregierung. 1478 01:20:50,610 --> 01:20:51,943 Deswegen glaube ich, 1479 01:20:52,024 --> 01:20:57,554 dass eine zügige Verabschiedung der GWB-Novelle hilfreich sein kann. 1480 01:20:58,203 --> 01:21:00,603 Ich will aber auch darauf hinweisen: 1481 01:21:00,684 --> 01:21:06,124 Selbst wenn wir hier differenzierte Regelungstatbestände haben, 1482 01:21:06,205 --> 01:21:10,137 es wird schwer, das durchzusetzen unter zwei Gesichtspunkten. 1483 01:21:10,218 --> 01:21:11,218 Der erste ist: 1484 01:21:11,299 --> 01:21:13,232 Sie gewähren mit Kartellrecht 1485 01:21:13,313 --> 01:21:16,646 möglicherweise Zugang zu personenbezogenen Daten. 1486 01:21:16,727 --> 01:21:20,234 Das ist eine schwierige Interessen- abwägung, wie man da vorgeht. 1487 01:21:20,315 --> 01:21:21,715 Der zweite Punkt ist: 1488 01:21:21,796 --> 01:21:24,954 Die Unternehmen, die diese Datenschätze angehäuft haben, 1489 01:21:25,035 --> 01:21:27,901 haben sich ein Geschäftsmodell geschaffen. 1490 01:21:27,982 --> 01:21:31,716 Sie greifen natürlich dadurch, dass Sie Zugang gewähren 1491 01:21:31,797 --> 01:21:35,589 zu solchen Datenschätzen, tief in solche Geschäftsmodelle ein. 1492 01:21:35,670 --> 01:21:38,264 Auch das eine schwierige Interessenabwägung. 1493 01:21:38,345 --> 01:21:42,658 Datenzugang kann ein notwendiger Faktor sein, einerseits, ja. 1494 01:21:42,739 --> 01:21:46,805 Auf der anderen Seite ist das nicht einfach administrierbar, 1495 01:21:46,886 --> 01:21:52,652 weil jeweils schwierige Interessen- abwägungen erforderlich sind. 1496 01:21:54,861 --> 01:21:56,514 Der zweite Punkt: 1497 01:21:56,595 --> 01:21:58,128 Wie können Unternehmen, 1498 01:21:58,209 --> 01:22:01,745 die nicht über diese Datenschätze verfügen, kooperieren? 1499 01:22:01,826 --> 01:22:04,401 Sie hatten das angesprochen, Herr Professor Braun. 1500 01:22:04,482 --> 01:22:08,285 Wie ist das in Deutschland bei den kleinen und mittleren Unternehmen, 1501 01:22:08,366 --> 01:22:11,794 die auf diesen Datenschätzen unter Umständen sitzen und sich fragen: 1502 01:22:11,875 --> 01:22:15,794 Wie kann ich kooperieren? Wie kann ich Daten zusammenführen? 1503 01:22:15,875 --> 01:22:19,514 Ich mache es kurz, aber ich muss ganz kurz in die Geschichte gehen. 1504 01:22:19,595 --> 01:22:24,714 Bis zum Jahre 2003 waren Vereinbarungen, Kartellvereinbarungen 1505 01:22:24,795 --> 01:22:28,554 zwischen Unternehmen anmeldepflichtig bei den Wettbewerbsbehörden. 1506 01:22:28,635 --> 01:22:30,291 Das war etwas wie bei Fusionen. 1507 01:22:30,372 --> 01:22:33,154 Wenn Sie eine Kooperation in einer Branche hatten, 1508 01:22:33,235 --> 01:22:36,068 dann konnten Sie das anmelden bei der Wettbewerbsbehörde. 1509 01:22:36,149 --> 01:22:37,882 Da wurde darüber befunden, 1510 01:22:37,963 --> 01:22:41,194 ob das im Einklang steht mit dem Wettbewerbsrecht. 1511 01:22:41,275 --> 01:22:44,197 Das wurde im Jahr 2003 auf europäischer Ebene abgeschafft. 1512 01:22:44,278 --> 01:22:47,054 Wir haben das hier in Deutschland nachvollzogen. 1513 01:22:47,134 --> 01:22:49,023 Der Grund war schlicht und ergreifend, 1514 01:22:49,104 --> 01:22:52,665 dass die Wettbewerbsbehörden in solchen Anmeldungen erstickt sind. 1515 01:22:52,746 --> 01:22:55,394 Es wäre unglaublich viel Personal notwendig gewesen, 1516 01:22:55,475 --> 01:22:57,270 um die alle zu bearbeiten. 1517 01:22:57,351 --> 01:22:59,484 Dann ist das abgeschafft worden. 1518 01:22:59,565 --> 01:23:01,232 Die Politik hat jubiliert 1519 01:23:01,313 --> 01:23:04,344 und hat Entbürokratisierung über das Ganze geschrieben. 1520 01:23:04,425 --> 01:23:08,947 Die Wettbewerbsbehörden haben vor Rechtsunsicherheit gewarnt 1521 01:23:09,028 --> 01:23:12,860 und waren nur begrenzt erfreut über diesen Schritt. 1522 01:23:12,941 --> 01:23:17,114 Heute diskutieren wir genau das, nämlich diese Rechtsunsicherheit, 1523 01:23:17,195 --> 01:23:19,461 die möglicherweise entstanden ist. 1524 01:23:19,542 --> 01:23:22,209 Unternehmen können sich nicht mehr, ja, 1525 01:23:22,290 --> 01:23:25,434 Rechtssicherheit durch so eine Anmeldung verschaffen. 1526 01:23:25,515 --> 01:23:28,581 Wir haben das Problem gesehen in Deutschland. 1527 01:23:28,662 --> 01:23:30,996 Wir haben auch als Bundeskartellamt 1528 01:23:31,077 --> 01:23:35,794 gut, schnell und unbürokratisch darauf reagiert. 1529 01:23:36,533 --> 01:23:40,962 Sie können heute zum Bundeskartellamt mit solchen Kooperationen kommen. 1530 01:23:41,050 --> 01:23:43,471 Wir bieten den Unternehmen Beratung an. 1531 01:23:43,552 --> 01:23:47,552 Wir sagen ihnen, was geht, wo Grenzen überschritten werden, 1532 01:23:47,633 --> 01:23:51,033 die nicht mit dem Wettbewerbsrecht vereinbar sind. 1533 01:23:51,114 --> 01:23:54,194 Und ich glaube auch, dass das in der Praxis gut funktioniert. 1534 01:23:54,275 --> 01:23:56,581 Wenn Sie bei uns auf die Website gucken, 1535 01:23:56,662 --> 01:23:59,056 da sehen Sie eine Fülle von Kooperationen, 1536 01:23:59,137 --> 01:24:03,114 die wir begleitet und "informell" freigegeben haben. 1537 01:24:03,195 --> 01:24:06,461 Beispielhaft möchte ich nur ADAMOS erwähnen, 1538 01:24:06,542 --> 01:24:08,332 aus dem Bereich des Maschinenbaus. 1539 01:24:08,413 --> 01:24:11,114 Es gibt sehr viele kleine und mittlere Unternehmen, 1540 01:24:11,195 --> 01:24:13,572 die auch auf Datenschätzen sitzen. 1541 01:24:13,653 --> 01:24:16,434 Für die ist überhaupt das ganze Thema Digitalisierung 1542 01:24:16,515 --> 01:24:19,581 und Umgang mit Daten ein schwieriges Kapitel. 1543 01:24:19,791 --> 01:24:23,154 Hier sind sehr weitreichende Kooperationsmöglichkeiten 1544 01:24:23,235 --> 01:24:25,590 im Rahmen von ADAMOS eröffnet worden. 1545 01:24:25,671 --> 01:24:27,874 Die Beschlussabteilung war sogar anwesend, 1546 01:24:27,955 --> 01:24:31,451 als das Projekt aus der Taufe gehoben worden ist, ganz formell. 1547 01:24:31,532 --> 01:24:35,064 Wir haben hier für Deutschland ganz gute Möglichkeiten geschaffen. 1548 01:24:35,145 --> 01:24:38,505 Das Ganze wird jetzt auch nochmal ein Stück weit formalisiert 1549 01:24:38,586 --> 01:24:39,919 mit der GWB-Novelle. 1550 01:24:40,000 --> 01:24:42,021 Sodass ich immer den Eindruck habe, 1551 01:24:42,102 --> 01:24:45,194 dass wir das für Deutschland nicht schlecht gelöst haben. 1552 01:24:45,275 --> 01:24:48,674 Ob das auf europäischer Ebene ähnlich weit ist, 1553 01:24:48,755 --> 01:24:54,591 das ist ein Thema, mit dem man sich noch einmal auseinandersetzen muss. 1554 01:24:54,857 --> 01:25:00,212 Sie hatten die Ratspräsidentschaft im zweiten Halbjahr 2020 angesprochen. 1555 01:25:00,293 --> 01:25:04,234 Ich glaube, für Deutschland haben wir gerade auch mit den Ergänzungen hier 1556 01:25:04,315 --> 01:25:08,248 zum Rahmen der GWB-Novelle eine ganz gute Lösung gefunden. 1557 01:25:08,329 --> 01:25:11,739 Über die GWB-Novelle sind wir... Wir werden das durchführen. 1558 01:25:11,820 --> 01:25:13,714 Es ist ein Stück weit formalisiert. 1559 01:25:13,795 --> 01:25:16,514 Da haben wir immer Sorge vor Rechtswirkungen, 1560 01:25:16,595 --> 01:25:18,057 die wir nicht überblicken. 1561 01:25:18,138 --> 01:25:21,341 Dass die Formalisierung dann ein Stück Flexibilität nimmt. 1562 01:25:21,422 --> 01:25:23,474 Das müssen wir uns nochmal angucken. 1563 01:25:23,555 --> 01:25:27,754 Aber da sind wir im engen Dialog mit dem Bundeswirtschaftsministerium. 1564 01:25:27,899 --> 01:25:28,899 Ich danke. 1565 01:25:28,980 --> 01:25:31,184 (Helge Braun) Vielen herzlichen Dank. 1566 01:25:31,265 --> 01:25:34,674 Der letzte in unserer Runde ist jetzt der Herr Professor Schneider, 1567 01:25:34,755 --> 01:25:38,688 der ja Mitglied der Kommission Wettbewerbsrecht 4.0 war. 1568 01:25:38,769 --> 01:25:40,102 Herzlich willkommen. 1569 01:25:40,183 --> 01:25:42,683 (Jens-Peter Schneider) Herr Bundesminister Braun, 1570 01:25:42,764 --> 01:25:45,474 Frau Ministerin Bär, sehr geehrte Damen und Herren. 1571 01:25:45,555 --> 01:25:46,555 Vielen Dank. 1572 01:25:46,636 --> 01:25:48,594 Ich darf den Reigen sozusagen schließen. 1573 01:25:48,675 --> 01:25:52,834 Ich bin beim Government einsortiert, aber eigentlich Wissenschaftler. 1574 01:25:52,915 --> 01:25:57,048 Und deswegen passt das ja an diesem Tisch geradezu wunderbar. 1575 01:25:57,634 --> 01:25:59,967 Als Mitglied der interdisziplinären 1576 01:26:00,048 --> 01:26:02,954 und unabhängigen Expertenkommission Wettbewerbsrecht 4.0 1577 01:26:03,035 --> 01:26:06,368 werde ich deren Vorschläge aus dem September 2019 1578 01:26:06,449 --> 01:26:08,182 in den Mittelpunkt rücken. 1579 01:26:08,263 --> 01:26:12,234 Ich werde aber als Wissenschaftler auch Seitenblicke einnehmen. 1580 01:26:12,315 --> 01:26:15,568 Bedeutsam ist, dass wir, die Kommission, mandatiert war, 1581 01:26:15,649 --> 01:26:19,282 Vorschläge für die kommende deutsche Ratspräsidentschaft zu erarbeiten. 1582 01:26:19,363 --> 01:26:21,714 Die Vorschläge haben einen europäischen Fokus. 1583 01:26:21,795 --> 01:26:23,881 Deswegen ergänzt es auch die Ausführungen 1584 01:26:23,962 --> 01:26:25,794 von Herrn Präsidenten Mundt sehr gut. 1585 01:26:25,875 --> 01:26:28,754 Aufbauend auf Erkenntnissen zur Plattformökonomie 1586 01:26:28,835 --> 01:26:31,110 über konzentrationsfördernde Netzwerkeffekte, 1587 01:26:31,191 --> 01:26:33,230 von denen Sie sicherlich alle gut wissen, 1588 01:26:33,311 --> 01:26:36,070 haben wir uns von folgenden Grundsätzen leiten lassen: 1589 01:26:36,151 --> 01:26:39,818 Wettbewerb ist als Treiber von Innovation zu schützen. 1590 01:26:39,899 --> 01:26:42,032 Die Wahlfreiheit der Konsumenten 1591 01:26:42,113 --> 01:26:46,313 ist ebenso zu gewährleisten oder erst wieder zurückzugewinnen. 1592 01:26:46,814 --> 01:26:48,347 Die Regelungsstrukturen 1593 01:26:48,428 --> 01:26:52,587 sind dabei natürlich den Bedingungen des digitalen Wandels anzupassen. 1594 01:26:52,668 --> 01:26:55,154 Diese Anpassungen betreffen im EU-Kartellrecht 1595 01:26:55,235 --> 01:26:58,101 vor allen Dingen Optimierungen im Vollzug. 1596 01:26:58,182 --> 01:27:00,874 Das steht allerdings weitgehend in den Verträgen 1597 01:27:00,955 --> 01:27:04,434 und kann deswegen nicht so leicht wie das GWB verändert werden. 1598 01:27:04,515 --> 01:27:08,248 Erleichtert werden sollen die Unternehmenskooperationen 1599 01:27:08,329 --> 01:27:11,994 zur besseren Schaffung von Datenpools und anderem. 1600 01:27:12,075 --> 01:27:16,408 Die datenschutzrechtlichen Implikationen sind dabei offenkundig. 1601 01:27:16,489 --> 01:27:20,274 Allerdings kann man auch sagen für Deutschland und Industrie 4.0 1602 01:27:20,355 --> 01:27:25,140 sollte man auch gucken, wo diese Implikationen so stark sind. 1603 01:27:25,221 --> 01:27:28,088 Vielleicht hat man da auch andere Optionen. 1604 01:27:28,458 --> 01:27:31,873 Ein anderes Problemfeld, das ist noch nicht so angesprochen worden: 1605 01:27:31,954 --> 01:27:34,681 Der Aufkauf von besonders erfolgversprechenden Startups 1606 01:27:34,762 --> 01:27:37,490 durch die marktbeherrschenden Internetunternehmen. 1607 01:27:37,571 --> 01:27:41,825 Auch hier kann durch Leitlinien eine schärfere Kontrolle geschehen, 1608 01:27:41,906 --> 01:27:44,315 ohne gleichzeitig den Startup-Markt zu zerstören. 1609 01:27:44,396 --> 01:27:46,343 Der wird häufig davon gerade getrieben, 1610 01:27:46,424 --> 01:27:49,128 dass man sich aufkaufen lassen möchte irgendwann. 1611 01:27:49,209 --> 01:27:51,519 Die genuinen kartellrechtlichen Empfehlungen 1612 01:27:51,600 --> 01:27:53,727 halten sich letztlich dann doch in Grenzen. 1613 01:27:53,808 --> 01:27:57,125 Den stärkeren Innovationscharakter besitzt der Kommissionsvorschlag 1614 01:27:57,206 --> 01:27:59,634 einer europäischen Verordnung zur Regulierung 1615 01:27:59,715 --> 01:28:03,634 marktbeherrschender Onlineplattformen bestimmter Größenordnungen. 1616 01:28:03,715 --> 01:28:06,181 Auch hier wieder das Startup-Problem. 1617 01:28:06,262 --> 01:28:09,062 Gestärkt werden soll in dieser Verordnung 1618 01:28:10,002 --> 01:28:14,427 das in der DSGVO angesprochene Recht auf Datenportabilität. 1619 01:28:14,508 --> 01:28:16,708 In der Datenschutzgrundverordnung 1620 01:28:16,789 --> 01:28:21,194 ist das mit vielen Restriktionen und nicht zu Ende gedacht eigentlich. 1621 01:28:21,275 --> 01:28:25,608 Das sollte hier vielleicht auch besser ausgearbeitet werden. 1622 01:28:25,689 --> 01:28:28,907 Damit darüber eine bidirektionale Öffnung geschehen kann 1623 01:28:28,988 --> 01:28:31,509 und vielleicht auch über andere Instrumente. 1624 01:28:31,590 --> 01:28:35,374 Zum Beispiel Nutzerkonten, wie wir es vom Onlinebanking her kennen. 1625 01:28:35,455 --> 01:28:37,055 Diese Kundensouveränität 1626 01:28:37,136 --> 01:28:40,602 soll geschehen und nicht nur auf dem Papier stehen. 1627 01:28:40,683 --> 01:28:44,074 Dafür brauchen wir überindividuelle Unterstützungsstrukturen. 1628 01:28:44,155 --> 01:28:46,634 Dafür könnten Datentreuhänder und andere Dinge, 1629 01:28:46,715 --> 01:28:50,125 die hier teilweise schon angesprochen wurden, sicher helfen. 1630 01:28:50,206 --> 01:28:52,668 Das sind alles Dinge, die noch ganz am Anfang 1631 01:28:52,749 --> 01:28:55,754 der Konzeptionierung stehen, so wie ich das beobachte. 1632 01:28:55,835 --> 01:28:58,554 Wegen der zentralen Steuerungsmacht der Plattformen 1633 01:28:58,635 --> 01:29:01,914 muss ein effektiver Rechtsschutz für die Nutzer gewährt werden. 1634 01:29:01,995 --> 01:29:03,795 Aber schon rein quantitativ 1635 01:29:03,876 --> 01:29:07,228 sind dazu die staatlichen Gerichte allein nicht in der Lage. 1636 01:29:07,309 --> 01:29:09,764 Daher empfiehlt die Kommission eine Ergänzung, 1637 01:29:09,845 --> 01:29:13,354 kein Ersatz, durch alternative Streitbeilegungsverfahren. 1638 01:29:13,435 --> 01:29:17,554 Auf Daten des öffentlichen Sektors wurde hier schon so viel eingegangen, 1639 01:29:17,635 --> 01:29:20,061 dass ich das gar nicht unterstreichen möchte. 1640 01:29:20,142 --> 01:29:24,075 Wir sind derselben Auffassung. Hier ist ein Handlungsfeld. 1641 01:29:24,156 --> 01:29:25,156 Die Kommission 1642 01:29:25,237 --> 01:29:28,765 hat diverse wirtschaftliche und gesellschaftliche Akteure angehört. 1643 01:29:28,846 --> 01:29:30,794 Und auch hier ist das ja geschehen. 1644 01:29:30,875 --> 01:29:33,122 Dabei zeigte sich wie teilweise auch hier 1645 01:29:33,203 --> 01:29:36,275 ein durchaus heterogenes Bild in der Lagebeurteilung. 1646 01:29:36,356 --> 01:29:38,914 Einzelne von Ihnen haben das ja auch angesprochen, 1647 01:29:38,995 --> 01:29:41,332 dass die Studien auch so unterschiedlich sind. 1648 01:29:41,413 --> 01:29:44,738 Das hat die Kommission zumindest in ihrer Mehrheit dazu gebracht, 1649 01:29:44,819 --> 01:29:50,159 eine EU-Agentur für die Beobachtung der Digitalisierung einzurichten. 1650 01:29:50,240 --> 01:29:53,274 Diese sollte ähnlich wie im Umweltbereich mit einem Netz 1651 01:29:53,355 --> 01:29:56,874 nationaler Forschungsverbünde zusammengebunden werden. 1652 01:29:56,955 --> 01:29:59,979 Sie soll Parlamenten, Behörden und der Gesellschaft insgesamt 1653 01:30:00,060 --> 01:30:04,794 Informationen über Digitalisierung und ihre Folgen aufbereiten. 1654 01:30:06,254 --> 01:30:10,114 Das wird jetzt persönlich sozusagen und nicht mehr Kommission. 1655 01:30:10,195 --> 01:30:12,383 Sollte meine, ganz allein meine Position 1656 01:30:12,464 --> 01:30:14,972 auf sechs Maximen verdichtet werden, wären dies: 1657 01:30:15,053 --> 01:30:16,053 Erstens: 1658 01:30:16,134 --> 01:30:18,278 Bleiben Sie realistisch in den Erwartungen 1659 01:30:18,359 --> 01:30:20,701 an Nutzen und Entwicklung der Digitalisierung. 1660 01:30:20,782 --> 01:30:23,419 Und seien Sie ehrlich bei der Kalkulation der Kosten, 1661 01:30:23,500 --> 01:30:25,194 gerade im öffentlichen Bereich. 1662 01:30:25,275 --> 01:30:28,234 Stärken Sie zweitens die Souveränität der Nutzer. 1663 01:30:28,322 --> 01:30:29,896 Dazu habe ich einiges gesagt. 1664 01:30:29,977 --> 01:30:33,009 Drittens, wichtig ist das Handlungsfeld Datenkompetenz. 1665 01:30:33,090 --> 01:30:36,794 Frau Müller hatte das sehr stark angesprochen, andere aber auch. 1666 01:30:36,875 --> 01:30:39,510 Und zwar nicht nur eben zur Erhebung von Potenzialen, 1667 01:30:39,591 --> 01:30:42,034 sondern eben auch zur Reduktion von Risiken, 1668 01:30:42,115 --> 01:30:45,059 die mit der Metrisierung und vordergründigen Objektivierung 1669 01:30:45,140 --> 01:30:47,079 durch digitale Entscheidungskalküle, 1670 01:30:47,160 --> 01:30:50,214 gerade in Hybridstrukturen mit menschlichen Entscheider. 1671 01:30:50,738 --> 01:30:54,732 Sie sprachen von Data Bias, was mir als Verwaltungsrechtler wichtig ist, 1672 01:30:54,813 --> 01:30:58,091 wo wir über Predictive Policing und ähnliche Dinge nachdenken. 1673 01:30:58,172 --> 01:30:59,172 Viertens: 1674 01:30:59,253 --> 01:31:02,721 Seien Sie sich bewusst, dass Sie noch unbekanntes Terrain betreten. 1675 01:31:02,802 --> 01:31:04,886 Schaffen Sie daher Anreize und Netzwerke 1676 01:31:04,967 --> 01:31:07,336 zur weiteren öffentlichen Wissensgenerierung. 1677 01:31:07,417 --> 01:31:08,417 Fünftens: 1678 01:31:08,498 --> 01:31:10,798 Bedenken Sie die Lehre des Datenschutzrechts, 1679 01:31:10,879 --> 01:31:14,144 dass es auf den Verwendungskontext von Daten ankommt. 1680 01:31:14,225 --> 01:31:16,474 Dies dürfte auch für KI-Anwendungen gelten 1681 01:31:16,555 --> 01:31:18,994 und spricht für sektorspezifische Regeln 1682 01:31:19,075 --> 01:31:22,394 und Experimentierspielräume mit Monitoringpflichten. 1683 01:31:22,475 --> 01:31:24,004 Sechstens: 1684 01:31:24,085 --> 01:31:28,790 Ethikpflichten sind eine wichtige Ergänzung, aber sicher kein Ersatz 1685 01:31:28,871 --> 01:31:32,728 für demokratisch legitimierte und auch rechtlich durchsetzbare Regeln. 1686 01:31:32,809 --> 01:31:33,809 Vielen Dank. 1687 01:31:34,605 --> 01:31:37,434 (Helge Braun) Ja, vielen herzlichen Dank für die Runde. 1688 01:31:37,515 --> 01:31:39,181 Es wurde gerade gesagt, . 1689 01:31:39,262 --> 01:31:42,971 wir müssen uns bewusst sein, wir betreten unbekanntes Terrain. 1690 01:31:43,052 --> 01:31:45,794 Im Kanzleramt sind Sie da ganz auf der sicheren Seite. 1691 01:31:45,875 --> 01:31:49,874 Als die Kanzlerin damals gesagt hat, das ist alles Neuland für uns, 1692 01:31:49,955 --> 01:31:53,114 hat sie einen riesen Shitstorm im Internet erlebt. 1693 01:31:53,195 --> 01:31:56,514 Weil viele den Eindruck hatten, also wir sind ja längst hier, 1694 01:31:56,595 --> 01:32:02,034 so was von firm und wir können ermessen, was da alles passiert. 1695 01:32:02,533 --> 01:32:06,600 Die weitere geschichtliche Entwicklung hat uns doch gezeigt: 1696 01:32:06,681 --> 01:32:10,674 So ziemlich jeder wird das eine oder andere Mal überrascht durch das, 1697 01:32:10,755 --> 01:32:14,688 was an Disruption im Kontext von Digitalisierung passiert. 1698 01:32:15,074 --> 01:32:17,194 Insofern erstmal herzlichen Dank. 1699 01:32:17,275 --> 01:32:22,512 Das ist jetzt... Jetzt sitzen wir vor einem Riesenberg an Anregungen. 1700 01:32:23,092 --> 01:32:27,888 Vielleicht können wir in einer Diskussionsrunde mal versuchen, 1701 01:32:27,969 --> 01:32:30,714 den einen Punkt ein bisschen zu konkretisieren. 1702 01:32:30,795 --> 01:32:34,754 Was sich wie ein roter Faden durch die Diskussion gezogen hat, 1703 01:32:34,835 --> 01:32:36,229 ist ja die Frage: 1704 01:32:36,310 --> 01:32:38,110 Wie schaffen wir Vertrauen, 1705 01:32:38,191 --> 01:32:42,257 respektive, wie begegnen wir Verunsicherungen und Misstrauen? 1706 01:32:42,932 --> 01:32:47,937 Ich glaube, was völlig klar ist, da will ich anschließen an das, 1707 01:32:48,018 --> 01:32:52,314 was Herr Kelber gesagt hat, unser Ziel ist eine Datenstrategie. 1708 01:32:52,673 --> 01:32:56,394 Die soll das positive Zukunftsbild schaffen, wie wir es machen. 1709 01:32:56,475 --> 01:33:01,079 Nicht, was wir alles nicht wollen, sondern wo wir hinmöchten. 1710 01:33:01,160 --> 01:33:03,730 Wie wir sozusagen 1711 01:33:03,816 --> 01:33:07,058 den unterschiedlichen Interessen und Erwartungen 1712 01:33:07,139 --> 01:33:09,495 unserer Gesellschaft einfach gerecht werden. 1713 01:33:11,694 --> 01:33:17,632 Ich glaube auch, dass das, was mehrfach angemahnt worden ist, 1714 01:33:18,460 --> 01:33:23,994 dass wir in Deutschland mit unserer industriellen Tradition 1715 01:33:24,174 --> 01:33:27,440 nicht nur so sehr uns jetzt daran abarbeiten müssen. 1716 01:33:27,521 --> 01:33:30,255 Wie geht es mit personenbezogenen Daten? 1717 01:33:30,716 --> 01:33:33,383 Sondern ganz große Schätze sind ja auch 1718 01:33:33,464 --> 01:33:37,397 die nicht personenbezogenen oder die anonymisierten Daten. 1719 01:33:37,478 --> 01:33:40,714 Da ist an ganz vielen Stellen hinsichtlich auf die Forschung, 1720 01:33:40,795 --> 01:33:44,595 Industrie, immer das Wort von einem Treuhänder gefallen. 1721 01:33:45,310 --> 01:33:48,498 Das finde ich, ist so ein ganz interessanter Punkt. 1722 01:33:48,579 --> 01:33:51,627 Ich hatte ja eingangs... Wir müssen uns ja auch überlegen: 1723 01:33:51,708 --> 01:33:55,251 Wer macht was in unserer gesellschaftlichen Aufgabenteilung? 1724 01:33:55,332 --> 01:33:59,753 So würde ich gerne wissen, über die Frage, wenn ich... 1725 01:33:59,834 --> 01:34:03,474 Egal, ob ich jetzt mittelständische Unternehmen dazu animiere, 1726 01:34:03,555 --> 01:34:09,474 zusammenzuarbeiten und Daten mit Konkurrenten zusammenzubringen, 1727 01:34:10,532 --> 01:34:15,001 oder ob ich Patienten erläutere, 1728 01:34:15,082 --> 01:34:18,914 wenn sie ihre Daten für die Forschung 1729 01:34:18,995 --> 01:34:23,934 oder für gesundheitliche Optimierungsprozesse 1730 01:34:24,015 --> 01:34:27,570 im Rahmen einer Gesundheitsakte oder was auch immer freigeben, 1731 01:34:27,651 --> 01:34:30,184 dass es sozusagen eine Struktur gibt, 1732 01:34:30,265 --> 01:34:34,297 die die missbräuchliche Nutzung von Daten vermeidet. 1733 01:34:34,378 --> 01:34:38,844 Die Anonymisierungsprozesse so anstößt, dass sie gut gemacht sind. 1734 01:34:38,925 --> 01:34:41,921 Das stimmt ja. Wir kommen ja aus einer Lernzeit. 1735 01:34:42,002 --> 01:34:44,194 Leute haben geglaubt, wenn ich den Namen, 1736 01:34:44,275 --> 01:34:47,633 das Geburtsdatum abschneide, habe ich die Daten anonymisiert. 1737 01:34:47,714 --> 01:34:52,211 Und da... Sozusagen da ist viel Expertise notwendig. 1738 01:34:52,292 --> 01:34:55,554 Das ist so ein bisschen so eine Kernfrage nach dem Motto: 1739 01:34:55,635 --> 01:35:00,168 Wie schaffen wir dieses Vertrauen? Wie sehen solche Treuhänder aus? 1740 01:35:00,249 --> 01:35:03,451 Sind das vertrauenswürdige Algorithmen, 1741 01:35:03,532 --> 01:35:06,274 die Open Source bereitgestellt werden? 1742 01:35:06,355 --> 01:35:12,234 Ist das eine physikalische Stelle mit Mitarbeitern und Zertifikaten? 1743 01:35:12,315 --> 01:35:16,381 Also da kann man sich ja sehr, sehr viel drunter vorstellen. 1744 01:35:16,469 --> 01:35:19,481 Vielleicht hat da der eine oder andere noch einen Impuls. 1745 01:35:19,562 --> 01:35:24,955 Vielleicht schließt noch Frau Bär auch noch eine weitere Frage an. 1746 01:35:25,036 --> 01:35:26,515 (Dorothee Bär) Vielen Dank. 1747 01:35:26,596 --> 01:35:29,433 Ich will eigentlich gar keine weitere Frage anschließen. 1748 01:35:29,514 --> 01:35:32,874 Das wäre genau meines gewesen, weil mich das am stärksten umtreibt. 1749 01:35:32,955 --> 01:35:37,034 Wie schaffen wir es auch in unserem Land, wie es vorhin betont wurde, 1750 01:35:37,137 --> 01:35:41,387 ich glaube von Frau Bertschek, ne von... Quatsch, Frau Riphahn. 1751 01:35:41,468 --> 01:35:45,114 Die Kultur des Misstrauens, die Sie ja angesprochen haben, 1752 01:35:45,195 --> 01:35:47,874 die uns ja wirklich auch jeden Tag irgendwo begegnet. 1753 01:35:47,955 --> 01:35:51,114 Natürlich bei uns nochmal ganz deutlich in den Staat, 1754 01:35:51,195 --> 01:35:54,594 in Institutionen, teilweise eben auch an unsere Demokratie. 1755 01:35:54,675 --> 01:35:58,154 Das ist dann ganz, ganz schwierig in dieser Kultur des Misstrauens, 1756 01:35:58,235 --> 01:36:01,768 die Sie beschrieben haben, die dann auch umzukehren. 1757 01:36:01,849 --> 01:36:05,916 Ich bin sehr dankbar auch von Ulli Kelber dann zu hören, 1758 01:36:05,997 --> 01:36:10,330 Vorwärtsstrategie, Positivstrategie, das Ganze eben umzuwandeln. 1759 01:36:10,411 --> 01:36:13,354 Und deswegen würde ich es einfach nur noch intensivieren. 1760 01:36:13,435 --> 01:36:16,277 Treuhänder ist das eine, was der Helge Braun gesagt hat. 1761 01:36:16,358 --> 01:36:18,070 Aber vielleicht insgesamt. 1762 01:36:18,151 --> 01:36:21,194 Weil ich es erlebe, auch bei staatlichen Institutionen, 1763 01:36:21,275 --> 01:36:23,341 nicht nur Bundestag, Regierung. 1764 01:36:23,422 --> 01:36:26,994 Auch an einem konkreten Beispiel, 5G, um das mal herzunehmen. 1765 01:36:27,075 --> 01:36:29,594 Wie verstrahlt werden wir beispielsweise? 1766 01:36:29,675 --> 01:36:33,954 Wenn man auf die des Analysen des Bundesamts für Strahlenschutz sagt: 1767 01:36:34,035 --> 01:36:36,794 Es ist eine Behörde. Kann man der denn trauen? 1768 01:36:36,875 --> 01:36:38,925 Das sind dann halt auch die Punkte, 1769 01:36:39,006 --> 01:36:41,434 wie geht man mit wissenschaftlichen Daten um? 1770 01:36:41,515 --> 01:36:44,197 Und deswegen bin ich dankbar für den Vorschlag, 1771 01:36:44,278 --> 01:36:48,154 den einige geäußert haben, was eine zusätzliche Bundeszentrale betrifft. 1772 01:36:48,235 --> 01:36:51,283 Ob das für digitale Bildung oder digitale Aufklärung ist, 1773 01:36:51,364 --> 01:36:54,914 wie wir einfach weiter noch in die Bevölkerung reinkommen. 1774 01:36:54,995 --> 01:36:58,874 Damit wir dieses Misstrauen, was da ist, nicht nur zu zerstreuen, 1775 01:36:58,955 --> 01:37:03,754 sondern umzukehren, dass auch jeder sich in guten Händen fühlt. 1776 01:37:03,835 --> 01:37:05,388 Und ein Satz vielleicht noch, 1777 01:37:05,469 --> 01:37:08,794 warum das bei uns so ist oder womit immer argumentiert wird. 1778 01:37:08,875 --> 01:37:09,889 Ich erlebe ganz oft, 1779 01:37:09,970 --> 01:37:13,529 dass die Negativbeispiele ja selten aktuell aus dem eigenen Land kommen. 1780 01:37:13,610 --> 01:37:16,514 Deswegen würden mich auch Ihre Beispiele interessieren. 1781 01:37:16,595 --> 01:37:18,290 Es ist sehr vergangenheitsbezogen, 1782 01:37:18,371 --> 01:37:20,344 wo mal Missbrauch stattgefunden hat. 1783 01:37:20,425 --> 01:37:22,230 Oder was aus anderen Ländern kommt. 1784 01:37:22,311 --> 01:37:24,474 Oder was von anderen Institutionen kommt, 1785 01:37:24,555 --> 01:37:28,194 die jetzt nicht hier aus Deutschland sind oder von autoritären Systemen. 1786 01:37:28,275 --> 01:37:30,914 Aber sehr selten kriegt man Beispiele geliefert, 1787 01:37:30,995 --> 01:37:34,794 von einem deutschen Unternehmen, von einer deutschen Institution. 1788 01:37:34,875 --> 01:37:37,754 Vielleicht können Sie da auch nochmal was dazu sagen. 1789 01:37:37,835 --> 01:37:40,922 (Helge Braun) So, dann würde ich sagen, Herr Otto. 1790 01:37:41,003 --> 01:37:45,469 Fangen wir nochmal rechts an und gehen wir mal zügig um den Tisch. 1791 01:37:45,994 --> 01:37:51,754 (Boris Otto) Ich erlebe, dass für die Rolle des Datentreuhänders 1792 01:37:51,835 --> 01:37:56,568 relativ viele verschiedene Dinge noch dorthin hineinprojiziert werden. 1793 01:37:56,649 --> 01:37:58,649 Die sind aber alle berechtigt. 1794 01:37:58,730 --> 01:38:00,997 Zum einen bin ich der Überzeugung: 1795 01:38:01,078 --> 01:38:03,944 Mehr Unternehmen würden ihre Daten teilen, 1796 01:38:04,025 --> 01:38:06,947 wenn sie Transparenz über die Datennutzung hätten. 1797 01:38:07,028 --> 01:38:10,821 Es geht häufig gar nicht da drum, dass man die Datennutzung verhindert. 1798 01:38:10,902 --> 01:38:15,034 Aber man hat das Gefühl, dass man die Daten ins Nirvana schickt, 1799 01:38:15,115 --> 01:38:19,637 keine Kontrolle und Transparenz hat, was anschließend damit passiert. 1800 01:38:19,718 --> 01:38:24,874 Datentransparenz zu ermöglichen, scheint mir etwas zu sein, 1801 01:38:24,973 --> 01:38:28,371 was als Funktion des Datentreuhänders auch hineininterpretiert wird. 1802 01:38:28,452 --> 01:38:31,634 Ein zweiter Punkt, der damit verbunden ist, ich sprach es an. 1803 01:38:31,715 --> 01:38:35,154 Wir haben in Deutschland und in Europa die Konstellation, 1804 01:38:35,235 --> 01:38:39,368 dass wir nicht einen dominanten Akteur in einer Domäne haben. 1805 01:38:39,449 --> 01:38:42,638 Beispielsweise in der Logistik haben wir sehr viele Unternehmen, 1806 01:38:42,719 --> 01:38:47,519 die ähnlich groß im Verhältnis sind und ihre eigenen Plattformen haben. 1807 01:38:47,600 --> 01:38:51,333 Die auch wissen, dass das Teilen und das Zusammenführen 1808 01:38:51,414 --> 01:38:54,450 der Daten ihnen allen einen Vorteil bringen würde. 1809 01:38:54,531 --> 01:38:57,987 Aber das Misstrauen ist eben noch so groß, dass man sich fragt: 1810 01:38:58,068 --> 01:39:01,274 Naja, wer könnte denn der neutrale Dritte in der Mitte sein, 1811 01:39:01,355 --> 01:39:04,171 der quasi diese Deadlock-Situation für uns aufhebt? 1812 01:39:04,252 --> 01:39:05,830 Das wird auch in diesem Begriff 1813 01:39:05,911 --> 01:39:08,914 des Datentreuhänders durchaus mit hineininterpretiert. 1814 01:39:08,995 --> 01:39:11,661 Die dritte Funktion, die man wahrnimmt, 1815 01:39:11,742 --> 01:39:14,434 die mit einem Datentreuhänder verbunden wird, ist: 1816 01:39:14,515 --> 01:39:17,474 Ich hatte es angesprochen, dass die Data Readiness, 1817 01:39:17,555 --> 01:39:21,164 die Kompetenz mitzuspielen, nicht da ist. 1818 01:39:21,245 --> 01:39:24,074 Also überhaupt die eigenen Daten verfügbar zu machen, 1819 01:39:24,155 --> 01:39:27,259 um sie in einem Ökosystem zu verknüpfen. 1820 01:39:27,340 --> 01:39:28,839 Man wünscht sich jemanden, 1821 01:39:28,920 --> 01:39:32,394 der das als Servicedienstleistung halt anbietet. 1822 01:39:32,475 --> 01:39:38,400 Wir haben relativ viele heterogene, alle aber richtige Anforderungen 1823 01:39:38,481 --> 01:39:41,748 an die Funktion einer vertrauenswürdigen Stelle, 1824 01:39:41,829 --> 01:39:45,029 die uns beim Datenumgang und Datenteilen hilft. 1825 01:39:45,445 --> 01:39:47,712 Wenn ich jetzt zu Maßnahmen komme, 1826 01:39:47,793 --> 01:39:50,337 möchte ich vielleicht drei Punkte herausgreifen, 1827 01:39:50,418 --> 01:39:53,674 die dazu beitragen können, dass so eine Rolle sich etabliert. 1828 01:39:53,755 --> 01:39:56,834 Das erste ist, und Sie hatten es angesprochen, Herr Braun: 1829 01:39:56,915 --> 01:39:59,274 Wie geht das? Brauchen wir digitale Zertifikate? 1830 01:39:59,355 --> 01:40:02,328 Ja, die haben wir schon. Aber wir brauchen Zertifizierung. 1831 01:40:02,409 --> 01:40:05,274 Wir müssen uns drauf verlassen, dass Software, 1832 01:40:05,355 --> 01:40:10,074 Applikationen oder auch Algorithmen am Ende das tun, was sie tun sollen. 1833 01:40:10,155 --> 01:40:11,330 Und eben nicht mehr. 1834 01:40:11,411 --> 01:40:14,994 Damit verbunden ist eben halt auch die Möglichkeit, 1835 01:40:15,075 --> 01:40:18,771 gemeinsam die Zertifizierungskriterien zu schaffen. 1836 01:40:18,852 --> 01:40:22,834 Zum Beispiel bei GAIA-X oder auch der IDS-Initiative. 1837 01:40:22,915 --> 01:40:26,715 Man hängt nicht von einem ab, der diese Kriterien setzt, 1838 01:40:26,796 --> 01:40:30,862 man macht das als Gemeinschaft, wo jeder gleiche Rechte hat. 1839 01:40:30,943 --> 01:40:35,109 Ein weiterer Punkt, zweiter Punkt, ist mir in dem Zusammenhang wichtig. 1840 01:40:35,190 --> 01:40:37,590 Herr Shamsi oder Herr Karlitschek, 1841 01:40:37,671 --> 01:40:39,874 Sie hatten es angesprochen, Open Source. 1842 01:40:39,955 --> 01:40:42,720 Ich kann nachvollziehen, was die Software tut. 1843 01:40:42,801 --> 01:40:45,505 Ein ganz großer, ein großer Erfolgsfaktor. 1844 01:40:46,054 --> 01:40:51,194 Wir brauchen tatsächlich auch Vertrauensanker in der Technologie. 1845 01:40:51,275 --> 01:40:53,408 Also Technologie, die uns hilft, 1846 01:40:53,489 --> 01:40:56,233 Vertrauen auch tatsächlich technisch umzusetzen. 1847 01:40:56,314 --> 01:40:58,705 Weil, Herr Post, Sie hatten es angesprochen, 1848 01:40:58,786 --> 01:41:00,785 wir haben Netzwerke autonomer Systeme. 1849 01:41:00,866 --> 01:41:04,599 Die müssen letzten Endes halt auch über Technologie 1850 01:41:04,714 --> 01:41:08,314 Vertrauen implementieren und auch durchsetzen können. 1851 01:41:08,395 --> 01:41:10,995 Das wären meine Gedanken zu dem Thema: 1852 01:41:11,102 --> 01:41:12,986 Wie können wir Vertrauen schaffen? 1853 01:41:13,067 --> 01:41:16,010 Was sind letzten Endes auch die Erwartungshaltungen 1854 01:41:16,091 --> 01:41:20,275 an so eine vertrauensbildende Stelle, die man Datentreuhänder nennen kann? 1855 01:41:20,481 --> 01:41:22,328 (Helge Braun) (unverständlich) 1856 01:41:22,409 --> 01:41:26,114 (Regina T. Riphahn) Wir haben eine ganze Empfehlungen schon formuliert. 1857 01:41:26,195 --> 01:41:29,718 Beim Datentreuhänder kann man sich verschiedene Aufgaben vorstellen. 1858 01:41:29,799 --> 01:41:33,194 Danach muss man es wohl abschichten, wie man es organisieren möchte. 1859 01:41:33,275 --> 01:41:34,875 Eine Fragestellung wäre: 1860 01:41:34,956 --> 01:41:38,034 Wie bekommt man die Daten aus der kommerziellen Wirtschaft, 1861 01:41:38,115 --> 01:41:39,915 Big Data, an die Forschung? 1862 01:41:39,996 --> 01:41:42,536 Das ist momentan noch nicht gelöst 1863 01:41:42,617 --> 01:41:46,950 und bietet dennoch für beide Seiten eigentlich große Potenziale. 1864 01:41:47,031 --> 01:41:50,634 Die Forschung könnte gut davon profitieren, die Daten zu nutzen. 1865 01:41:50,715 --> 01:41:54,554 Datenanbieter, die Daten besitzen, können auch von der Forschung lernen. 1866 01:41:54,635 --> 01:41:57,462 Zum einen über die Inhalte, auch über die Datenqualität. 1867 01:41:57,543 --> 01:41:59,954 Es gibt nur noch keinen geregelten Rahmen, 1868 01:42:00,035 --> 01:42:02,453 wie dieser Übergang stattfinden kann. 1869 01:42:02,534 --> 01:42:04,707 Momentan ist es so, 1870 01:42:04,788 --> 01:42:08,200 dass solche Austausche stattfinden auf individueller Ebene. 1871 01:42:08,281 --> 01:42:10,754 Man kennt jemanden. Man bekommt die Daten. 1872 01:42:10,835 --> 01:42:14,186 Man hat sie eben nicht sicher, kann sie jederzeit verlieren. 1873 01:42:14,267 --> 01:42:16,554 Und die Rechte sind nicht wirklich definiert. 1874 01:42:16,635 --> 01:42:20,114 Das ist also die erste Ebene, Big Data Anbieter und Forscher. 1875 01:42:20,195 --> 01:42:23,914 Die zweite Ebene, auf der ein Daten- treuhänder sehr hilfreich sein kann, 1876 01:42:23,995 --> 01:42:26,274 ist genau das Problem der Datenverknüpfung. 1877 01:42:26,355 --> 01:42:28,994 Herr Kelber sagte, wir sind in der Welt, 1878 01:42:29,075 --> 01:42:31,175 wo wir die neue Transparenz haben. 1879 01:42:31,256 --> 01:42:32,844 Die mag für Facebook gelten. 1880 01:42:32,925 --> 01:42:36,186 Aber als Wissenschaftler, wenn ich mit Arbeitsmarktdaten arbeite 1881 01:42:36,267 --> 01:42:38,790 und was über die Gesundheit der Leute wissen will, 1882 01:42:38,871 --> 01:42:40,347 kriege ich keine Verknüpfung. 1883 01:42:40,428 --> 01:42:43,892 Wenn ich was weiß über Betriebe, weiß ich nichts über die Unternehmen. 1884 01:42:43,973 --> 01:42:46,906 Ich darf die nicht verknüpfen und die Daten festhalten. 1885 01:42:46,987 --> 01:42:48,538 Und dann gibt es eben Bedarfe, 1886 01:42:48,619 --> 01:42:51,034 verschiedene Datensätze für die Forschung. 1887 01:42:51,115 --> 01:42:53,314 Und dieses könnte ein Treuhänder tun, 1888 01:42:53,395 --> 01:42:55,954 wenn er gesetzlich dazu legitimiert wird. 1889 01:42:56,035 --> 01:42:58,339 Eine ganz andere Ebene sind die Themen, 1890 01:42:58,420 --> 01:43:00,634 die von der Wirtschaft angesprochen wurden: 1891 01:43:00,715 --> 01:43:02,915 die Unternehmensdatenverknüpfung. 1892 01:43:02,996 --> 01:43:06,129 Das sollen aber die Herren dazu selber klären. 1893 01:43:06,210 --> 01:43:07,210 Vielen Dank. 1894 01:43:08,136 --> 01:43:11,174 (Helge Braun) Die Wirtschaft ist schon angesprochen. 1895 01:43:11,255 --> 01:43:12,255 Herr Peylo. 1896 01:43:14,184 --> 01:43:15,888 (Christoph Peylo) Danke schön. 1897 01:43:15,969 --> 01:43:18,122 Also bei der Kultur des Misstrauens. 1898 01:43:18,203 --> 01:43:20,909 Wir können uns überlegen: Was macht ein Vertrauen aus? 1899 01:43:20,990 --> 01:43:22,874 Ich glaube, Vertrauen lässt sich so 1900 01:43:22,955 --> 01:43:25,463 in drei wesentliche Positionen hin unterbrechen. 1901 01:43:25,544 --> 01:43:29,544 Einmal der, dem ich vertraue oder die Institution, 1902 01:43:29,625 --> 01:43:32,954 der man vertrauen will, die muss eine gewisse Kompetenz haben. 1903 01:43:33,035 --> 01:43:36,235 Dann muss sie auch eine Rolle einnehmen können. 1904 01:43:36,316 --> 01:43:38,472 Das heißt also, es muss Spielregeln geben. 1905 01:43:38,553 --> 01:43:43,697 Und innerhalb dieser Spielregeln muss die Kompetenz und die Position, 1906 01:43:43,778 --> 01:43:46,856 etwas bewegen zu können, eine Rolle ausführen zu können, 1907 01:43:46,937 --> 01:43:49,350 muss klar definiert sein und die muss da sein. 1908 01:43:49,431 --> 01:43:51,666 Und dann muss es auch glaubhaft sein, 1909 01:43:51,747 --> 01:43:54,101 dass man diese Rolle auch einnehmen will. 1910 01:43:54,182 --> 01:43:55,927 Das ist wie bei einem Piloten. 1911 01:43:56,008 --> 01:43:58,394 Sie trauen einem Piloten, wenn er fliegen kann. 1912 01:43:58,475 --> 01:44:01,114 Wenn er die Kompetenz hat, wenn er diese Rolle hat. 1913 01:44:01,195 --> 01:44:04,498 Wenn es diese Infrastruktur gibt, dass er da agieren kann. 1914 01:44:04,579 --> 01:44:09,274 So etwas bräuchten wir eigentlich auch in dieser digitalen Welt. 1915 01:44:09,894 --> 01:44:12,714 Das haben wir nur unvollständig. 1916 01:44:12,795 --> 01:44:16,313 Deshalb kann ich diese Kultur des Misstrauens 1917 01:44:16,394 --> 01:44:18,979 auch irgendwo gewissermaßen nachvollziehen. 1918 01:44:19,060 --> 01:44:22,274 Ja? Also wir leben in einer Welt, wo selbst der Chef von Amazon, 1919 01:44:22,355 --> 01:44:25,236 wo ihm jetzt Daten geklaut wurden. 1920 01:44:27,866 --> 01:44:32,924 Bei dem normalen Menschen 1921 01:44:33,005 --> 01:44:35,210 wächst ja dann die Befürchtung: 1922 01:44:35,291 --> 01:44:37,412 Nicht einmal er kann seine Daten schützen. 1923 01:44:37,501 --> 01:44:39,690 Was mache ich denn dann mit meinen? 1924 01:44:39,771 --> 01:44:44,104 Das heißt, diese Bestrebungen, die es jetzt gerade überall gibt, 1925 01:44:44,185 --> 01:44:47,570 dass wir trustworthy AI machen wollen, ist ja richtig. 1926 01:44:47,651 --> 01:44:50,055 Also auf nationaler und internationaler Ebene. 1927 01:44:50,136 --> 01:44:54,003 Aber auf der darunter liegenden Ebene, das heißt, die IT, 1928 01:44:54,084 --> 01:44:59,755 gerade im IoT-Umfeld, da brauchen wir noch mehr Vertrauensbildung. 1929 01:44:59,836 --> 01:45:05,732 Dieser Digital Trust, da müssen wir noch alle mehr machen, 1930 01:45:06,548 --> 01:45:10,881 um diesem Misstrauen wirklich entgegenwirken zu können. 1931 01:45:10,962 --> 01:45:15,095 Also Zertifizierungen oder Siegel, 1932 01:45:15,176 --> 01:45:19,374 die dieselbe Aussagekraft haben 1933 01:45:19,455 --> 01:45:22,922 wie so ein Kleber "aus deutschen Landen" auf Joghurt, 1934 01:45:23,003 --> 01:45:24,674 das bringt eigentlich nichts. 1935 01:45:24,755 --> 01:45:26,421 Sondern das muss schon... 1936 01:45:26,502 --> 01:45:29,236 Wir müssen alles in ein Setting bringen. 1937 01:45:29,317 --> 01:45:32,114 Sowohl die IT-Schicht, das heißt die IoT-Devices 1938 01:45:32,195 --> 01:45:37,205 und alles, was darauf an Prozessen läuft für Big Data, 1939 01:45:37,286 --> 01:45:41,194 für die Künstliche Intelligenz. 1940 01:45:41,275 --> 01:45:44,629 Das müssen wir in ein Setting bringen. 1941 01:45:44,852 --> 01:45:49,714 Damit kann man zusichern, dass das nachvollziehbar ist, 1942 01:45:49,795 --> 01:45:52,057 dass das robust ist und sicher ist. 1943 01:45:52,138 --> 01:45:54,307 Wir müssen diese Hausaufgaben machen, 1944 01:45:54,388 --> 01:45:57,124 die haben wir erst teilweise gemacht als Gesellschaft. 1945 01:45:57,205 --> 01:45:59,275 Dann haben wir auch gute Chancen, 1946 01:45:59,356 --> 01:46:05,214 gegen diese Kultur des Misstrauens dann aktiv und sinnvoll anzugehen. 1947 01:46:06,364 --> 01:46:07,631 (Helge Braun) Post? 1948 01:46:08,683 --> 01:46:11,017 (Peter Post) Der sichere Umgang mit Daten 1949 01:46:11,098 --> 01:46:14,031 ist ein großes gesellschaftliches Lernfeld. 1950 01:46:14,112 --> 01:46:17,470 Es gibt andere Bereiche, in denen wir uns aufhalten, 1951 01:46:17,551 --> 01:46:21,914 beispielweise als Verkehrsteilnehmer oder als Fußgänger in Bereichen, 1952 01:46:21,995 --> 01:46:27,114 wo wir eine gewisse Erfahrung haben im Umgang mit Risiken. 1953 01:46:27,195 --> 01:46:29,194 Der fehlt uns hier an dieser Stelle 1954 01:46:29,275 --> 01:46:33,274 in diesem digitalen Kontext in großen Bereichen. 1955 01:46:34,107 --> 01:46:37,374 Was hier möglicherweise eine Anregung sein kann, 1956 01:46:37,455 --> 01:46:41,114 um Abhilfe zu schaffen und positive Erfahrung zu schaffen: 1957 01:46:41,195 --> 01:46:44,195 Die Implementierung irgendwelcher Testbetts. 1958 01:46:44,276 --> 01:46:47,434 Wo man in der Lage ist, ganz konkrete Erfahrungen zu machen. 1959 01:46:47,515 --> 01:46:49,034 Im Kontext der Industrie 4.0 1960 01:46:49,115 --> 01:46:52,981 machen wir beispielsweise momentan ein Rechtstestbett. 1961 01:46:53,062 --> 01:46:57,395 In dem werden bestimmte rechtliche Fragestellungen an konkreten, 1962 01:46:57,476 --> 01:47:02,862 bewusst herbeigeführten Problem- situationen experimentell getestet, 1963 01:47:02,943 --> 01:47:06,767 bis hin zu fingierten Gerichtsverhandlungen im Hintergrund. 1964 01:47:06,848 --> 01:47:08,181 Also beispielsweise: 1965 01:47:08,262 --> 01:47:11,554 Was passiert bei Vertragsabschlüssen von Maschinen untereinander, 1966 01:47:11,635 --> 01:47:13,163 wenn die autonom agieren? 1967 01:47:13,244 --> 01:47:16,013 Wer ist in welchem Kontext verantwortlich und Ähnliches. 1968 01:47:16,094 --> 01:47:19,715 Eventuell gibt es hier eine Möglichkeit, über öffentliche 1969 01:47:19,796 --> 01:47:23,754 oder ansonsten zugängliche Testbetts, in welcher Form auch immer, 1970 01:47:23,835 --> 01:47:28,954 bestimmte Vertrauensfragen, die man auch noch durchdiskutieren müsste, 1971 01:47:29,295 --> 01:47:33,934 welche an der Stelle geeignet sind, experimentell zu verifizieren. 1972 01:47:34,015 --> 01:47:38,252 Die Erfahrung dann letztlich positiv zu kommunizieren und zu sagen: 1973 01:47:38,333 --> 01:47:42,094 Das und das und das sind Erfahrungen, die wir hier erzielt haben, 1974 01:47:42,614 --> 01:47:46,334 um Stück für Stück in diese Vertrauenskultur, 1975 01:47:46,415 --> 01:47:49,748 die wir als Gesellschaft insgesamt lernen müssen, 1976 01:47:49,829 --> 01:47:52,363 um hier Stück für Stück den Weg zu gehen. 1977 01:47:55,174 --> 01:47:59,154 (Ulrich Kelber) Ich darf als Teil der Datenethikkommission sagen: 1978 01:47:59,235 --> 01:48:01,733 Wir haben diesem Thema einen großen Teil 1979 01:48:01,814 --> 01:48:05,514 unserer Arbeit gewidmet, den Treuhändersystemen. 1980 01:48:05,854 --> 01:48:07,854 Und haben auch gesagt, dass wir glauben: 1981 01:48:07,935 --> 01:48:12,056 Mit der Arbeit von Treuhändern mit dem, was verteiltes Lernen ist, 1982 01:48:12,137 --> 01:48:15,141 um die Frage der Erklärbarkeit von algorithmischen Systemen 1983 01:48:15,222 --> 01:48:19,155 wird man eine ganze Reihe der Punkte, die heute angesprochen worden sind, 1984 01:48:19,236 --> 01:48:20,703 in den Griff bekommen. 1985 01:48:20,784 --> 01:48:21,784 Drei Bereiche. 1986 01:48:21,865 --> 01:48:25,131 Einmal die unmittelbar maschinenbezogenen Daten. 1987 01:48:25,212 --> 01:48:29,074 Da ist es auch angesprochen worden, Zusammenarbeit von Unternehmen. 1988 01:48:29,155 --> 01:48:32,084 Dort, wo es maschinenbezogene Daten mit Personenbezug gibt. 1989 01:48:32,165 --> 01:48:34,959 Ich vermute mal, die Frage der Datentreuhänderschaft 1990 01:48:35,040 --> 01:48:37,978 beim Bereich Automobile ist eines, 1991 01:48:38,059 --> 01:48:41,099 das auch schon das Kanzleramt, bestimmt schon erreicht hat. 1992 01:48:41,180 --> 01:48:45,094 Dann die Datentreuhänderschaft bei unmittelbar personenbezogenen Daten, 1993 01:48:45,257 --> 01:48:49,480 beispielsweise Forschungsdaten und Gesundheit. 1994 01:48:49,561 --> 01:48:52,674 Da glauben wir in der Tat, dass natürlich relativ viele Dinge 1995 01:48:52,755 --> 01:48:54,705 dort auch algorithmenbasiert sind. 1996 01:48:54,786 --> 01:48:58,234 Aber dass tatsächlich Treuhänder eine Institution ist, 1997 01:48:58,574 --> 01:49:01,053 die eine Einwilligung bekommt. 1998 01:49:01,134 --> 01:49:04,406 Also wir unterhalten uns dort, wo eine Einwilligung notwendig ist. 1999 01:49:04,487 --> 01:49:07,714 Dort, wo es nicht gesetzliche oder vertragliche Grundlagen 2000 01:49:07,795 --> 01:49:10,034 für die Verarbeitung dieser Daten gibt. 2001 01:49:10,115 --> 01:49:12,354 Da haben wir heute halt die Situation, 2002 01:49:12,435 --> 01:49:14,874 dass es eigentlich aus Sicht des Datenschutzes 2003 01:49:14,955 --> 01:49:18,088 eine klare Zweckbindung der Einwilligung gibt. 2004 01:49:18,169 --> 01:49:20,834 Der Traum der Forscherinnen und Forscher war 2005 01:49:20,915 --> 01:49:24,198 der Metakonsent oder die Datenspende. 2006 01:49:24,279 --> 01:49:27,914 Die ist aus unserer Sicht nicht grundrechtlich abbildbar. 2007 01:49:27,995 --> 01:49:30,554 Aber die Idee, dass ich eine Einwilligung gegenüber 2008 01:49:30,635 --> 01:49:32,502 diesem Treuhänder ausspreche 2009 01:49:32,583 --> 01:49:35,670 und dieser Treuhänder zum Beispiel neue Projekte prüft, 2010 01:49:35,751 --> 01:49:39,818 ob die immer noch diese etwas breitere Einwilligung erfüllt, 2011 01:49:39,899 --> 01:49:43,754 das kann er auch mit einer höheren Expertise als die Einzelnen. 2012 01:49:43,835 --> 01:49:46,894 Die Wahrscheinlichkeit, eine erneute Einwilligung 2013 01:49:46,975 --> 01:49:50,675 dann zu bekommen, ist für die Forschung natürlich deutlich höher. 2014 01:49:50,756 --> 01:49:55,156 Zweitens könnte ein solcher Datentreuhänder auf vorhandenen Daten 2015 01:49:55,237 --> 01:49:58,651 eben mit verteiltem Lernen einen weiteren Safe Guard einziehen. 2016 01:49:58,732 --> 01:50:00,714 Eine weitere Sicherheitsmöglichkeit, 2017 01:50:00,795 --> 01:50:03,234 dass nicht personenbezogene Daten hinausgehen, 2018 01:50:03,315 --> 01:50:06,025 sondern, dass die Systeme daran lernen. 2019 01:50:06,106 --> 01:50:09,710 Er könnte natürlich auf diesen Daten auch die situationsspezifischen 2020 01:50:09,791 --> 01:50:13,814 Pseudonymisierungen und Anonymisierungen machen. 2021 01:50:14,254 --> 01:50:15,694 Zwei Dinge wären wichtig. 2022 01:50:15,775 --> 01:50:19,843 Das eine, diese Datentreuhänder müssten uneigennützig arbeiten, 2023 01:50:19,924 --> 01:50:23,085 dass sie nicht das Geld mit der Verwertung der Daten machen, 2024 01:50:23,166 --> 01:50:25,194 sondern sich selber finanzieren. 2025 01:50:25,275 --> 01:50:27,342 Außer sie sind staatsfinanziert 2026 01:50:27,423 --> 01:50:30,349 oder aus anderen Quellen mit der Bereithaltung der Daten. 2027 01:50:30,430 --> 01:50:34,488 Unabhängig davon, ob sie Ja oder Nein zu einer Auswertung sagen. 2028 01:50:34,714 --> 01:50:38,354 Es müsste sichergestellt werden, dass die Anbieter 2029 01:50:38,435 --> 01:50:43,694 die Datentreuhänder behandeln müssen, als sei es das Datensubjekt selbst. 2030 01:50:43,775 --> 01:50:46,314 Das ist leider keineswegs selbstverständlich. 2031 01:50:46,395 --> 01:50:49,999 Nehmen Sie Beispiele wie Industriestandard "Do Not Track". 2032 01:50:50,080 --> 01:50:53,514 Da ist etwas entwickelt worden, was die Arbeit erleichtern sollte. 2033 01:50:53,595 --> 01:50:55,696 Nach kürzester Zeit musste man feststellen, 2034 01:50:55,777 --> 01:50:59,874 viele Anbieter akzeptieren diese Methodik nicht, 2035 01:50:59,955 --> 01:51:02,908 wo ich meine Verantwortung auf einen Standard übertrage. 2036 01:51:02,989 --> 01:51:04,914 Das müsste rechtlich geklärt werden. 2037 01:51:04,995 --> 01:51:08,215 Das ist so die Kurzzusammenfassung von vielen Seiten, 2038 01:51:08,296 --> 01:51:09,834 die die Datenethikkommission 2039 01:51:09,915 --> 01:51:12,683 dem Thema Datentreuhänderschaft aufgeschrieben hat. 2040 01:51:12,764 --> 01:51:15,550 Dieser haben wir auch eine höhere Bedeutung zugemessen, 2041 01:51:15,631 --> 01:51:18,248 insbesondere auch im Bereich der Forschung. 2042 01:51:19,345 --> 01:51:21,345 (Helge Braun) (unverständlich) 2043 01:51:25,667 --> 01:51:27,534 (Susanne Dehmel) Drei Punkte. 2044 01:51:27,615 --> 01:51:31,161 Das eine, wie wir Vertrauen wieder oder wie wir Vertrauen herstellen. 2045 01:51:31,242 --> 01:51:33,604 Ich glaube, viel Vertrauen ging verloren, 2046 01:51:33,685 --> 01:51:36,954 weil wir sehr strenge Regelungen auch zum Umgang mit Daten haben, 2047 01:51:37,035 --> 01:51:39,454 also vor allem mit personenbezogenen Daten. 2048 01:51:39,535 --> 01:51:41,794 Die sind aber einfach vielfach 2049 01:51:41,875 --> 01:51:45,074 nicht durchgesetzt worden in den letzten Jahrzehnten. 2050 01:51:45,155 --> 01:51:47,842 Deswegen ist das Gefühl entstanden: 2051 01:51:47,923 --> 01:51:50,449 Es gibt zwar irgendwie diese sperrigen Regelungen, 2052 01:51:50,530 --> 01:51:52,754 auch im Alltag, ich muss überall einwilligen. 2053 01:51:52,835 --> 01:51:56,386 Aber ich weiß trotzdem nicht richtig, was mit meinen Daten gemacht wird. 2054 01:51:56,467 --> 01:51:59,674 Keiner vertraut, dass wirklich das gemacht wird, wie es da steht. 2055 01:51:59,755 --> 01:52:03,594 Das ist das eine, was wir, glaube ich, uns überlegen müssen, 2056 01:52:03,675 --> 01:52:05,884 wie wir da zu einer… 2057 01:52:05,965 --> 01:52:09,074 Wie wir vielleicht bei den Anforderungen mal runtergehen, 2058 01:52:09,155 --> 01:52:11,079 aber das, was wir dann fordern, 2059 01:52:11,160 --> 01:52:15,014 auch wirklich einhalten und dokumentiert einhalten. 2060 01:52:15,095 --> 01:52:17,539 Da spielt sicherlich Zertifizierung eine Rolle. 2061 01:52:17,620 --> 01:52:20,513 Da glaube ich allerdings, dass tatsächlich in erster Linie 2062 01:52:20,594 --> 01:52:22,746 die Wirtschaft in der Pflicht ist, 2063 01:52:22,827 --> 01:52:26,309 was die Schaffung von Standards und Zertifizierungsprozessen angeht. 2064 01:52:26,390 --> 01:52:28,056 Dass wir da voranzukommen 2065 01:52:28,137 --> 01:52:30,517 und die entsprechenden Systeme modernisieren. 2066 01:52:30,598 --> 01:52:33,114 Dass wir das so hinbekommen, dass das nutzbar ist. 2067 01:52:33,195 --> 01:52:36,728 Was die Datentreuhänder-Funktion angeht, glaube ich, 2068 01:52:36,809 --> 01:52:41,954 sind alle Erwartungshaltungen und Funktionen schon genannt worden. 2069 01:52:42,035 --> 01:52:46,614 Was die organisatorische Verortung angeht, glaube ich, 2070 01:52:46,695 --> 01:52:50,894 dass es wichtig ist, da nachzudenken, wo macht man das im Zweifel. 2071 01:52:50,975 --> 01:52:54,242 Es muss ja eine gewisse Unabhängigkeit bestehen, 2072 01:52:54,323 --> 01:52:55,914 sowohl gegenüber dem Staat, 2073 01:52:55,995 --> 01:53:01,994 als auch gegenüber den privatwirtschaftlichen Playern. 2074 01:53:02,075 --> 01:53:05,638 Und insofern, also mir schwebt da was vor, was jetzt… 2075 01:53:05,719 --> 01:53:08,374 Eine Stiftung ist jetzt vielleicht heutzutage 2076 01:53:08,455 --> 01:53:11,322 nicht das Wirtschaftlichste an der Stelle. 2077 01:53:11,403 --> 01:53:12,936 Aber so was in der Art. 2078 01:53:13,017 --> 01:53:15,674 Was finanziell vielleicht schon staatlicherseits 2079 01:53:15,755 --> 01:53:18,689 auch jedenfalls in Teilen abgesichert werden muss, 2080 01:53:18,770 --> 01:53:22,070 damit die Institution nicht drauf angewiesen ist, 2081 01:53:22,151 --> 01:53:26,285 möglichst viele Daten in Umlauf zu bringen oder zu verwerten. 2082 01:53:26,366 --> 01:53:30,374 Aber was so eine gewisse Distanz zu allen Seiten wahrt, 2083 01:53:30,455 --> 01:53:33,574 aber auch das Know-how und wiederum die Nähe hat, 2084 01:53:33,655 --> 01:53:36,654 dass es mitgehen kann mit der Zeit. 2085 01:53:38,014 --> 01:53:41,374 Das Dritte, was ganz wichtig ist, weil in der Diskussion auch immer… 2086 01:53:41,455 --> 01:53:43,374 Wir können nicht einmal sagen: 2087 01:53:43,455 --> 01:53:47,055 Wir haben da die Maschinendaten und da ist alles unproblematischer, 2088 01:53:47,136 --> 01:53:50,674 da haben wir personenbezogene Daten, da müssen wir ganz doll aufpassen. 2089 01:53:50,755 --> 01:53:54,519 Die Problematik, die wir haben, ist, dass diese Grenzen verschwimmen. 2090 01:53:54,600 --> 01:53:55,879 Die sind halt fließend. 2091 01:53:55,960 --> 01:53:59,474 Die ändern sich je nachdem, welche Datenbanken ich zusammenführe. 2092 01:53:59,555 --> 01:54:02,554 Mal habe ich reine Sensordaten und dann werden die 2093 01:54:02,635 --> 01:54:04,526 auf einmal zu personenbezogenen Daten, 2094 01:54:04,607 --> 01:54:07,674 weil ich noch die Arbeitszeiten von den Mitarbeitern dazutue, 2095 01:54:07,755 --> 01:54:09,888 die die Maschinen bedient haben. 2096 01:54:09,969 --> 01:54:12,594 Ich glaube deswegen ist auch eine wichtige Funktion 2097 01:54:12,675 --> 01:54:15,062 tatsächlich der Treuhänder, da diese… 2098 01:54:15,143 --> 01:54:17,914 Vielleicht auch die Sicherheit zu bieten, dass man sagt: 2099 01:54:17,995 --> 01:54:23,634 Der Übergang von personenbezogenen oder sicher personenbezogenen Daten 2100 01:54:23,715 --> 01:54:27,474 zu einem Datensatz mit anonymisierten Daten 2101 01:54:27,555 --> 01:54:29,714 oder auch pseudonymisierten Daten, 2102 01:54:29,795 --> 01:54:32,674 die aber nur im begrenzten Umfang jetzt benutzt werden. 2103 01:54:32,755 --> 01:54:37,354 Da eine Hilfestellung zu bieten, das wäre unheimlich wertvoll, 2104 01:54:37,435 --> 01:54:40,286 weil damit kämpfen glaube ich alle. 2105 01:54:40,367 --> 01:54:44,828 Weil wir eben nicht so sauber ein für alle Mal trennen können. 2106 01:54:44,909 --> 01:54:46,814 Hier, die Daten sind immer safe 2107 01:54:46,895 --> 01:54:51,374 und die sind immer Datenschutz, unterliegen ihm. 2108 01:54:53,493 --> 01:54:55,871 (Andreas Mundt) Ich glaube, die Herstellung 2109 01:54:55,952 --> 01:54:58,234 von Vertrauen hat ganz viele Komponenten. 2110 01:54:58,315 --> 01:55:01,711 Frau Bär, ich finde das wichtig und ich will da an eines anknüpfen, 2111 01:55:01,792 --> 01:55:03,810 was Frau Dehmel gerade gesagt hat. 2112 01:55:03,891 --> 01:55:09,397 Wir haben alle gelernt, dass wir einer uferlosen Verwendung unserer 2113 01:55:09,478 --> 01:55:13,046 Daten zustimmen müssen, wenn wir bestimmte Services nutzen wollen. 2114 01:55:13,127 --> 01:55:15,374 Wir haben auch gelernt, dass mit diesen Daten 2115 01:55:15,455 --> 01:55:17,915 Schindluder getrieben wird in vielerlei Hinsicht. 2116 01:55:17,996 --> 01:55:23,714 Dass diese Daten Opfer von unrechtmäßigen Zugriff werden etc. 2117 01:55:24,089 --> 01:55:28,194 Ich bin genauso der Auffassung, dass eine konsequente Durchsetzung 2118 01:55:28,275 --> 01:55:31,314 des Rechts, sei es die DSGVO, sei es das Kartellrecht, 2119 01:55:31,395 --> 01:55:34,954 seien es andere Dinge, die wir in der Offlinewelt 2120 01:55:35,035 --> 01:55:37,927 ganz selbstverständlich finden und hinnehmen, 2121 01:55:38,008 --> 01:55:40,834 das gilt auch für Beleidigungen, Hate Speech, Mobbing, 2122 01:55:40,915 --> 01:55:45,454 alles Mögliche, dass wir dies, was wir aus der Offlinewelt kennen, 2123 01:55:45,774 --> 01:55:48,814 dass wir das konsequent in die Onlinewelt übertragen. 2124 01:55:48,895 --> 01:55:51,784 Ich glaube, das Thema Rechtsdurchsetzung im Netz, 2125 01:55:51,865 --> 01:55:54,511 in der Onlinewelt, das ist ein ganz wichtiger Punkt. 2126 01:55:54,592 --> 01:55:59,154 Damit ich weiß, dass meine Daten, die ich dann zur Verfügung stelle, 2127 01:55:59,235 --> 01:56:01,904 dass damit eben auch kein Schindluder getrieben wird. 2128 01:56:01,985 --> 01:56:04,414 Und wenn, wird es so sanktioniert, 2129 01:56:04,495 --> 01:56:06,574 dass es eine abschreckende Wirkung ist. 2130 01:56:06,655 --> 01:56:08,949 Das ist der eine Punkt. Der zweite Punkt ist: 2131 01:56:09,030 --> 01:56:12,077 Ich finde, Datenaustausch braucht eine sichere Infrastruktur. 2132 01:56:12,158 --> 01:56:13,254 Ich muss wissen, 2133 01:56:13,335 --> 01:56:16,121 dass ich eine Infrastruktur habe, die es nicht erlaubt, 2134 01:56:16,202 --> 01:56:19,898 diese Daten dahin zu übertragen, wo sie nun wirklich nicht hingehören. 2135 01:56:19,979 --> 01:56:22,694 Deswegen war ich immer so ein begeisterter Verfechter 2136 01:56:22,775 --> 01:56:25,014 von GAIA-X und dachte: Endlich! Ja? 2137 01:56:25,095 --> 01:56:28,694 Diese souveräne deutsche, nicht deutsche, europäische Cloud, 2138 01:56:28,775 --> 01:56:32,494 die es uns erlaubt, souverän selbst zu bestimmen, 2139 01:56:32,894 --> 01:56:34,414 wie die Daten verteilt werden. 2140 01:56:34,495 --> 01:56:37,223 Wo auch nicht notfalls ein Stöpsel gezogen wird, 2141 01:56:37,304 --> 01:56:39,854 wenn es mal ganz ernst wird von irgendeiner Seite. 2142 01:56:39,935 --> 01:56:41,333 Wo wir sicher sein können, 2143 01:56:41,414 --> 01:56:44,018 dass die Daten da bleiben, wo wir sie hingetan haben. 2144 01:56:44,099 --> 01:56:45,974 Ich glaube, das ist der zweite Punkt. 2145 01:56:46,055 --> 01:56:49,454 Also, das Thema Vertrauen, das wird von ganz vielen Komponenten… 2146 01:56:49,535 --> 01:56:51,934 Der Treuhänder kann ein wichtiger Punkt sein, 2147 01:56:52,015 --> 01:56:53,613 wenn er vertrauenswürdig ist. 2148 01:56:53,694 --> 01:56:57,454 Aber auch der Treuhänder kann diese Dinge nicht erfüllen, 2149 01:56:57,535 --> 01:57:01,014 nicht Rechtsdurchsetzung, keine sichere Infrastruktur schaffen. 2150 01:57:01,095 --> 01:57:05,894 Ich glaube, dass der Staat da auch ein starkes Wort mitzureden hat 2151 01:57:05,975 --> 01:57:09,874 und hier vielleicht auch noch stärker aufgestellt sein muss. 2152 01:57:10,414 --> 01:57:12,814 (Helge Braun) Danke schön, Herr Dachwitz. 2153 01:57:13,321 --> 01:57:16,054 (Ingo Dachwitz) Als ersten Punkt würde ich auch sagen: 2154 01:57:16,135 --> 01:57:18,512 Damit die Leute Vertrauen in Datenkultur haben, 2155 01:57:18,593 --> 01:57:21,489 muss das geltende Recht durchgesetzt werden an der Stelle. 2156 01:57:21,570 --> 01:57:23,005 Dass das nicht der Fall ist, 2157 01:57:23,086 --> 01:57:25,785 erleben alle Menschen, sobald sie ins Internet gehen: 2158 01:57:25,866 --> 01:57:29,114 Der informationelle Kontrollverlust, der so nicht vorgesehen ist, 2159 01:57:29,195 --> 01:57:30,294 findet täglich statt. 2160 01:57:30,375 --> 01:57:32,352 Weil die A-Tec Industries beispielsweise 2161 01:57:32,433 --> 01:57:34,347 unkontrolliert und außer Kontrolle ist. 2162 01:57:34,428 --> 01:57:36,610 Die Datenethikkommission hat den Datenhandel 2163 01:57:36,691 --> 01:57:38,554 mit personenbezogenen Daten behandelt, 2164 01:57:38,635 --> 01:57:40,039 der auch unkontrolliert ist. 2165 01:57:40,120 --> 01:57:42,052 In viele Bereichen erleben die Bürger: 2166 01:57:42,133 --> 01:57:46,744 Das Recht wird nicht durchgesetzt, Versprechen werden nicht eingehalten. 2167 01:57:46,825 --> 01:57:48,634 Das ist der erste Anknüpfungspunkt. 2168 01:57:48,715 --> 01:57:51,259 Open Source wurde schon genannt von Herrn Otto, 2169 01:57:51,340 --> 01:57:56,055 als vertrauensbildende Maßnahme in die Technik, ja, in die Software. 2170 01:57:56,136 --> 01:57:59,274 Ich würde noch einen weiteren Punkt da ins Spiel bringen, 2171 01:57:59,355 --> 01:58:01,394 und das ist das Thema Produkthaftungen. 2172 01:58:01,475 --> 01:58:05,354 Wer haftet denn eigentlich dafür, wenn mein Gerät Dinge macht, 2173 01:58:05,435 --> 01:58:06,846 die es nicht machen soll? 2174 01:58:06,927 --> 01:58:10,234 Wenn Daten übertragen werden, die nicht übertragen werden sollten. 2175 01:58:10,315 --> 01:58:13,476 Also das ist eine Frage, die ja der Sachverständige 2176 01:58:13,557 --> 01:58:18,004 für Verbraucherfragen sehr stark gemacht hat in seinem Gutachten. 2177 01:58:18,085 --> 01:58:20,194 Da ist sicherlich Regelungsbedarf. 2178 01:58:20,275 --> 01:58:23,678 Das gilt übrigens noch weitergehend eigentlich als nur für Produkte. 2179 01:58:23,759 --> 01:58:25,193 Wer haftet denn dafür, 2180 01:58:25,274 --> 01:58:27,714 wenn ich beispielsweise falsch gescored werde 2181 01:58:27,795 --> 01:58:30,314 und aufgrund dessen negativ falsch behandelt werde? 2182 01:58:30,395 --> 01:58:32,392 Einen Kredit nicht bekomme und sowas. 2183 01:58:32,473 --> 01:58:35,634 Wer ist dafür verantwortlich? Wer trägt dafür die Verantwortung? 2184 01:58:35,715 --> 01:58:39,333 Ich glaube, das Vertrauensthema hat aber auch eine narrative Ebene. 2185 01:58:39,414 --> 01:58:42,874 Also wenn die Bundesregierung Startups fördern möchte 2186 01:58:42,955 --> 01:58:45,741 oder Unternehmen möchte oder Digitalwirtschaft möchte, 2187 01:58:45,822 --> 01:58:48,154 die sich nicht nur ans Recht halten, 2188 01:58:48,235 --> 01:58:51,194 sondern das Gemeinwohl in den Mittelpunkt stellen, 2189 01:58:51,275 --> 01:58:53,736 dann muss das auch stärker kommuniziert werden. 2190 01:58:53,817 --> 01:58:56,874 Dann müssten die Projekte, die im Prototype Fund… 2191 01:58:56,955 --> 01:59:00,674 Es gibt ja ein kleines Förderprogramm mit acht Millionen Euro glaube ich, 2192 01:59:00,755 --> 01:59:02,665 wo Technologie gefördert wird, 2193 01:59:02,746 --> 01:59:05,310 die anders funktioniert, die dem Gemeinwohl dient. 2194 01:59:05,391 --> 01:59:08,661 Die eben das, was sich unter verantwortungsvoller Datennutzung 2195 01:59:08,742 --> 01:59:11,101 in dem Eckpunktepapier versteckt, umsetzen. 2196 01:59:11,182 --> 01:59:13,668 Das müsste noch viel stärker A, Förderung finden 2197 01:59:13,749 --> 01:59:15,934 und B, aber auch kommuniziert werden. 2198 01:59:16,015 --> 01:59:19,382 Der letzte Punkt ist der von mir schon angesprochene. 2199 01:59:19,463 --> 01:59:21,739 Soll es Vertrauen in die Infrastruktur geben, 2200 01:59:21,820 --> 01:59:24,034 dann hat der Staat mit seiner Janusköpfigkeit 2201 01:59:24,115 --> 01:59:26,634 beim Thema IT-Sicherheit tatsächlich ein Problem. 2202 01:59:26,715 --> 01:59:28,914 Wenn staatliche Stellen Interesse haben, 2203 01:59:28,995 --> 01:59:31,634 dass die Sicherheitslücken nicht geschlossen werden, 2204 01:59:31,715 --> 01:59:33,794 gleichzeitig der Staat aber derjenige ist, 2205 01:59:33,875 --> 01:59:37,590 dem man vertrauen soll, ist es ein unauflösbarer Konflikt, 2206 01:59:37,671 --> 01:59:40,005 dem man sich trotzdem stellen muss. 2207 01:59:40,861 --> 01:59:42,834 Entweder, indem man die Kompetenzen 2208 01:59:42,915 --> 01:59:45,514 in der Bundesregierung neu sortiert oder man 2209 01:59:45,595 --> 01:59:48,058 gleich auf Maßnahmen wie Staatstrojaner verzichtet 2210 01:59:48,139 --> 01:59:51,839 und das Recht auf die Vertraulichkeit der informationstechnischen Systeme 2211 01:59:51,920 --> 01:59:53,155 eben durchgehend achtet. 2212 01:59:53,236 --> 01:59:56,126 (Helge Braun) Danke schön. Wir haben eine halbe Stunde. 2213 01:59:56,207 --> 01:59:58,634 Deshalb, wir haben jetzt schon mal zwei Stimmen 2214 01:59:58,715 --> 02:00:00,788 aus jedem Bereich zu dem Thema gehört. 2215 02:00:00,869 --> 02:00:03,514 Ich würde sagen, wenn bei den weiteren Wortmeldungen 2216 02:00:03,595 --> 02:00:07,034 dazu noch was gesagt werden soll, dann kann das erfolgen. 2217 02:00:07,115 --> 02:00:11,854 Ich würde aber vielleicht nochmal zwei weitere Fragen nachschieben 2218 02:00:12,334 --> 02:00:14,134 für die weitere Diskussion. 2219 02:00:14,215 --> 02:00:19,214 Das eine, was auch sehr aufflackert, ist das Thema Standards. 2220 02:00:19,295 --> 02:00:24,254 Ich glaube, wo wir einen sehr guten Prozess haben, ist bei Industrie 4.0. 2221 02:00:24,335 --> 02:00:26,854 Da sitzen alle an einem Tisch und überlegen sich, 2222 02:00:26,935 --> 02:00:29,735 wie finden hier Standardisierungen statt? 2223 02:00:29,816 --> 02:00:34,714 Aber wenn wir sozusagen generell in so einer datengetriebenen Welt 2224 02:00:34,795 --> 02:00:39,374 auch über Qualität reden, über das Zusammenführen von Daten, 2225 02:00:39,455 --> 02:00:44,534 um daraus Mehrwert zu generieren, dann ist jetzt auch etwas Besonderes, 2226 02:00:44,615 --> 02:00:48,174 dass wir eigentlich eine gewisse Tradition haben. 2227 02:00:48,255 --> 02:00:52,054 Wir haben auch eine vielleicht auch typisch deutsche Akribie, 2228 02:00:52,135 --> 02:00:55,454 dass wir sehr gut strukturierte Datensätze haben, 2229 02:00:55,535 --> 02:00:58,602 aber in völlig unterschiedlichsten Standards. 2230 02:00:58,683 --> 02:01:04,014 Damit sozusagen der Zugang auch erleichtert wird, ist die Frage: 2231 02:01:04,095 --> 02:01:06,934 Wie optimieren wir die Standardisierung? 2232 02:01:07,015 --> 02:01:09,934 Auch noch ein großes Thema. 2233 02:01:10,894 --> 02:01:12,254 Und da wäre auch die Frage: 2234 02:01:12,335 --> 02:01:15,534 Welche Rolle würden Sie in dem Bereich dem Staat zumessen? 2235 02:01:15,615 --> 02:01:17,814 Was müssten wir anschieben? 2236 02:01:17,895 --> 02:01:21,762 Weil wir in der analogen Welt 2237 02:01:21,843 --> 02:01:25,634 eine sehr starke industriegetriebene 2238 02:01:25,715 --> 02:01:28,434 und wirtschaftsgetriebene Standardisierung haben. 2239 02:01:28,515 --> 02:01:32,114 Aber ich merke das sehr, dass also sowohl aus dem Gesundheitssektor, 2240 02:01:32,195 --> 02:01:34,812 jetzt neulich war der Landwirtschaftssektor bei mir, 2241 02:01:34,893 --> 02:01:38,494 dass alle sich sozusagen einen gemeinsamen Standard wünschen, 2242 02:01:38,575 --> 02:01:42,574 aber irgendwie niemanden entdecken, der die Autorität hat, den zu setzen. 2243 02:01:43,238 --> 02:01:48,678 Insofern ist das ganze Thema Standardisierung noch eines. 2244 02:01:48,775 --> 02:01:54,214 Alle die, die auch so ein bisschen den Blick auf den Staat haben: 2245 02:01:55,627 --> 02:01:59,574 Es ist ja auch sehr viel Kritik hier laut geworden an dem Thema, 2246 02:01:59,655 --> 02:02:05,434 was wir als Staat bisher an Open Data tatsächlich bereitstellen. 2247 02:02:06,494 --> 02:02:10,174 Ich glaube erstmal, dass die Kritik grundsätzlich berechtigt ist. 2248 02:02:10,255 --> 02:02:12,254 Das hat aber zwei Ursachen. 2249 02:02:12,335 --> 02:02:18,142 Die eine ist, dass manche Prozesse im Staat nicht so digitalisiert sind, 2250 02:02:18,223 --> 02:02:23,374 dass wir die Datenpools überhaupt bereitstellen können. 2251 02:02:24,654 --> 02:02:26,694 Das zweite ist, dass wir natürlich da, 2252 02:02:26,775 --> 02:02:31,454 wo wir eine Aggregation von Daten, 2253 02:02:32,254 --> 02:02:36,254 die Erfüllung der hoheitlichen Aufgabe gar nicht erfordert, 2254 02:02:37,563 --> 02:02:39,774 wir nicht nur keine Kultur haben, zu sagen: 2255 02:02:39,855 --> 02:02:42,174 Wir bereiten die Daten trotzdem weiter auf, 2256 02:02:42,255 --> 02:02:46,854 weil da noch einiges Nützliches zusätzlich mit passieren kann. 2257 02:02:47,294 --> 02:02:51,374 Wir haben ja direkt auch rechtliche Schranken in der Frage, 2258 02:02:51,455 --> 02:02:54,934 dass wir mit den Daten nur das machen, was zweckbestimmt ist. 2259 02:02:58,382 --> 02:03:03,888 Es ist so, dass wir sehr viel Kosten und Energie aufbringen müssten, 2260 02:03:03,969 --> 02:03:06,414 gerade, wenn wir jetzt mal über Verkehrsdaten, 2261 02:03:06,495 --> 02:03:11,934 die nur in Echtzeit interessant sind, einfach für eine Bereitstellung. 2262 02:03:12,646 --> 02:03:16,006 Wobei der Staat ja die Frage nur schwer beantworten kann, 2263 02:03:16,087 --> 02:03:19,414 welches Potenzial jetzt in der wirtschaftlichen Verwertung liegt. 2264 02:03:19,495 --> 02:03:21,454 Also wir machen das, wenn wir es tun, 2265 02:03:21,535 --> 02:03:24,014 ja natürlich ein ganzes Stück auch auf Verdacht. 2266 02:03:24,203 --> 02:03:27,254 Ob Sie da vielleicht Best Practice kennen, 2267 02:03:27,694 --> 02:03:30,894 Übertragbarkeiten aus dem Unternehmensbereich 2268 02:03:30,975 --> 02:03:36,014 oder aus internationalen Kontexten, das würde mich nochmal interessieren. 2269 02:03:36,380 --> 02:03:38,694 Doro, hast du auch noch was, oder? 2270 02:03:38,965 --> 02:03:42,954 Dann mit dem zusätzlichen Päckchen gehen wir in die nächste Runde. 2271 02:03:43,035 --> 02:03:45,231 Herr Marquardt wäre dann jetzt mal dran. 2272 02:03:45,312 --> 02:03:48,129 (Wolfgang Marquardt) Bei Standards fällt einem natürlich 2273 02:03:48,210 --> 02:03:50,494 zunächst mal das Thema Austausch ein. 2274 02:03:50,575 --> 02:03:53,094 Das ist die Basis, auf der man arbeiten muss. 2275 02:03:53,175 --> 02:03:56,013 Man darf nicht in die Falle laufen, dass man glaubt, 2276 02:03:56,094 --> 02:04:00,534 ein Weltmodell für die Definition der Austauschformate zu entwickeln. 2277 02:04:00,615 --> 02:04:02,174 Das wäre der falsche Weg. 2278 02:04:02,255 --> 02:04:04,411 Auch in sagen wir mal beschränkten Sektoren, 2279 02:04:04,492 --> 02:04:07,134 also nicht Welt im ganz universalen Sinne. 2280 02:04:07,215 --> 02:04:09,414 Sondern wenn ich hoheitliche Aufgaben nehme, 2281 02:04:09,495 --> 02:04:12,094 auch da wäre ein Weltmodell schon viel zu vermessen. 2282 02:04:12,175 --> 02:04:16,134 Man muss eine Standardisierung in einem Schichtenmodell organisieren, 2283 02:04:16,215 --> 02:04:19,214 wo man jetzt in kleinen Teilbereichen sich einigt, 2284 02:04:19,295 --> 02:04:21,214 wie der Austausch organisiert wird. 2285 02:04:21,295 --> 02:04:24,066 Dann muss das mit Metastandards 2286 02:04:24,147 --> 02:04:26,214 da drüber wieder zusammengeführt werden. 2287 02:04:26,295 --> 02:04:29,014 Das vielleicht als Aussage eins. Die zweite: 2288 02:04:29,095 --> 02:04:31,694 Es ist zu kurz gesprungen, wenn man über sozusagen 2289 02:04:31,775 --> 02:04:37,118 basale Interoperabilität nachdenkt, um Austausch zu gewährleisten. 2290 02:04:37,199 --> 02:04:41,834 Ich muss unbedingt Aussagen machen zur Datenqualität und wissen, 2291 02:04:41,915 --> 02:04:45,994 welche Qualität von Daten ich bei diesem Austausch 2292 02:04:46,075 --> 02:04:49,894 auch mir hereinhole und auch, welche Daten ich rausgebe. 2293 02:04:49,975 --> 02:04:52,494 Damit eng zusammenhängend ist es wichtig, 2294 02:04:52,575 --> 02:04:58,194 die Nachvollziehbarkeit der Quelle der Daten, 2295 02:04:58,275 --> 02:05:02,714 die ich mir reinhole, wie auch die Frage des Ziels, 2296 02:05:02,795 --> 02:05:06,174 wo meine Daten sozusagen hingehen. 2297 02:05:06,255 --> 02:05:10,732 Da gehört natürlich auch Stichwort personenbezogene Daten dazu, 2298 02:05:11,059 --> 02:05:14,603 liegen Zustimmungen vor, diese Daten zu nutzen? 2299 02:05:14,684 --> 02:05:17,331 Weil die Daten ja aus Rechtsräumen kommen könnten, 2300 02:05:17,412 --> 02:05:19,854 wo es die Regeln, die wir haben, gar nicht gibt. 2301 02:05:19,935 --> 02:05:22,404 Das Thema Austausch nicht nur zu denken, 2302 02:05:22,485 --> 02:05:25,374 um es zusammenzufassen auf der basalen Interoperabilität, 2303 02:05:25,455 --> 02:05:29,174 "die Systeme sollen miteinander reden können". 2304 02:05:29,255 --> 02:05:32,396 Nicht zu glauben, dass es einen globalen Standard geben kann. 2305 02:05:32,477 --> 02:05:36,854 Den dann zu verknüpfen mit Qualitäts- fragen und Nachvollziehbarkeit, 2306 02:05:36,935 --> 02:05:41,668 also Traceabilty im weiten Sinne der Datenströme sicherzustellen. 2307 02:05:42,316 --> 02:05:44,709 (Irene Bertschek) Ja, Sie haben gerade gefragt, 2308 02:05:44,790 --> 02:05:47,934 welche Rolle der Staat bei der Standardisierung einnehmen soll. 2309 02:05:48,015 --> 02:05:52,894 Ich habe verfolgt, wie die Plattform Industrie 4.0 gearbeitet hat. 2310 02:05:52,975 --> 02:05:56,369 Jetzt haben wir den Fall GAIA-X, wo viele Akteure zusammen sind. 2311 02:05:56,450 --> 02:05:58,414 Ich glaube, dass es sehr wichtig ist, 2312 02:05:58,495 --> 02:06:00,894 dass der Staat da eine aktive Rolle einnimmt. 2313 02:06:00,975 --> 02:06:04,088 Also aktiv, aber gleichzeitig moderierend. 2314 02:06:04,169 --> 02:06:07,534 Ich glaube, dass es oft schwierig ist, so viele Akteure 2315 02:06:07,615 --> 02:06:10,374 zusammenzubringen und zu einer guten Lösung zu kommen, 2316 02:06:10,455 --> 02:06:12,862 wenn diese sich selbst organisieren. 2317 02:06:12,943 --> 02:06:17,574 Ich glaube, da würde ich den Staat in der Pflicht sehen, 2318 02:06:17,655 --> 02:06:21,254 eine moderierende, steuernde Rolle einzunehmen. 2319 02:06:21,335 --> 02:06:25,402 Nicht aber die Lösung sozusagen selbst entwickeln zu wollen. 2320 02:06:25,863 --> 02:06:28,734 Der zweite Punkt nochmal, den Sie angesprochen haben: 2321 02:06:28,815 --> 02:06:29,815 Open Data. 2322 02:06:29,896 --> 02:06:32,666 Ich glaube, es ist ganz wichtig, also zum Teil. 2323 02:06:32,747 --> 02:06:35,414 Die Datenschutzgrundverordnung gibt den Forschenden 2324 02:06:35,495 --> 02:06:38,174 eigentlich mehr Freiheiten als sie die vorher hatten. 2325 02:06:38,255 --> 02:06:40,414 Also das möchte ich nochmal betonen, 2326 02:06:40,495 --> 02:06:43,095 dass Daten verknüpfbar gemacht werden, 2327 02:06:43,176 --> 02:06:48,134 die in unterschiedlichen Bundesbehörden liegen. 2328 02:06:48,667 --> 02:06:51,614 Entweder durch eine dieser Behörden 2329 02:06:51,695 --> 02:06:54,134 oder eine neutrale Behörde, die sie verknüpfen. 2330 02:06:54,215 --> 02:06:58,134 Ich glaube, dass das relativ einfach machbar wäre, 2331 02:06:58,215 --> 02:07:03,774 ohne weitere gesetzliche Regelungen einzuziehen. 2332 02:07:04,334 --> 02:07:05,334 Danke schön. 2333 02:07:07,212 --> 02:07:10,348 (Frank Karlitschek) Standards sind ein spannendes Thema. 2334 02:07:10,429 --> 02:07:12,694 Insbesondere, weil es so viele davon gibt. 2335 02:07:12,775 --> 02:07:14,254 Das ist auch sehr schön. 2336 02:07:14,335 --> 02:07:16,025 Deswegen weiß ich nicht genau, 2337 02:07:16,106 --> 02:07:18,294 ob es notwendig ist, weitere zu entwickeln. 2338 02:07:18,375 --> 02:07:19,737 Aber ich würde zustimmen, 2339 02:07:19,818 --> 02:07:22,885 dass eine Moderation hier sehr hilfreich ist. 2340 02:07:23,294 --> 02:07:26,417 Weil es sind ja internationale Themen. 2341 02:07:26,498 --> 02:07:29,534 Ein deutscher Standard würde auch nicht so viel bringen, 2342 02:07:29,615 --> 02:07:31,414 sondern das ist ja international. 2343 02:07:31,495 --> 02:07:34,428 Hier müssen die Daten ja austauschbar sein. 2344 02:07:35,160 --> 02:07:38,595 Ich finde, eine tolle Rolle für den Staat könnte sein 2345 02:07:38,676 --> 02:07:43,934 zu moderieren, beispielsweise bei Vergabeverfahren von IT-Projekten. 2346 02:07:44,414 --> 02:07:49,099 Wenn man sagen würde, Public Money, Public Code, Public Standards. 2347 02:07:49,180 --> 02:07:52,592 Um das immer wieder fortzuführen, dieses Bild, sagt man: 2348 02:07:52,673 --> 02:07:55,454 Naja, wenn jetzt hier öffentliche IT-Projekte eingeführt 2349 02:07:55,535 --> 02:07:58,254 und beschafft werden sollen, dann erfordert man eben, 2350 02:07:58,335 --> 02:08:04,054 dass die Daten in offenen Standards abgelegt werden 2351 02:08:04,135 --> 02:08:06,053 und auch austauschbar sind. 2352 02:08:06,134 --> 02:08:09,454 In der DSGVO gibt es ja diese Data Portability, 2353 02:08:09,734 --> 02:08:12,014 die teilweise noch nicht wirklich gelebt wird. 2354 02:08:12,095 --> 02:08:15,256 Aber wenn man sagen würde, das ist sozusagen eine Voraussetzung 2355 02:08:15,337 --> 02:08:18,214 für öffentliche IT-Projekte, könnte man damit eigentlich 2356 02:08:18,295 --> 02:08:20,252 einen offenen Markt schaffen. 2357 02:08:20,333 --> 02:08:23,974 Dann sind alle Teilnehmer in derselben Playing Field 2358 02:08:24,534 --> 02:08:28,294 und die Daten können dann frei fließen. 2359 02:08:29,724 --> 02:08:33,334 (Katharina A. Zweig) Ich würde Sie gerne kurz auf eine Vision mitnehmen, 2360 02:08:33,415 --> 02:08:35,466 wie ich mir das mit Treuhändern vorstelle. 2361 02:08:35,547 --> 02:08:38,212 Standardisierung wird an zwei Stellen dabei sein. 2362 02:08:38,293 --> 02:08:39,654 Ich stelle mir das so vor: 2363 02:08:39,735 --> 02:08:42,482 Ich bestelle Bücher bei einem großen Onlinehändler. 2364 02:08:42,563 --> 02:08:45,174 Der braucht meine Daten, um mir das Buch zuzuschicken 2365 02:08:45,255 --> 02:08:47,137 und um mich bezahlen zu lassen. 2366 02:08:47,218 --> 02:08:49,254 Aber er muss mir nicht dabei zugucken, 2367 02:08:49,335 --> 02:08:52,934 welche Bücher ich in den letzten fünf Jahren bei ihm gekauft habe. 2368 02:08:53,015 --> 02:08:58,500 Das heißt, diese Daten bietet mir der Onlineshop jetzt an. 2369 02:08:58,581 --> 02:09:01,706 Ich gebe den an meinen Datentreuhänder weiter. 2370 02:09:01,787 --> 02:09:03,974 Datentreuhänder, das muss ein Markt sein. 2371 02:09:04,055 --> 02:09:06,636 Das ist keine staatliche Infrastruktur. 2372 02:09:06,717 --> 02:09:11,447 Aber der Staat beziehungsweise die DIN, der VDE, 2373 02:09:11,528 --> 02:09:16,047 die immer auch die europäische Sichtweise mit vertreten, 2374 02:09:16,128 --> 02:09:20,854 normiert die Qualitätssicherung des Prozesses der Datenablage 2375 02:09:20,935 --> 02:09:22,660 und des Datenzugangs. 2376 02:09:22,741 --> 02:09:25,904 Natürlich haben die auch Versicherungen abgeschlossen, 2377 02:09:25,985 --> 02:09:29,174 sodass im Schadensfall, wenn meine Daten deanonymisiert werden 2378 02:09:29,255 --> 02:09:31,994 beispielsweise hohe Sanktionen möglich sind. 2379 02:09:32,075 --> 02:09:33,541 Auch wenn der einzelne Nutzer 2380 02:09:33,622 --> 02:09:35,854 nicht so viel Geld hat, mir das zu bezahlen. 2381 02:09:35,935 --> 02:09:39,207 Wir haben also einen Markt, sowohl auf der Versicherungsseite, 2382 02:09:39,288 --> 02:09:41,014 als auch bei den Datentreuhändern. 2383 02:09:41,095 --> 02:09:46,098 Die Qualitätssicherung passiert im Prozess durch eine Standardisierung. 2384 02:09:46,179 --> 02:09:49,494 Ich bekomme jetzt einen Vertrag mit meinem Onlinebuchhändler, 2385 02:09:49,575 --> 02:09:54,134 denn ich habe meine Daten der Nutzung der Website weitergegeben. 2386 02:09:54,215 --> 02:09:58,814 Mir kann damit Geld angeboten werden für dies Lernen auf meinen Daten, 2387 02:09:58,895 --> 02:10:00,774 aber nicht für meine Daten. 2388 02:10:00,855 --> 02:10:04,455 Meine Daten bleiben bei mir, bei dem Datentreuhänder. 2389 02:10:05,114 --> 02:10:10,214 Der Onlineshop muss das Dateninterface freigeben. 2390 02:10:10,814 --> 02:10:15,254 Hier haben wir den zweiten Standard, der nebenbei passiert. 2391 02:10:15,654 --> 02:10:17,774 Denn in dem Moment, wo das meine Daten sind 2392 02:10:17,855 --> 02:10:22,774 und der Ersterzeuger dieser Daten oder wir haben die gemeinsam erzeugt, 2393 02:10:23,094 --> 02:10:26,334 muss sagen, welche Art von Daten das sind, wie die abgelegt sind. 2394 02:10:26,415 --> 02:10:29,033 Dann können andere Marktplayer mich ebenfalls fragen, 2395 02:10:29,114 --> 02:10:32,774 ob sie nicht sehen dürfen, was ich in den letzten Jahren gekauft habe. 2396 02:10:32,855 --> 02:10:35,134 Das ist also eine interne Standardisierung, 2397 02:10:35,215 --> 02:10:37,242 die gar nicht groß betrieben werden muss, 2398 02:10:37,323 --> 02:10:42,174 sondern einfach dadurch erzeugt wird, dass das mit zum Vertrag gehört, 2399 02:10:42,255 --> 02:10:44,635 dass dieses Interface freigegeben wird. 2400 02:10:44,716 --> 02:10:48,054 Wie gesagt, bei der Nutzung, beim Lernen wird Mehrwert generiert, 2401 02:10:48,135 --> 02:10:50,613 den wir messen können, den wir besteuern können. 2402 02:10:50,694 --> 02:10:53,164 Ganz wichtig für mich, ich habe es vorhin gesagt, 2403 02:10:53,245 --> 02:10:55,934 die rote Linie ist, dass wir nachher diese Daten 2404 02:10:56,015 --> 02:10:58,342 zentral doch irgendwie zusammenführen können. 2405 02:10:58,423 --> 02:11:01,954 Ich möchte einen physischen Stick vielleicht zu Hause haben, 2406 02:11:02,035 --> 02:11:05,234 vielleicht in meiner Bank, den ich jederzeit rausziehen kann 2407 02:11:05,315 --> 02:11:07,994 und dann sind meine Daten sofort so verschlüsselt, 2408 02:11:08,075 --> 02:11:12,154 dass da niemand mehr rankommt bis auf Quantencomputer, 2409 02:11:12,235 --> 02:11:14,674 wenn die jetzt in den nächsten Jahren zunehmen. 2410 02:11:14,755 --> 02:11:17,502 Das wäre eine Gesamtvision, die ein bisschen zeigt, 2411 02:11:17,583 --> 02:11:19,914 wie all dieses ineinandergreifen kann 2412 02:11:19,995 --> 02:11:23,604 und wie auch Standardisierung von alleine passieren kann. 2413 02:11:23,685 --> 02:11:26,485 (Helge Braun) Danke schön, Herr Schneider. 2414 02:11:27,204 --> 02:11:30,396 (Jens-Peter Schneider) Wenn ich an Standardsetzung denke, 2415 02:11:30,477 --> 02:11:32,971 das ist ein altes Thema, das wir schon hatten. 2416 02:11:33,052 --> 02:11:35,147 Auch im Umweltbereich und anderen Dingen, 2417 02:11:35,228 --> 02:11:37,230 daher ist die moderierende Rolle richtig. 2418 02:11:37,311 --> 02:11:38,914 Der Staat kann das nicht selber. 2419 02:11:38,995 --> 02:11:42,062 Gleichwohl müssen wir ja auch, Thema Vertrauen und Treuhänder, 2420 02:11:42,143 --> 02:11:43,594 drei Bereiche unterscheiden. 2421 02:11:43,675 --> 02:11:46,739 Das eine ist die Industrie, das andere ist der Staat in sich. 2422 02:11:46,820 --> 02:11:49,774 Wie schaffen wir es da eigentlich, Vertrauen zu schaffen? 2423 02:11:49,855 --> 02:11:51,110 Ich beschäftige mich viel 2424 02:11:51,191 --> 02:11:53,674 mit europäischen Informationsnetzen und -systemen. 2425 02:11:53,755 --> 02:11:55,154 Da ist es nicht trivial, 2426 02:11:55,235 --> 02:11:58,214 dass ein Mitgliedsstaat Daten weitergibt an den anderen. 2427 02:11:58,295 --> 02:12:00,875 Das Gleiche gilt in der Bundesrepublik Deutschland. 2428 02:12:00,956 --> 02:12:03,934 Da muss Vertrauen geschaffen werden, dass man nicht denkt: 2429 02:12:04,015 --> 02:12:06,374 Eine Bundesland nutzt das am Ende irgendwie 2430 02:12:06,455 --> 02:12:08,448 und sei es nur reputativ, gegen mich. 2431 02:12:08,529 --> 02:12:11,696 Dann die dritte Ebene eben, das, was hier viele betrifft, 2432 02:12:11,777 --> 02:12:13,874 die Zivilgesellschaft, die Einzelnen. 2433 02:12:13,955 --> 02:12:17,514 Deswegen sind diese Datentreuhänder sehr unterschiedliche Konzepte. 2434 02:12:17,595 --> 02:12:21,554 Das sollte man nicht alles nach einem Leisten schlagen. 2435 02:12:21,635 --> 02:12:24,734 Der Leisten sollte auch vielleicht nicht perfekt sein. 2436 02:12:24,815 --> 02:12:28,179 Wir hatten mal so etwas wie die elektronische Signatur. 2437 02:12:28,260 --> 02:12:32,354 Da hatte Deutschland eines der weltweit besten Anforderungsprofile. 2438 02:12:32,435 --> 02:12:34,874 Das hat nur dazu geführt, dass es niemand nutzte. 2439 02:12:34,955 --> 02:12:37,447 Daher haben wir sie dann wieder abgebaut. 2440 02:12:37,528 --> 02:12:38,794 Das ist nicht produktiv. 2441 02:12:38,875 --> 02:12:40,395 Deswegen muss man da sehen, 2442 02:12:40,476 --> 02:12:43,354 dass man da wirklich mit Experimentierspielräumen geht. 2443 02:12:43,435 --> 02:12:45,634 Das geht nur, weil es auch um Risiken geht, 2444 02:12:45,715 --> 02:12:47,774 wenn man gleichzeitig Monitoring betreibt. 2445 02:12:47,855 --> 02:12:52,954 Deswegen gehört das zusammen und muss mitgedacht werden. 2446 02:12:53,174 --> 02:12:56,319 Insofern würde ich es dabei jetzt an der Stelle lassen. 2447 02:12:56,400 --> 02:12:57,400 Danke. 2448 02:12:57,488 --> 02:12:59,512 (Helge Braun) Danke. Frau Müller. 2449 02:13:00,127 --> 02:13:03,694 (Lena-Sophie Müller) Ich würde gerne noch auf einen Aspekt hinweisen, 2450 02:13:03,775 --> 02:13:06,203 der auch im Global Risk Report, genannt ist, 2451 02:13:06,284 --> 02:13:08,417 der gerade veröffentlicht wurde. 2452 02:13:08,498 --> 02:13:12,514 Nämlich, dass wir eine sehr starke Fragmentierung von Regulierungen, 2453 02:13:12,595 --> 02:13:15,616 Standards und co haben und die zu einem Risiko werden. 2454 02:13:15,697 --> 02:13:17,954 Von daher, wenn Sie mich fragen, was ich mir 2455 02:13:18,035 --> 02:13:20,514 von der staatlichen Rolle Deutschlands wünsche, 2456 02:13:20,595 --> 02:13:22,334 sind das vielleicht zwei Aspekte. 2457 02:13:22,415 --> 02:13:25,174 Der eine ist, dass ich mir den Staat in diesen Bereichen 2458 02:13:25,255 --> 02:13:27,614 auch ein Stück weit als mein Vordenker wünsche 2459 02:13:27,695 --> 02:13:30,814 und der schaut, wo er einen Hebel hat, lenkend zu eingreifen. 2460 02:13:30,895 --> 02:13:32,418 Das muss auf internationaler, 2461 02:13:32,499 --> 02:13:35,174 teilweise sogar auf supranationaler Ebene passieren. 2462 02:13:35,255 --> 02:13:38,934 Weil alle diese neuen Technologien, die viele Möglichkeiten schaffen, 2463 02:13:39,015 --> 02:13:41,773 Face Recognition, Künstliche Intelligenz und co, 2464 02:13:41,854 --> 02:13:44,898 das ist das, wo auch aktuell die Weichen gestellt werden. 2465 02:13:44,979 --> 02:13:48,713 Die werden meines Erachtens nicht durch europäische Werte geprägt, 2466 02:13:48,794 --> 02:13:51,049 sondern durch andere Standards gesetzt. 2467 02:13:51,130 --> 02:13:55,054 Ich wünsche mir, dass wir da sehr aktiv sind und einen Blick hin haben. 2468 02:13:55,135 --> 02:13:58,454 Der andere Hebel ist, dass wir natürlich, 2469 02:13:58,535 --> 02:14:01,694 dass man mit Standards auch immer eine gestaltende Rolle hat. 2470 02:14:01,775 --> 02:14:06,355 Damit dann auch zum Beispiel Lizenzstandards schaffen kann 2471 02:14:06,436 --> 02:14:07,814 und sich überlegen kann: 2472 02:14:07,895 --> 02:14:10,988 Wenn wir über öffentliche Gelder Daten bereitstellen, 2473 02:14:11,069 --> 02:14:14,714 über die Systeme trainiert werden, was sind eigentlich die Erkenntnisse, 2474 02:14:14,795 --> 02:14:16,774 die über diese Systeme erlernt werden? 2475 02:14:16,855 --> 02:14:19,011 Unter welcher Lizenz liegen die eigentlich? 2476 02:14:19,092 --> 02:14:21,993 Sollten die nicht dem Gemeinwohl verfügbar gemacht werden? 2477 02:14:22,074 --> 02:14:24,243 Das sind auch Gedanken, die ich mir wünsche, 2478 02:14:24,324 --> 02:14:27,790 die sich der Staat in seiner Vordenkerrolle macht. 2479 02:14:29,167 --> 02:14:30,900 (Helge Braun) Vielen Dank. 2480 02:14:30,981 --> 02:14:34,622 Dann gehen wir noch sozusagen… 2481 02:14:35,837 --> 02:14:39,064 Öffnen wir jetzt mal thematisch, was noch nicht gesagt wurde. 2482 02:14:39,145 --> 02:14:43,394 Weil in einer Viertelstunde ist unser Treffen zu Ende. 2483 02:14:43,475 --> 02:14:47,494 Das heißt, famous last words von jedem, der sich noch meldet. 2484 02:14:47,854 --> 02:14:48,854 Herr Otto. 2485 02:14:50,061 --> 02:14:53,374 (Boris Otto) Vielleicht in Ergänzung zu der Standards-Diskussion. 2486 02:14:53,455 --> 02:14:56,418 Ich glaube in der Tat, der alte Spruch gilt schon: 2487 02:14:56,499 --> 02:14:59,074 Wir haben viele Standards, das ist das Schöne daran. 2488 02:14:59,155 --> 02:15:01,480 Für einen Bereich haben wir keine Standards, 2489 02:15:01,561 --> 02:15:05,614 nämlich für die Regeln, die die Datennutzung bestimmen und festlegen. 2490 02:15:05,695 --> 02:15:08,686 Um ein paar Beispiele zu geben, solche Regeln sind: 2491 02:15:08,767 --> 02:15:11,974 Du darfst die Daten nutzen bis zu einem bestimmten Zeitpunkt. 2492 02:15:12,055 --> 02:15:14,391 Du darfst sie einmal lesen oder n-mal lesen. 2493 02:15:14,472 --> 02:15:16,154 Du darfst sie nicht weiterleiten 2494 02:15:16,235 --> 02:15:19,524 oder du darfst sie weiterleiten gegen eine gewisse Gebühr. 2495 02:15:19,605 --> 02:15:22,046 Diese Regeln sind noch nicht standardisiert 2496 02:15:22,127 --> 02:15:25,020 und auch nicht in einer Form, die maschinenlesbar ist. 2497 02:15:25,101 --> 02:15:28,774 So was brauchen wir aber, wenn Systeme, autonome Systeme, 2498 02:15:29,054 --> 02:15:31,294 die Datennutzung verhandeln wollen. 2499 02:15:31,375 --> 02:15:35,134 Sie könnten eben halt auch Grundlage sein für Datennutzungsverträge. 2500 02:15:35,215 --> 02:15:38,094 Also das ist ein Bereich, der sehr wichtig ist. 2501 02:15:38,175 --> 02:15:41,914 Wie gesagt diese Terms and Conditions für Datenökonomie zu standardisieren, 2502 02:15:41,995 --> 02:15:43,662 das haben wir noch nicht. 2503 02:15:43,743 --> 02:15:45,248 Wie sollten wir vorgehen? 2504 02:15:45,329 --> 02:15:47,614 Wir sollten auf de facto Standards setzen, 2505 02:15:47,695 --> 02:15:51,534 weil wir damit einfach schneller sind und diese Standardisierung 2506 02:15:51,615 --> 02:15:54,494 eben halt möglicherweise moderiert durch den Staat, 2507 02:15:54,575 --> 02:15:58,354 aber im Wesentlichen durch die Akteure vorangetrieben werden sollte. 2508 02:15:58,435 --> 02:16:00,734 Dann müssen wir eben auch sicherstellen, 2509 02:16:00,815 --> 02:16:02,774 dass ein Standard nur dann was wert ist, 2510 02:16:02,855 --> 02:16:05,638 wenn er implementiert wird, wenn er genutzt wird. 2511 02:16:05,719 --> 02:16:09,185 Deshalb wäre eine Rolle des Staates an dieser Ecke, 2512 02:16:09,266 --> 02:16:11,654 dass er dann, wenn er als Nutzer auftritt, 2513 02:16:11,735 --> 02:16:16,094 im Prinzip auch die Einhaltung und die Nutzung dieser Standards 2514 02:16:16,175 --> 02:16:17,708 tatsächlich einfordert. 2515 02:16:17,789 --> 02:16:22,523 Damit würde er eine Adaption und eine weitreichende Nutzung befördern. 2516 02:16:23,254 --> 02:16:26,334 (Helge Braun) Mir ist gerade noch eine Frage eingefallen, 2517 02:16:26,415 --> 02:16:31,134 weil es mehrfach angemahnt wurde, dass wir die Portabilität fördern. 2518 02:16:31,215 --> 02:16:34,988 Wenn der eine oder andere nochmal eine Idee in den Raum wirft, 2519 02:16:35,069 --> 02:16:37,854 was da das Doing wäre, um das zu schaffen. 2520 02:16:38,433 --> 02:16:40,300 (Regina T. Riphahn) Vielen Dank. 2521 02:16:40,381 --> 02:16:43,057 Ich möchte zuerst zu den Standards reagieren. 2522 02:16:43,138 --> 02:16:48,014 Als Sozial- und Wirtschaftsforschende ist das Standardisierungsproblem 2523 02:16:48,095 --> 02:16:50,934 in unseren Daten der Föderalismus. 2524 02:16:51,015 --> 02:16:55,694 Ich denke, durch die Digitalisierung bekommt das Föderalismusproblem 2525 02:16:55,775 --> 02:16:59,453 eine ganz neue Dimension und eine ganz neue Brisanz. 2526 02:16:59,534 --> 02:17:01,934 In Deutschland hat die KMK beschlossen, 2527 02:17:02,015 --> 02:17:04,018 wir sollten Schülerkerndatensätze machen. 2528 02:17:04,099 --> 02:17:05,954 Jedes Bundesland macht, was es will. 2529 02:17:06,035 --> 02:17:08,338 Ein paar tun es. Ein paar geben sie raus. 2530 02:17:08,419 --> 02:17:10,827 Die meistern mauern wegen Datenschutz angeblich. 2531 02:17:10,908 --> 02:17:14,576 Wir brauchen Melderegister, die man in einem Zensus zusammenführt. 2532 02:17:14,657 --> 02:17:16,716 Jedes Bundesland darf machen, was es will. 2533 02:17:16,797 --> 02:17:18,874 Österreich ist uns Jahrzehnte voraus. 2534 02:17:18,955 --> 02:17:20,944 Die Schweiz ist uns Jahrzehnte voraus. 2535 02:17:21,025 --> 02:17:23,488 Wir hinken hinterher wegen Föderalismus. 2536 02:17:23,569 --> 02:17:26,514 Die EU sagt uns, wir sollten Lernkarten machen. 2537 02:17:26,595 --> 02:17:30,154 Jede Gemeinde macht Lernkarten, aber jede in einem anderen Format. 2538 02:17:30,235 --> 02:17:32,494 Niemand kann mit diesen Daten arbeiten. 2539 02:17:32,575 --> 02:17:34,775 Immobiliendaten wären so wichtig, 2540 02:17:34,856 --> 02:17:39,596 um die Märkte für die Wohnungen und die Gebäude zu erforschen. 2541 02:17:39,677 --> 02:17:42,830 Jeder Gutachterausschuss gibt die Daten in einem anderen Format, 2542 02:17:42,911 --> 02:17:44,585 die meisten überhaupt nicht raus. 2543 02:17:44,666 --> 02:17:47,774 Manche geben nur ganz kurz raus und das ist ein großes Problem. 2544 02:17:47,855 --> 02:17:49,134 B- statt G-Novelle. 2545 02:17:49,215 --> 02:17:52,030 Man hat sich geeinigt, aber Bayern setzt es nicht durch. 2546 02:17:52,111 --> 02:17:55,294 Also das ist, glaube ich, ein großer Auftrag auch, 2547 02:17:55,375 --> 02:17:57,534 der zur Standardisierung dazu gehört: 2548 02:17:57,615 --> 02:18:00,574 Die Einheiten in Deutschland unter ein Dach zu bekommen. 2549 02:18:00,655 --> 02:18:01,655 Schlusswort: 2550 02:18:01,873 --> 02:18:04,775 Wir haben hier total spannende Dimensionen gehört 2551 02:18:04,856 --> 02:18:07,045 von aus meiner Sicht drei großen Gruppen: 2552 02:18:07,126 --> 02:18:09,404 Unternehmen, Sozialwissenschaft, Forschung, 2553 02:18:09,485 --> 02:18:12,582 wo ich auch Gesundheit und Medizin noch reinbringe, 2554 02:18:12,663 --> 02:18:14,255 dann Bürger und Konsumenten. 2555 02:18:14,336 --> 02:18:17,654 Es sind drei Themen, die für alle wichtig sind. 2556 02:18:17,735 --> 02:18:21,692 Das erste ist Kompetenzen, Literacy, die Nutzungsschere. 2557 02:18:21,773 --> 02:18:24,194 Da wäre mein Anliegen, dass auch die Kompetenzen 2558 02:18:24,275 --> 02:18:26,364 in der Verwaltung in den Fokus gehören. 2559 02:18:26,445 --> 02:18:29,580 Denn das sind die Leute, die die Daten haben, die wir brauchen. 2560 02:18:29,661 --> 02:18:32,874 Die haben weder Ressourcen, noch Kenntnisse, um sie uns zu geben. 2561 02:18:32,955 --> 02:18:36,434 Zweites Thema, was uns alle beschäftigt, ist Datenschutz. 2562 02:18:36,515 --> 02:18:39,360 Hier ist sicher ein großes Thema die Information. 2563 02:18:39,441 --> 02:18:42,874 Aber ein zweites aus unserer Sicht, ist auch die Gestaltung. 2564 02:18:42,955 --> 02:18:47,374 Denn es gibt viele Möglichkeiten, die gesetzlich gelten, 2565 02:18:47,455 --> 02:18:49,859 aber durch willkürliche Akte verhindert werden. 2566 02:18:49,940 --> 02:18:52,694 Manche Gesetze könnten auch anders geschrieben werden, 2567 02:18:52,775 --> 02:18:54,245 was den Datenschutz angeht. 2568 02:18:54,326 --> 02:18:58,014 Da ist sehr viel zu holen, wenn wir hier Verknüpfungen zulassen. 2569 02:18:58,095 --> 02:19:00,177 Auch was den Föderalismus nachher angeht. 2570 02:19:00,258 --> 02:19:02,134 Das dritte Thema: Infrastruktur. 2571 02:19:02,215 --> 02:19:04,138 Da hat jede Gruppe heterogene Bedarfe. 2572 02:19:04,219 --> 02:19:05,934 Das ist nicht für alle gleich. 2573 02:19:06,015 --> 02:19:08,862 Für uns ist es ganz wichtig und möglicherweise gar nicht 2574 02:19:08,943 --> 02:19:12,147 die teuerste Investition, im öffentlichen Bereich nachzurüsten. 2575 02:19:12,228 --> 02:19:15,354 Denn da würden wenige Ressourcen an Schlüsselstellen reichen, 2576 02:19:15,435 --> 02:19:18,435 um extrem viel für die Forschung zu bewegen. 2577 02:19:18,516 --> 02:19:19,983 Wer sollte das machen? 2578 02:19:20,064 --> 02:19:22,670 Sie fragten danach: Wer ist der Ansprechpartner? 2579 02:19:22,751 --> 02:19:25,234 Natürlich in erster Linie der Gesetzgeber für uns. 2580 02:19:25,315 --> 02:19:29,334 Aber auch auf europäischer Ebene sollten Datenräume geschaffen werden. 2581 02:19:29,415 --> 02:19:32,288 Das kann für Deutschland ein großer Lernraum sein. 2582 02:19:32,369 --> 02:19:36,474 Denn in Skandinavien hat man nicht Probleme zwischen Regionen zu lösen. 2583 02:19:36,555 --> 02:19:39,234 Da fängt man, die Länder zu harmonisieren, 2584 02:19:39,315 --> 02:19:41,594 dass die Norweger an finnische Daten kommen. 2585 02:19:41,675 --> 02:19:44,194 Die Schweizer können uns im Zensus voraus sein. 2586 02:19:44,275 --> 02:19:47,243 Die Österreicher haben in den Koalitionsvertrag geschrieben, 2587 02:19:47,324 --> 02:19:49,123 dass sie Datenzentren wollen. 2588 02:19:49,204 --> 02:19:52,221 Ich glaube, da können wir auch auf europäischer Ebene lernen. 2589 02:19:52,302 --> 02:19:53,302 Vielen Dank. 2590 02:19:53,898 --> 02:19:57,164 (Helge Braun) Weitere Wortmeldungen? Herr Mundt. 2591 02:19:57,581 --> 02:20:00,914 (Andreas Mundt) Ich habe jetzt kein furioses Schlusswort. 2592 02:20:00,995 --> 02:20:04,174 Aber ich sehe das natürlich alles aus dem Blickwinkel 2593 02:20:04,255 --> 02:20:08,254 möglicherweise einer datengebenden Behörde, 2594 02:20:08,335 --> 02:20:10,654 wenn ich an das denke, was da ist. 2595 02:20:10,735 --> 02:20:12,654 Ich würde mir wirklich wünschen, 2596 02:20:12,735 --> 02:20:17,774 dass der Staat selber seine digitale Kompetenz stärkt. 2597 02:20:18,286 --> 02:20:21,774 Dass wir als Behörden auch in den Stand versetzt werden, 2598 02:20:21,855 --> 02:20:25,634 das alles zu tun, was Wirtschaft und Wissenschaft sich beispielsweise 2599 02:20:25,715 --> 02:20:29,382 bei der Herausgabe und Verknüpfung von Daten wünschen. 2600 02:20:29,463 --> 02:20:31,129 Ein ganz kurzes Beispiel: 2601 02:20:31,210 --> 02:20:34,961 Wir bauen gerade im Bundeskartellamt das Wettbewerbsregister auf. 2602 02:20:35,042 --> 02:20:37,334 Ein Register, wo Unternehmen geführt werden, 2603 02:20:37,415 --> 02:20:39,586 die sich was haben zuschulden kommen lassen 2604 02:20:39,667 --> 02:20:44,214 und die vielleicht von öffentlichen Vergabe ausgeschlossen werden. 2605 02:20:44,295 --> 02:20:48,134 Das ist nichts anderes als ein unglaublich großes IT-Projekt. 2606 02:20:48,864 --> 02:20:52,534 Wir arbeiten mit den Stellen, die der Bund uns zur Verfügung stellen kann 2607 02:20:52,615 --> 02:20:56,284 als Dienstleister, Bundesstellen, hervorragend zusammen. 2608 02:20:56,365 --> 02:20:58,414 Ich kann Ihnen aber versichern: 2609 02:20:58,495 --> 02:21:01,117 Es ist immer wieder ein harter Kampf um Ressourcen, 2610 02:21:01,198 --> 02:21:03,095 um Priorisierungen und andere Dinge. 2611 02:21:03,314 --> 02:21:06,094 Ich glaube, viele Behörden brauchen hier Unterstützung, 2612 02:21:06,175 --> 02:21:10,894 weil es gilt, Firewalls zu umgehen, um diese Daten rausgeben zu können. 2613 02:21:10,975 --> 02:21:14,694 Es gilt, Sicherheit von Daten zu gewährleisten. 2614 02:21:15,291 --> 02:21:18,134 Das ist für nicht so große Behörden nicht so einfach. 2615 02:21:18,215 --> 02:21:22,334 Da brauchen wir einfach einen ganz starken Dienstleister. 2616 02:21:22,415 --> 02:21:24,654 Wir auf Bundesebene. 2617 02:21:24,934 --> 02:21:27,494 Ich kann mir vorstellen, dass die Situation 2618 02:21:27,575 --> 02:21:29,888 in den Ländern sicher nicht besser ist. 2619 02:21:29,969 --> 02:21:34,734 Ich glaube, das ist ein Punkt, wo Sie mit sehr konkreten Mitteln 2620 02:21:34,815 --> 02:21:37,174 wahrscheinlich sehr viel bewirken könnten, 2621 02:21:37,255 --> 02:21:39,427 indem Sie staatliche Stellen 2622 02:21:39,508 --> 02:21:42,261 besser in die Lage versetzen, sich zu digitalisieren. 2623 02:21:42,342 --> 02:21:44,956 Ich will mich nicht beschweren. Es funktioniert gut. 2624 02:21:45,037 --> 02:21:48,602 Aber mehr Ressourcen wären sicher hilfreich, auch für andere. 2625 02:21:51,934 --> 02:21:55,294 (Thani Shamsi) Ich glaube, wenn wir an… 2626 02:21:55,375 --> 02:21:56,963 Wenn ich an Datenstrategie denke 2627 02:21:57,044 --> 02:22:00,077 oder wenn ich an meine eigene Unternehmensstrategie denke, 2628 02:22:00,158 --> 02:22:03,312 denke ich immer an die Dinge, die ich direkt beeinflussen kann. 2629 02:22:03,393 --> 02:22:05,716 Weil das kann ich am einfachsten umsetzen. 2630 02:22:05,797 --> 02:22:09,114 Die Wirtschaft organisiert sich meistens relativ selbst sehr gut, 2631 02:22:09,195 --> 02:22:12,516 was Datenstandards oder generell Standards angeht. 2632 02:22:12,597 --> 02:22:15,694 Das ergibt die Zeit von alleine. 2633 02:22:16,174 --> 02:22:21,674 Ich kann nur zustimmen, dass der Staat auch bei sich selbst 2634 02:22:21,755 --> 02:22:25,154 die Vorreiterrolle übernehmen kann und anfangen kann, 2635 02:22:25,235 --> 02:22:30,454 noch stärker radikal transparent mit eigenen Daten umzugehen. 2636 02:22:31,294 --> 02:22:35,694 Sei es jetzt Unternehmensregister oder auch andere Registerdaten. 2637 02:22:37,111 --> 02:22:39,244 Eigene Standards auch zu setzen, 2638 02:22:39,325 --> 02:22:42,454 einfach, das durchzuführen. 2639 02:22:44,308 --> 02:22:49,266 Die Daten, die der Staat sammelt oder auch auf denen der Staat sitzt, 2640 02:22:49,644 --> 02:22:51,911 verfügbar zu machen und nicht nur… 2641 02:22:52,278 --> 02:22:56,934 Immer wenn wir über Open Data und über Open Data Portale sprechen, 2642 02:22:57,015 --> 02:22:58,654 dann denken die Menschen: 2643 02:22:58,735 --> 02:23:02,494 Man muss die Daten auf ein Portal schieben, dann ist die Arbeit getan. 2644 02:23:02,575 --> 02:23:03,923 Das ist nicht der Fall. 2645 02:23:04,004 --> 02:23:06,514 Was unsere Kunden uns zum Beispiel mitteilen: 2646 02:23:06,595 --> 02:23:08,289 Sie nutzen sehr ungern Open Data, 2647 02:23:08,370 --> 02:23:11,068 weil sie dafür keinen kommerziellen Support erhalten. 2648 02:23:11,149 --> 02:23:12,482 Weil sie nicht wissen: 2649 02:23:12,563 --> 02:23:15,856 Bleibt das da? Ist das für immer da? Oder ist das irgendwann weg? 2650 02:23:15,937 --> 02:23:19,394 Deswegen gehen sie dann doch lieber zu kommerziellen Datenanbietern, 2651 02:23:19,475 --> 02:23:22,931 die irgendwie über Umwege diese Daten dann auch beschaffen. 2652 02:23:23,012 --> 02:23:27,679 Ich glaube, von der Sichtweise aus gibt es eine gewisse Verantwortung 2653 02:23:27,760 --> 02:23:28,954 des deutschen Staates, 2654 02:23:29,035 --> 02:23:32,895 sich als Datenanbieter oder als eine Art Datenagentur auch zu sehen. 2655 02:23:32,976 --> 02:23:35,334 Unternehmen zum Beispiel dabei zu unterstützen, 2656 02:23:35,415 --> 02:23:38,948 an Open Data ranzukommen und kommerziell umzusetzen. 2657 02:23:41,007 --> 02:23:43,734 (Helge Braun) Also diese Verlässlichkeitsversprechen, 2658 02:23:43,815 --> 02:23:47,802 was dauerhafte Anbindung angeht, das ist auch ein wichtiger Punkt. 2659 02:23:47,883 --> 02:23:49,283 So, jetzt Frau Zweig. 2660 02:23:49,364 --> 02:23:52,223 (Katharina A. Zweig) Ich würde gerne darauf zurückkommen, 2661 02:23:52,304 --> 02:23:53,970 was Herr Marquardt anfangs sagte. 2662 02:23:54,051 --> 02:23:56,374 Ich glaube, es ist Zeit, dass wir uns den Stack 2663 02:23:56,455 --> 02:23:59,134 jetzt wirklich mal angucken, den Technologiestack. 2664 02:23:59,215 --> 02:24:01,134 Wenn wir das konsequent tun und sehen, 2665 02:24:01,215 --> 02:24:03,414 wo die Technologien schon da sind, 2666 02:24:03,495 --> 02:24:06,772 im Moment wirkt vieles alternativlos, und das ist nicht der Fall. 2667 02:24:06,853 --> 02:24:09,154 Das dezentrale Lernen würde viel bringen. 2668 02:24:09,235 --> 02:24:12,216 Die Portabilität haben wir gleich mit erledigt. 2669 02:24:12,297 --> 02:24:14,034 Denn ich bekomme ja meine Daten, 2670 02:24:14,115 --> 02:24:17,714 wie ich bei dem Onlinebuchhändler jetzt herumgesurft bin. 2671 02:24:17,795 --> 02:24:20,005 Das heißt, Portabilität ist von Anfang an da. 2672 02:24:20,086 --> 02:24:23,434 Deswegen, mein Plädoyer jetzt als flammendes Schlusswort wäre: 2673 02:24:23,515 --> 02:24:25,414 Gucken, dass wir ins Going kommen, 2674 02:24:25,495 --> 02:24:27,254 dass wir in die Praxis kommen. 2675 02:24:27,335 --> 02:24:30,514 Sehen, wo Technologie da ist, die wir jetzt schon nutzen können, 2676 02:24:30,595 --> 02:24:33,034 die europäische Werte quasi mittransportiert, 2677 02:24:33,115 --> 02:24:37,480 die viele der offenen Fragen erledigt und die Punkte zu identifizieren, 2678 02:24:37,561 --> 02:24:39,754 wo noch weiterer Forschungsbedarf da ist. 2679 02:24:39,835 --> 02:24:43,394 Aber ich glaube, diese Diskussion der Alternativlosigkeit ist vorbei, 2680 02:24:43,482 --> 02:24:46,834 wenn wir diese Services wollen, dann müssen wir eben damit leben, 2681 02:24:46,915 --> 02:24:49,354 dass unsere Daten zentral gesammelt werden. 2682 02:24:49,435 --> 02:24:52,552 Jetzt müssen wir gucken, wie wir es umgesetzt bekommen. 2683 02:24:52,633 --> 02:24:53,967 (Helge Braun) Danke. 2684 02:24:54,048 --> 02:24:55,048 Herr Peylo. 2685 02:24:55,461 --> 02:24:56,794 (Christoph Peylo) Danke. 2686 02:24:56,875 --> 02:25:01,599 Wir haben sehr viel über interessante Anwendungen gesprochen 2687 02:25:01,680 --> 02:25:04,374 und Möglichkeiten, die wir auf Anwendungen haben. 2688 02:25:04,455 --> 02:25:06,834 Ich möchte als Schlusswort nochmal den Punkt 2689 02:25:06,915 --> 02:25:10,074 der digitalen Infrastruktur in der Wichtigkeit hervorheben. 2690 02:25:10,155 --> 02:25:12,694 Das heißt also, auch wenn wir versuchen, 2691 02:25:12,775 --> 02:25:16,154 auf der Anwendungsebene Standards zu setzen und zu regulieren, 2692 02:25:16,235 --> 02:25:21,045 wenn wir nicht die darunter liegenden Ebenen im IT-Stack auch beherrschen: 2693 02:25:21,126 --> 02:25:23,954 Netzebene, Systemebene, Protokollebene, 2694 02:25:24,035 --> 02:25:27,334 dann kann das auch alles sehr leicht umgangen werden. 2695 02:25:27,415 --> 02:25:29,694 Deshalb als Plädoyer würde ich sagen wirklich: 2696 02:25:29,775 --> 02:25:32,014 Es kommt auf eine Stärkung 2697 02:25:32,095 --> 02:25:36,174 vertrauenswürdiger, digitaler Infrastruktur an. 2698 02:25:36,255 --> 02:25:39,774 Mit Stärkung meine ich eben, dass wir auch die Kompetenz haben, 2699 02:25:39,855 --> 02:25:43,332 diese weiterzuentwickeln und auch wirklich in der Tiefe zu verstehen. 2700 02:25:43,413 --> 02:25:46,334 Weil diese digitale Infrastruktur und die Kompetenz, 2701 02:25:46,415 --> 02:25:51,374 die damit verbunden ist, das ist die conditio sine qua non 2702 02:25:51,455 --> 02:25:54,188 zu einer funktionierenden Datenökonomie. 2703 02:25:54,269 --> 02:25:55,269 Vielen Dank. 2704 02:25:55,967 --> 02:25:57,567 (Helge Braun) Herr Post. 2705 02:25:58,654 --> 02:26:02,224 (Peter Post) Gerade aus der Erfahrung der Plattform Industrie 4.0 2706 02:26:02,305 --> 02:26:04,334 muss man aus der Beobachtung sagen: 2707 02:26:04,415 --> 02:26:07,317 Eine der größten Stärken des deutschen Standortes ist, 2708 02:26:07,398 --> 02:26:09,914 dass wir es schaffen, über die Institutionengrenzen 2709 02:26:09,995 --> 02:26:12,093 gemeinsam große Dinge zu bewegen. 2710 02:26:12,174 --> 02:26:17,114 Hier kann es, gerade wenn wir über dieses Thema Standardisierung reden, 2711 02:26:17,195 --> 02:26:20,854 ist es erforderlich, das Commitment vieler Akteure herbeizuführen. 2712 02:26:20,935 --> 02:26:24,774 Das führt schlicht und ergreifend zu Rahmenbedingungen, 2713 02:26:24,855 --> 02:26:28,054 Rahmensetzungen, die durch die Politik sehr stark stabilisiert 2714 02:26:28,135 --> 02:26:31,780 und unterstützt werden können und moderiert werden können. 2715 02:26:31,861 --> 02:26:37,174 Damit die Akteure sich an der Stelle gemeinsam in diesem Thema treffen 2716 02:26:37,534 --> 02:26:39,814 und diese Konzepte gemeinsam entwickeln, 2717 02:26:39,895 --> 02:26:42,974 um sie dann hinterher auch anzuwenden und umzusetzen. 2718 02:26:43,055 --> 02:26:46,961 Also ein ganz klares Plädoyer hier zur Zusammenarbeit 2719 02:26:47,042 --> 02:26:49,454 in der gemeinsamen Entwicklung von Standards, 2720 02:26:49,535 --> 02:26:51,014 denn nur gemeinsam geht es. 2721 02:26:51,095 --> 02:26:54,434 Aber auch gleichzeitig dann das Durchhaltevermögen zu haben. 2722 02:26:54,515 --> 02:26:59,764 Nicht von der politischen Seite diese Themen, die einige Zeit dauern, 2723 02:26:59,845 --> 02:27:04,434 schnell wieder unter den aktuellen politischen Rahmenbedingungen 2724 02:27:04,515 --> 02:27:06,854 und Tagesthemen mehr oder weniger zu vergessen. 2725 02:27:06,935 --> 02:27:08,768 Also eine gewisse Stabilität 2726 02:27:08,849 --> 02:27:12,094 hier an dieser Stelle auch vorzuhalten, vorzusehen. 2727 02:27:13,772 --> 02:27:15,505 (Helge Braun) Vielen Dank. 2728 02:27:15,586 --> 02:27:17,470 Wir haben jetzt 12:28 Uhr. 2729 02:27:17,551 --> 02:27:19,214 Deshalb wäre mein Vorschlag, 2730 02:27:19,295 --> 02:27:22,654 dass wir an der Stelle die Runde beschließen. 2731 02:27:23,134 --> 02:27:27,734 Für alle diejenigen, die hier sind, heißt das aber noch nicht, 2732 02:27:27,815 --> 02:27:31,094 dass alle Diskussionen jetzt zu Ende sein müssen. 2733 02:27:31,175 --> 02:27:35,094 Wir würden Sie gerne einladen, hier, wenn man aus dem Saal rausgeht, 2734 02:27:35,175 --> 02:27:38,694 auf der rechten Seite vor unserer Kanzlergalerie 2735 02:27:38,775 --> 02:27:42,014 noch ein bisschen zusammenzustehen und weiter zu diskutieren. 2736 02:27:42,095 --> 02:27:44,414 Das würde uns jedenfalls erfreuen. 2737 02:27:44,495 --> 02:27:46,454 Dann kann man das eine oder andere 2738 02:27:46,535 --> 02:27:49,254 auch nochmal im bilateralen Gespräch vertiefen. 2739 02:27:49,335 --> 02:27:53,214 Ja, ansonsten bedanke ich mich auch bei denen, 2740 02:27:53,694 --> 02:27:58,014 die uns von außerhalb zugeschaut und zugehört haben 2741 02:27:58,095 --> 02:28:01,374 und schließe das wirklich mit dem ganz herzlichen Dank, 2742 02:28:01,455 --> 02:28:04,774 dass Sie sich alle so intensiv auch vorbereitet haben, 2743 02:28:04,855 --> 02:28:08,174 uns auch viel Expertise schon zugeleitet haben 2744 02:28:08,255 --> 02:28:10,694 und auch für Ihre Wortmeldungen hier heute. 2745 02:28:10,775 --> 02:28:13,493 Das ist für uns ein sehr, sehr wichtiger Start 2746 02:28:13,574 --> 02:28:16,506 in diesen Prozess für die Datenstrategie. 2747 02:28:17,041 --> 02:28:21,654 Auch die einzelnen Häuser werden weitere Aktivitäten machen. 2748 02:28:21,735 --> 02:28:24,254 Der eine oder andere von Ihnen wird sicherlich 2749 02:28:24,335 --> 02:28:27,934 auch nochmal mit Spezialexpertise gefragt werden, 2750 02:28:28,015 --> 02:28:32,734 sodass wir dann für Deutschland eine gute Datenstrategie hinbekommen. 2751 02:28:32,815 --> 02:28:35,013 Das war aus meiner Sicht ein super Auftakt. 2752 02:28:35,094 --> 02:28:37,934 Ich denke, wir bedanken uns gemeinsam 2753 02:28:38,414 --> 02:28:41,054 für Ihr Kommen und noch einen schönen Tag.