Rede von Bundespräsident Dr. Frank-Walter Steinmeier

  • Bundesregierung | Startseite
  • Bulletin

  • Schwerpunkte der Bundesregierung  

  • Bundeskanzler

  • Bundesregierung

  • Aktuelles

  • Mediathek

  • Service

„Der Zweck unserer Gründung ist die Erkenntnis […] der verborgenen Kräfte in der Natur und die Erweiterung der menschlichen Herrschaft bis an die Grenzen des überhaupt Möglichen.“

Hier zitiere ich nicht etwa die Gründungsurkunde des Ordens Pour le mérite, obwohl es zugegebenermaßen doch sehr danach klingt. Nein, die „Erweiterung der menschlichen Herrschaft bis an die Grenzen des überhaupt Möglichen“, darum geht es in einem ganz anderen Schriftstück, in einem utopischen Werk namens „Neu-Atlantis“, das Francis Bacon vor fast vierhundert Jahren veröffentlichte. Bacon erzählt darin von Seefahrern, die zwischen Peru und China abgetrieben und in Neu-Atlantis aufgenommen worden sind. Dort lernen sie erstaunliche Experimente kennen, etwa zum Wetter, zu neugezüchteten Pflanzen und Tieren oder zu astronomischen Instrumenten.

Wenn wir heute über verborgene Kräfte und die Grenzen des überhaupt Möglichen sprechen, dann denke ich – und wahrscheinlich viele von Ihnen – sofort an die rasante Entwicklung im Bereich der Künstlichen Intelligenz. Ich weiß schon: Geschichten über Menschenmaschinen, über eine künstlich geschaffene Intelligenz hat es immer gegeben. Darum geht es nicht nur bei Francis Bacon, sondern ich denke da auch an Pygmalion, den Homunkulus, an Frankenstein oder – die Cineasten unter Ihnen werden sich erinnern – an HAL 9000. Wie gesagt, das waren Geschichten, moderne Märchen, Science Fiction.

Aber heute sind wir mit der generativen KI an einem Punkt, an dem wir mit großem Ernst darüber debattieren müssen, wie sehr eine Maschine unseren menschlichen kognitiven Fähigkeiten nahekommen kann und nahekommen soll. Und: Wie sehr kann und soll sie diese menschlichen Fähigkeiten vielleicht sogar übersteigen?

Ganz grundlegende Fragen zum Verhältnis von Mensch und Maschine stellen sich da, und ich weiß, wie sehr diese Fragen fast alle von Ihnen hier im Raum bewegen: Was bedeutet Wissen noch in einer Zeit, in der uns ein Algorithmus vermeintlich alles erklären kann? Wofür sollen unsere Kinder, unsere Schüler oder Studierenden noch lernen, warum sollten sie nach neuen Erkenntnissen streben, wenn es Künstliche Intelligenz gibt? Wer gilt in Zukunft eigentlich als Urheber von wissenschaftlichen Artikeln und Arbeiten: Ist es die KI, ist es derjenige, der die KI befragt, also benutzt, oder ist es derjenige, der die KI programmiert hat? Wer wird überhaupt prüfen können, ob hinter Texten und Artikeln eine eigene Leistung steckt, ob das Wissen und die notwendigen Fähigkeiten wirklich verinnerlicht sind? Wie kreativ kann eine KI sein, ab wann ist ein von der KI geschaffenes Kunstwerk wirklich Kunst, und bis wohin ist es nur Technik? Wie verändert sich also das Selbstbild von Künstlerinnen und Künstlern und von Wissenschaftlerinnen und Wissenschaftlern?

Das sind nur einige der Fragen, die vor uns liegen. Die KI ist eine disruptive Technologie, die ziemlich sicher unser aller Leben verändern wird. Ich bin sehr froh, dass wir hier in dieser Runde Köpfe unter uns haben, die sich mit viel Erfahrung, großer Weisheit und Weitblick diesen Fragen nähern, dem immensen positiven Potenzial, den KI ganz ohne Zweifel hat, zum Beispiel in der Medizin, aber auch natürlich den Gefährdungen individueller Selbstwirksamkeit oder der menschlichen Autonomie.

Es gibt allerdings eine Herausforderung, die mich als Bundespräsident besonders umtreibt. Weil sie, so glaube ich, Folgen hat, mindestens haben könnte, für unsere Demokratie. Anders gefragt: Wohin führt es, wenn uns die KI mit großer Plausibilität, dazu in hoher Frequenz, mit schneller Verbreitung Dinge erklärt, Wissen anbietet, Bilder erstellt, die mit der Realität wenig oder sogar nichts zu tun haben? Wie können wir debattieren und entscheiden, wenn wir uns auf Fakten nicht mehr verlassen können? Oder: Könnte – und sollte – uns die KI sogar wichtige Entscheidungen abnehmen, sollte sie politische Entscheidungen für uns, für eine Regierung treffen, da sie doch vermeintlich so viel mehr weiß und so viel schneller zu Entscheidungen kommt als der Mensch?

Für uns, denke ich, bleibt es dabei: Weder die KI noch die sie betreibenden Unternehmen sind demokratisch gewählt. Und ein Algorithmus kann vielleicht gute oder sogar gerechte Entscheidungen anbieten, ist aber kein Subjekt. Er kann diese Entscheidungen nicht selbst verantworten und sie niemals legitimieren. Das bleibt dem Menschen und – in den großen öffentlichen Fragen – den demokratischen Institutionen einer offenen und freien Gesellschaft vorbehalten, sage ich.

Aber mit Blick auf die Welt da draußen muss ich einschränkend hinzufügen: Wir sehen dies so, wir als liberale Demokratien. Aber wir wissen alle auch, dass es autoritäre und libertär-technokratische Mächte und Kräfte gibt, die das ganz anders sehen. Umso wichtiger, dass wir in unserer Haltung eindeutig sind.

Die Daten und Muster von gestern, von vergangenen Entscheidungen taugen nicht als alleinige Grundlage für politische Entscheidungen für morgen. In einer Demokratie geht es eben nicht um das Reproduzieren und Automatisieren von Entscheidungen, sondern um das gesellschaftliche Aushandeln, um Erkenntnisgewinn, um Verändern und Verbessern, um Meinungspluralität, um die Integration von Abweichendem, um den zivilisierten Streit und hoffentlich auch immer um die gemeinsame Lösung. Normative Fragestellungen lassen sich vermutlich nicht mathematisch, nicht allein datenbasiert lösen. Insofern sehe ich auch nicht das Ende unserer Demokratie und auch keinen „minimalen Staat“ durch die KI aufscheinen.

Aber tatsächlich gibt es Gefahren: Die KI kann manipulativ und böswillig eingesetzt werden. Sie erinnern sich: Jüngst kursierte das Bild einer Explosion am Pentagon, als seriöse Nachricht getarnt, tausende Male abgerufen, hunderte Male geteilt. Die zuständige Feuerwehr und auch der offizielle Sprecher des US-Verteidigungsministeriums dementierten. Der Fake wurde entlarvt, aber an den Finanzmärkten hatte dieser Fake schon eine neue Realität geschaffen, die Börsenkurse brachen ein. Nicht immer ist die Klarstellung so schnell und selten so eindeutig, und vor allem: Nicht immer erreicht die Klarstellung all diejenigen, die die Nachricht gesehen und wiederum weiterverbreitet haben.

Auch in Deutschland haben Fakebilder schon oft die Runde gemacht, erst zuletzt ein vermeintliches Foto von wütend schreienden Männern mit schwarzen Haaren, darunter ein ausländerfeindlicher Slogan. Bis bei diesem Bild erkannt wurde, dass es diese Männer überhaupt nicht gibt, dass der eine oder andere der dort Abgebildeten sogar einige Gliedmaßen zu viel hatte, da kursierte das Foto schon auf vielen Kanälen. Angst verbreiten mit Fakes, das funktioniert leider viel zu gut.

Das ist schon jetzt der Fall, aber natürlich erst recht mit den Möglichkeiten der KI. Nun kennen Sie alle den Einwand: Ja, gefälschte und retuschierte Fotos gibt es mehr oder weniger seit der Entdeckung der Fotografie. Aber der Unterschied ist eben der: Heute kann sie fast jeder mit einem Bildgenerator in Sekundenschnelle erstellen und prinzipiell unbegrenzt mit wenigen Klicks verbreiten, und die Fälschungen werden immer besser. Wenn Sie mal „Fake Foto“ googeln, schlägt die Suchmaschine zuerst „Fake Foto erstellen“ vor, erst danach folgt „Fake Foto erkennen“. Eben genau in dieser Reihenfolge. Ist der Fake erst einmal in der Welt, das haben alle, die sich damit auseinandersetzen, schon mal erfahren, ist es schwer, ihn wieder einzufangen.

Wie erkennen wir, was Realität ist, was dagegen nur einer manipulativ eingesetzten KI entspringt? Wie begegnen wir den rasant zunehmenden und immer täuschender aufbereiteten Desinformationen, die demokratische Politik und faktenbasierte Entscheidungen delegitimieren, die vielleicht Wissenschaft diskreditieren und auch die Märkte korrumpieren?

Ich meine: Einen umfassenden Faktencheck werden wir nicht mit der einen Lösung schaffen, und die Technik allein wird diese Lösung nicht bringen. Es braucht vielmehr eine Art digitaler Allgemeinbildung. Wir müssen alle lernen, die Antworten der KI zu überprüfen, statt uns auf die Plausibilitäten der KI schlicht und einfach zu verlassen. Wir brauchen einen ethischen und rechtlichen Rahmen mit wirksamen Standards und Kontrollinstanzen. Wo die KI bei Entscheidungen mitwirkt, müssen wir die Nachprüfbarkeit der Entscheidungen sicherstellen. Wir müssen aufdecken können, wenn die KI böswillig verzerrend eingesetzt wird – und dafür brauchen wir neben vielen anderen Dingen auch einen starken und unabhängigen Journalismus. Es braucht Medien, die sich nicht am Ende selbst vom Einsatz der KI abhängig machen, wenn sie recherchieren. Und vielleicht ist es an der Zeit für eine Art Wasserzeichen, das sichtbar wird, sobald die KI Inhalte produziert, auf Bildern und in Texten. Und wir brauchen, das sage ich nach einem Expertengespräch hier im Hause, KI-Entwickler, die den Menschen nicht nur als einen defizitären Algorithmus verstehen oder missverstehen.

In diesen Tagen warnen führende KI-Entwickler, das haben Sie in den Zeitungen gesehen, vor ihrer eigenen Technik. Ich kann nicht beurteilen, aus welcher Intention heraus das geschieht. Einige glauben zu wissen, das sei schlicht und einfach Marketing und Sensationsgier. Andere sehen darin den Versuch, die Verantwortung für mögliche schwerwiegende Schäden auf die Politik, auf die fehlende Regulierung abzuwälzen. Aber was zählt, ist: Die Warnung, dass potenziell unbeherrschbare Risiken auf uns zukommen, ist in der Welt, und sie verdient mindestens Beachtung.

Für heute jedenfalls kann ich sagen: Unter den neuen Mitgliedern im Orden Pour le mérite, die ich soeben auszeichnen durfte, ist ChatGPT nicht vertreten, dafür mit David Chipperfield, Peter Gülke, Peter Schäfer und Michael Tomasello geballte natürliche Intelligenz. Jürgen Habermas kann heute leider nicht hier bei uns sein, aber ich konnte ihn vor wenigen Wochen in seinem Zuhause ausführlich sprechen und mit ihm diskutieren.

Sie alle gehören dem Orden Pour le mérite wegen Ihrer außergewöhnlichen Leistungen an. Ich habe ChatGPT gefragt, ob die KI davon ausgeht, dass sie irgendwann eine solche Exzellenz, wie Sie sie haben, erreichen könne. Die Antwort lautete sinngemäß: „Interessante Frage, noch bin ich nicht soweit – aber ich lerne so schnell und so viel, dass ich in einigen Bereichen irgendwann auch bestimmte Aspekte der menschlichen Exzellenz übertreffen könnte.“

Ich möchte dieser Selbsteinschätzung der KI entgegnen: Sie ist – zumindest bisher – noch Mittelmaß, das Mittelmaß der ihr zugrundeliegenden Daten. Sie, die heute Abend hier versammelt sind, wissen: Für wirkliche Exzellenz braucht es mehr. Nämlich die einzigartigen künstlerischen und intellektuellen Leistungen von Menschen wie Ihnen. Wissenschaft und Künste erhalten mit der KI ein weiteres potentes Werkzeug, nicht mehr und nicht weniger – ein Werkzeug, das auch Francis Bacon und die Bewohner von Neu-Atlantis begeistert hätte, und ein Werkzeug, mit dem wir lernen müssen umzugehen.