Kann ChatGPT Desinformation erkennen?

  • Bundesregierung ⏐ Startseite
  • Schwerpunkte

  • Themen  

  • Bundeskanzler

  • Bundesregierung

  • Aktuelles

  • Mediathek

  • Service

Interview Kann ChatGPT Desinformation erkennen?

ChatGPT ist ein Chat-Bot. Das heißt, Nutzerinnen und Nutzer können ähnlich wie in einem Chat mit dem Computer kommunizieren – zum Beispiel Texte zu Sachverhalten schreiben lassen. Wie ChatGPT funktioniert, wo die Chancen und Risiken liegen, lesen Sie hier im Interview mit Prof. Dr. Katharina Zweig. 

6 Min. Lesedauer

Professorin Dr. Katharina Anna Zweig für Interview „Kann ChatGPT Desinformation erkennen“

Katharina Zweig beschreibt die großen Möglichkeiten generativer KI, weist aber auch auf die Risiken dieser digitalen Technologie hin

Foto: Felix Schmitt, www.felixschmitt.com

Wie funktioniert ChatGPT, wo liegen die Chancen und Risiken?

Katharina Zweig: Wie bei allen Softwaresystemen muss man die Software dafür einsetzen, wofür sie geeignet ist, um ihre Chancen zu nutzen. Das größte Missverständnis besteht bei ChatGPT darin, dass man es als Nachschlagelexikon verwenden kann. Dabei ist das nicht der Fall, es steckt kein „Wissen“ dahinter. Die Maschine hat während ihrer Trainingszeit extrem viele von Menschen geschriebene Texte bekommen und sich statistisch gemerkt, wann welche Wörter in welchem Kontext oft von Menschen verwendet werden. Wenn die Maschine einen sogenannten PROMPT bekommt, also eine Aufforderung einen Text zu schreiben, generiert sie für alle Wörter, die sie kennt, die Wahrscheinlichkeit, dass ihre Antwort mit genau diesem Wort startet. Aus denen mit hoher Wahrscheinlichkeit wählt sie ein Wort und tastet sich so Wort für Wort voran. Für jeden Kontext kann die Maschine also sagen, welches Wort als nächstes sehr wahrscheinlich ist. Ich finde es erstaunlich, wie gut die Texte sind, die dabei herauskommen.

Die Software ist damit sehr mächtig und es wirkt auch oft so, als könnte sie uns verstehen. Ich finde das sehr spannend, weil es zeigt, wieviel von dem, was wir „Verständnis“ nennen, allein schon darin liegt, dass man ein Wort im richtigen Kontext verwendet. Die Chancen dieser neuen Software liegen darin, dass viele von uns damit gute Vorlagen für Texte bekommen, die man effizient weiterverwenden kann. Die Software kann auch zum Polieren eines vorliegenden Textes verwendet werden. Das Risiko liegt darin, dass die Software gewollt oder ungewollt falsch genutzt wird.

Und wie sieht eine richtige oder falsche Nutzung von ChatGPT dann aus?

Zweig: Eine richtige Nutzung kann zum Beispiel darin bestehen, von Menschen gemachte Texte zu überarbeiten, um zum Beispiel Grammatikfehler zu verbessern. Weitere Beispiele sind Vorschläge für einen Titel von Büchern oder auch kreative Einstiege in einen Text. 

Daneben gibt es die unbewusst falsche Nutzung: Wenn Bürgerinnen und Bürger faktische Fragen an ChatGPT stellen, wie beispielsweise, wer gerade der Bundeskanzler ist. Dann kann es schon passieren, dass die Maschine Robert Habeck nennt. Warum? Weil die Maschine weiß, welche Wörter in welchem Kontext wahrscheinlich sind: Und sehr oft, wenn der Bundeskanzler Olaf Scholz genannt wird, wird eben auch Vizekanzler Robert Habeck genannt. Aber natürlich wird in den meisten Texten das Wort Kanzler mit Olaf Scholz verbunden sein. Warum schreibt ChatGPT dann manchmal, dass Robert Habeck der Kanzler sei? Das liegt daran, dass ChatGPT einen sogenannten „Temperaturparameter“ hat. Wenn der auf 100% eingestellt ist, verwendet die Software immer das Wort, das am wahrscheinlichsten in einem Kontext ist. Die entstehenden Texte sind dann eher dröge. Bei einem Wert von 80% weicht die Maschine eher auch einmal ab: Damit sind die meisten Texte für uns Menschen spannender, aber Robert Habeck wird als „Kanzler“ damit eben auch wahrscheinlicher.

Zuletzt gibt es natürlich noch die bewusst falsche Nutzung von ChatGPT und anderen textgenerierenden KI-Systemen, zum Beispiel für die schnelle Erstellung von Desinformation, die aber so gut gemacht ist, dass sie für Suchmaschinen und Menschen schwer zu erkennen ist.

Desinformation ist ein wichtiges Stichwort: Kann Künstliche Intelligenz (KI) wie ChatGPT Desinformation erkennen? Wenn ja, wie?

Zweig: Die heutige KI besteht aus Methoden, die statistische Regelmäßigkeiten aus Beispielen lernen. Um mit KI Desinformation zu identifizieren, müsste man also entweder der Maschine mit vielen Regeln versuchen zu erklären, wo Desinformation anfängt oder man müsste ihr viele Beispiele von Desinformation und nicht-Desinformation zeigen. Beides wird aus mehreren Gründen nicht funktionieren: Es gibt heute niemanden, der ganz genau definieren könnte, was Desinformation ist und wo genau sie anfängt. Der Begriff ist also unscharf und kulturell unterschiedlich besetzt. Zudem dynamisch in seiner Auslegung und jeder einzelne Satz muss immer im Gesamtkontext bewertet werden. Daher können wir als Menschen dem Computer weder zu 100% genau erklären, was wir darunter verstehen, noch ihm genügend Beispiele geben, um diese Grenze statistisch zu bestimmen.

Man kann aber versuchen, dem Computer Beispiele für klare Desinformation zu zeigen, bei denen sich zum Beispiel 90% aller Menschen einig sind. Wenigstens diese Fälle könnten vielleicht für Maschinen identifizierbar sein, da wir es dann mit einem weniger dynamischen, weniger kulturell unterschiedlich interpretierten Teil der Desinformation zu tun haben. Dadurch gäbe es dann genügend Beispiele, von denen die Maschine lernen kann. Gleichzeitig ist das der Teil an Desinformation, der nicht so gefährlich ist, weil sich ja eh schon 90% der Leute einig sind, dass es falsch ist. Der andere Teil, der viele verunsichert, wäre wichtiger.

Welchen Zusammenhang gibt es zwischen der Verbreitung von Desinformation und Technologien wie ChatGPT?

Zweig: Menschen könnten Technologien wie ChatGPT nutzen, um in sehr kurzer Zeit sehr viel Desinformation zu verbreiten. Mit den zugrundeliegenden Sprachmodellen (large language models, LLMs) könnte man aber natürlich auch bewerten, wie wahrscheinlich ein bestimmter Satz ist. Das heißt, statt dass die Maschinen die Wahrscheinlichkeiten für das nächste Wort benutzen, um selbst zu schreiben, könnten sie auch sagen: „Dieser Satz ist nicht sehr wahrscheinlich, basierend auf den vielen Texten, die ich im Training gelesen habe.“ Das wäre dann vielleicht ein Hinweis darauf, dass etwas nicht stimmt. Ein Satz wie: „Otto Waalkes ist Bundeskanzler“ wäre sicherlich sehr unwahrscheinlich. Auf der anderen Seite gibt es aber natürlich sehr viele wahre Sätze, die neue Kontexte herstellen, etwa in wissenschaftlichen Texten. Und es gibt leider auch viele unwahre Sätze, die so oft im Internet geschrieben wurden, dass eine Künstliche Intelligenz (KI) sie für wahr halten könnte. Beispielsweise der Satz, dass die Wahl 2020 in den USA gestohlen worden sei. Als ich ChatGPT gerade fragte, ob es richtig sei, dass Donald Trump die Wahl 2020 gestohlen wurde, antwortete die Maschine übrigens fälschlich: „Als KI-Modell kann ich Ihnen die Fakten und Ereignisse bis September 2021 liefern.“ Allein das ist schon Fehlinformation, weil die Maschine basierend auf ihrer Technologie und den Trainingsdaten überhaupt keine Fakten verlässlich liefern kann. Auch diese Form der Desinformation gilt es einzuschränken. Zu der Frage selbst sagt es: „Bis zu diesem Zeitpunkt gilt Joe Biden als der Sieger.“.

Welche Auswirkungen hat das schnell wachsende Tempo der KI für die gesellschaftliche Entwicklung?

Zweig: Wir kommen als Einzelpersonen, aber auch als Institutionen kaum noch hinterher. Ich persönlich habe mich jetzt beispielsweise eher zu ChatGPT informiert, kann dafür aber weniger zu bildgenerierender KI sagen. Das heißt, selbst für das noch einigermaßen kleine Gebiet der KI gelingt es Experten und Expertinnen nicht mehr, alles zu überblicken. Neben dieser Technologie gibt es viele andere Krisen: Wir brauchen als Menschheit einen massiven Umbau hin zur Kreislaufwirtschaft, um die Ressourcen unserer Erde nicht zu überschreiten, und haben es mit einer sich verändernden globalen Politik zu tun. Das alles kostet Geld und Aufmerksamkeit, die aber die reagierenden Institutionen wie Parlamente, Nichtregierungsorganisationen, die Bildungsstätten, die Gesellschaft als Ganzes nicht beliebig skalieren können. Wir werden daher in der Reaktion auf diese Herausforderungen viel Stückwerk sehen, viele Reaktionen, die bei den komplexen, miteinander interagierenden Situationen zu linear, zu kurzfristig und damit nicht ausreichend sind.

Prof. Dr. Katharina Zweig leitet das Algorithm Accountability Lab am Fachbereich Informatik der Rheinland-Pfälzischen TU Kaiserslautern. Algorithmen, Chancen und Risiken von Künstlicher Intelligenz sowie gesellschaftliche Fragen der Digitalisierung sind nur einige ihrer Schwerpunkte.

Weitere Informationen rund um das Thema Künstliche Intelligenz und die Herausforderungen im Umgang mit Desinformation finden Sie hier .