AI-Act
Die EU-Mitgliedstaaten haben das weltweit erste Gesetz zur Regulierung von KI verabschiedet. Für die Umsetzung in nationales Recht schafft die Bundesregierung einen innovationsfreundlichen Rechtsrahmen.
2 Min. Lesedauer
Der AI Act ist weltweit das erste Regelwerk für den Einsatz von Künstlicher Intelligenz.
Foto: IMAGO/Christian Ohde
Der Einsatz von Künstlicher Intelligenz (KI) spielt eine immer größere Rolle – sei es im Arbeitsalltag oder privat zuhause. Um das Vertrauen in die Technologie zu stärken, braucht es klare Regeln.
Der Rat der 27 EU-Mitgliedstaaten hat am 21. Mai 2024 daher den AI Act und damit einen einheitlichen Rahmen für den Einsatz von Künstlicher Intelligenz in der Europäischen Union verabschiedet. Die KI-Verordnung ist das weltweit erste umfassende Regelwerk für KI. Mit dem AI Act hat die EU nun ein starkes Fundament für die Regulierung von Künstlicher Intelligenz, das Vertrauen und Akzeptanz in die Technologie schafft und Innovationen „made in Europe“ ermöglicht.
Künstliche Intelligenz beschreibt die Fähigkeit von Maschinen, basierend auf Algorithmen Aufgaben autonom auszuführen und dabei die Problemlösungs- und Entscheidungsfähigkeiten des menschlichen Verstandes nachzuahmen.
AI Act: Strenge Vorgaben bei hohem Risiko
Der AI Act schreibt vor, dass KI-Anwendungen nicht missbraucht werden dürfen. Ebenso muss der Schutz der Grundrechte gewährleistet sein. Gleichzeitig brauchen Wissenschaft und Wirtschaft Freiraum für Innovationen. Der AI Act verfolgt hier einen sogenannten risikobasierten Ansatz. Das heißt, je höher das Risiko bei der Anwendung eingeschätzt wird, desto strenger sind auch die Vorgaben.
Ein inakzeptables Risiko stellen zum Beispiel KI-Systeme dar, die eingesetzt werden können, um das Verhalten von Personen gezielt zu beeinflussen und sie so zu manipulieren. Für sie gilt ein Verbot, genauso wie für KI-basiertes „Social Scoring“, also die Vergabe von Punkten nach erwünschtem Verhalten.
Kennzeichnung von KI-Inhalten
Es gibt außerdem eine Transparenzpflicht. Das heißt, künstlich erzeugte oder bearbeitete Inhalte (Audios, Bilder, Videos) müssen eindeutig als solche gekennzeichnet werden.
Hochriskante KI-Systeme – zum Beispiel in den Bereichen kritische Infrastruktur, Beschäftigung sowie Gesundheits- oder Bankenwesen – müssen eine Reihe von Anforderungen erfüllen, um für den EU-Markt zugelassen zu werden. Für Anwendungen mit einem geringen Risiko gelten lediglich eingegrenzte Transparenz- und Informationspflichten.
Das Bundeskabinett hat am 11. Februar den Gesetzentwurf zur Durchführung der europäischen KI-Verordnung in Deutschland beschlossen.