Nationale Aufsicht gesucht : Wer die Aufsicht über Künstliche Intelligenz übernehmen könnte
Die Datenschutzkonferenz will die KI-Aufsicht in Deutschland übernehmen. Warum die Bundesnetzagentur geeigneter sein könnte, erklärten Experten in einer Anhörung.
Die Zeit drängt: Der AI-Act sieht vor, dass nationale Gesetzgeber binnen zwölf Monaten nach Inkrafttreten eine Aufsicht für künstliche Intelligenz etablieren.
Sie sorgt seit Tagen für Furore in der digitalen Welt: die neueste Entwicklungsstufe der generativen Künstlichen Intelligenz (KI) des Sprachmodells Chat GPT-4o, die OpenAI kürzlich vorgestellt hat. "o" steht für lateinisch "omnis" übersetzt "alle". Das Modell kann nun gleichzeitig - und noch schneller - Text, Ton und Video verarbeiten. Teile der Netzcommunity demonstrierten daraufhin in ersten Interviews, Moderations- und Übersetzeraufträgen, wie nah dies an menschliche Interaktionen herankommt. Nicht nur, weil die neue Funktion gratis verfügbar ist, gehen Fachleute davon aus, dass sich die Art und Weise wie Menschen mit KI interagieren, nun stark verändern wird.
AI Act: Verabschiedung durch den Rat am kommenden Dienstag
Gleichzeitig nimmt die Debatte an Fahrt auf, wie Gesetzgebung auf die Technologie reagieren soll ohne Innovationen zu behindern. Den europäischen AI Act, der KI in Europa regeln soll, hält eine Reihe von Akteuren für zu streng. Das Gesetz hatte das Europäische Parlament am 13. März 2024 mit 523 zu 46 Stimmen bei 49 Enthaltungen angenommen. "Die Verabschiedung durch den Rat erfolgt voraussichtlich am kommenden Dienstag", sagte die Vorsitzende des Digitalausschusses, Tabea Rößner (Grüne), in der Anhörung am Mittwoch. In Kraft trete der AI Act 20 Tage nach Veröffentlichung.
Zur Überwachung und Umsetzung der Verordnung soll jeder Mitgliedstaat innerhalb von zwölf Monaten eine Aufsichtsstruktur etablieren. Wegen der sektoralen Zuständigkeiten und der föderalen Aufteilung sei die KI-Governance in Deutschland allerdings komplex, äußerten sich die Experten einhellig. Die Datenschutzkonferenz von Bund und Ländern sieht sich als geeignet, die Aufgabe zu übernehmen. In der Anhörung brachten einige Experten allerdings die Bundesnetzagentur (BNetzA) ins Spiel.
Robert Kilian vom KI-Bundesverband etwa plädierte für die BNetzA und mittelfristig für eine eigene Bundesbehörde für Digitales. Sektorale Marktüberwachungsbehörden wie etwa die BaFin im Finanzbereich, sollten zuständig bleiben, wenn dies in der Verordnung angelegt sei, sagte Kilian weiter. Mit Blick auf das Personal forderte er eine erhöhte Durchlässigkeit zwischen Wirtschaft, Wissenschaft und Aufsicht.
KI-Professor: Permanentes Monitoring des AI Acts nötig
Auch Patrick Glauner von der Technischen Hochschule Deggendorf sprach sich gegen eine Aufsicht durch Daten- und Verbraucherschützer aus und verwies auf Fehler bei der Umsetzung der Datenschutzgrundverordnung. Er zeigte sich grundsätzlich skeptisch, ob es den AI Act benötige. Für eine "innovationsfreundliche, kostenarme und praxisnahe" Umsetzung brauche es eine zeitnahe Festlegung der Aufsicht, passende Standardisierungen und Checklisten, sagte Glauner. Ebenso sei ein permanentes Monitoring des AI Acts essenziell.
Die Regulierungsexpertin Lajla Fetic betonte, dass sich die Aufsichtsbehörde nicht nur mit dem soziotechnischen Charakter von KI-Systemen, sondern auch im Grundrechtsschutz auskennen müsse. Sie brauche ein eigenes Budget und eine langfristige Finanzierung, sagte Fetic weiter. Auch sie halte eine Bündelung bestehender Aufsichtsbehörden für den Digitalbereich langfristig für ratsam.
Verbraucherschützer fordern niedrigschwelliges Beschwerdeverfahren
David Roth-Isigkeit von der Deutschen Universität für Verwaltungswissenschaften in Speyer verwies darauf, dass zwei organisatorisch getrennte Behörden, eine notifizierende Behörde und eine Marktüberwachungsbehörde, erforderlich seien. Diese könnten aber trotzdem "unter einem Dach" organisiert werden. Eine Kombination einer zentralen Stelle mit sektoralen Landesbehörden sei nicht möglich. Er sehe kaum eine Alternative zu einer Zentralisierung auf Bundesebene, so Roth-Isigkeit.
Die Umsetzungsfristen des AI Acts: Was gilt wann?
1️⃣Stufe : Das Verbot von KI-Systemen, die unakzeptable Risiken darstellen, greift bereits sechs Monate nach Inkrafttreten.
2️⃣Stufe : Governance-Vorschriften sowie Transparenzanforderungen für KI-Systeme mit „allgemeinem Verwendungszweck“ müssen nach zwölf Monaten beachtet werden.
3️⃣Stufe : Die meisten anderen Regelungen gelten 24 Monate nach Inkrafttreten, besondere Anforderungen für Hochrisiko-KI-Systeme gelten erst nach 36 Monaten.
Über das europäische AI-Büro, das die zentrale Koordination der Aufsicht inne hat, berichtete Kilian Groß von der Europäischen Kommission. Der Aufbau der rund 100 Mitarbeiter starken Abteilung werde mit Priorität vorangetrieben. Groß verwies darauf, dass Eile geboten sei, da bereits nach sechs Monaten erste Verbote greifen. Auf die verbraucherfreundliche Umsetzung der Aufsicht verwies Lina Ehrig vom Verbraucherzentrale Bundesverband. Dazu gehöre ein niedrigschwelliges Beschwerdeverfahren und, dass die künftige Aufsichtsbehörde für das gesamte Verfahren zuständig sei. Das Digitale-Dienste-Gesetz (DDG) könne hier als Vorbild dienen, um "Behörden-Ping-Pong" zu vermeiden, sagte Ehrig.
Nationales KI-Transparenzregister für die öffentliche Hand gefordert
Ehrig und auch Kilian Vieth-Ditlmann von AlgorithWatch sprachen sich klar für Verbote des Einsatzes biometrischer Fernidentifizierungssysteme an öffentlichen Orten auch für private Akteure aus. Das Verbot könne etwa im Zuge eines Durchführungsgesetzes konkretisiert werden, sagte Vieth-Ditlmann. "Gesichtserkennung muss flächendeckend verboten bleiben, sodass öffentliche Räume frei und sicher bleiben", sagte er. Unerlässlich sei zudem ein nationales KI-Transparenzregister.
Mehr Digitalpolitik
Illegale Inhalte im Netz sollen mit dem Digitale-Dienste-Gesetz künftig besser bekämpft und Verbraucher gestärkt werden. Doch bei der Aufsicht bleiben Fragen offen.
Die EU hat sich nach Marathonverhandlungen auf Regeln für Künstliche Intelligenz in Europa geeinigt. Über zwei Punkte der Regulierung wurde besonders gestritten.
Während China Standards setze, fehle Deutschland eine Strategie in der globalen Digitalpolitik, moniert die Union. Das sei gefährlich für die Souveränität Europas.
Nicole Büttner-Thiel vom Bundesverband Deutsche Startups sagte, es bestehe wenig Bedarf für zusätzliche Gesetzgebung; unterschiedliche Auslegungen und Interpretationen der KI-Verordnung sollten möglichst vermieden werden. Notwendig sei eine rechtssichere, praxistaugliche, bürokratiearme und innovationsfreundliche Umsetzung. Bei der Aufsicht müsse eine sektorale Zersplitterung der Aufsichtskompetenzen vermieden werden, sagte Büttner-Thiel.
Auf die fehlende Rechtssicherheit für den KI-Einsatz im Arbeitskontext und die fehlende Einbeziehung von Beschäftigten verwies Oliver Suchy vom Deutschen Gewerkschaftsbund. Er plädierte für eine Konkretisierung der Öffnungsklausel, um die betriebliche Nutzung durch verbindliche Regeln zu erleichtern. Ziel müsse sein, dass "offen und gemeinsam mit den Beschäftigten über betriebliche Ziele der Nutzung von KI" gesprochen werde.