Generative KI : Tempo nötig: KI-Gesetz steht an einem Scheideweg
Sachverständige mahnen in einer Expertenanhörung im Digitalausschuss eine Balance zwischen Regulierung und Förderung innovativer KI-Geschäftsmodelle an.
Die Zeit drängt. In dieser Einschätzung waren sich in der Expertenanhörung des Digitalausschusses vergangene Woche alle einig. Die Sachverständigen bewerteten die Potenziale und Risiken generativer Künstlicher Intelligenz (KI) für die Gesellschaft und die Arbeitswelt. Es ging um Transparenzfragen, zum Beispiel, wie KI-basierte Texte, Bilder oder Videos gekennzeichnet werden können, aber auch um den europäischen Weg mit dem geplanten AI Act, über den das Europäische Parlament voraussichtlich Mitte Juni abstimmen will.
So plädierte der Heidelberger Start-Up-Gründer Jonas Andrulis (Aleph Alpha) entschieden dafür, das Level an Regulierung so gering wie möglich zu halten und Geschwindigkeit aufzunehmen. Den aktuellen Zustand der Regulierung nannte er "bedenkenswert". Der Entwurf enthalte viele unbestimmte Rechtsbegriffe und Folgenabschätzungen. Dadurch gebe es ein großes Maß an Unsicherheit bei Kunden und Wettbewerbern. KI nannte er die Basistechnologie einer "neuen industriellen Revolution", bei der wieder US-Tech-Giganten mit "intransparenten Angeboten" den Ton angäben. Für Deutschland und Europa sei aber die inhaltliche und ökonomische Souveränität entscheidend, sagte Andrulis.
Expertin: Prozesse werden aktuell trotz hoher Dynamik ausgebremst
Philipp Hacker von der Viadrina-Universität in Frankfurt (Oder) betonte, man stehe derzeit mit der Regulierung an einem Scheideweg: Der letzte Entwurf aus dem Europäischen Parlament gehe in "eine richtige Richtung", es gebe aber noch erhebliche Mängel. So sehe er unter anderem das Risiko, dass Anwendungen, die gesellschaftlich sinnvoll seien, ausgebremst oder verhindert würden. Ein Beispiel dafür sei der von Google entwickelte KI-basierte Chatbot Bard, der in der EU nicht verfügbar ist.
Derzeit dominierten Details die Diskussion, sagte Doris Weßels von der Fachhochschule Kiel. Dabei rückten drei Grundprobleme in den Hintergrund: Erstens die fehlende Priorisierung, zweitens die unzureichende Geschwindigkeit und drittens, dass es verteilte Zuständigkeiten brauche. Es gebe eine hohe Dynamik, doch Prozesse und Strukturen würden ausgebremst, monierte Weßels auch mit Blick auf die Notwendigkeit anderer Fördermöglichkeiten.
Auch Rasmus Rothe vom KI-Bundesverband sprach sich dafür aus, pragmatischer zu werden, um wettbewerbsfähig zu bleiben. Er verwies darauf, dass generative KI viele Aufgaben besser ausführen werde als der Mensch und die Technologie zu Wirtschaftswachstum führen könne. Die Auswirkungen auf Arbeit und Beschäftigung erläuterte Christian Kellermann von der Hochschule für Technik und Wirtschaft Berlin. Er verwies darauf, dass die aktuelle Studienlage zwar gut, die Aussagekraft allerdings noch limitiert sei. Dies betreffe etwa belastbare Aussagen über den Grad der Substitution von Arbeit. Es sei anzunehmen, dass generative KI gut bei Übersetzungen, der Code-Generierung oder kreativem Schreiben funktioniere, sodass Übersetzer, Meinungsforscher oder PR-Fachleute dieser besonders ausgesetzt sein könnten - anders sehe das bei Montage - oder Fabrikarbeitern aus, sagte Kellermann.
Forderung: Risikoüberwachung stärken
Die europäischen Regulierungsbemühungen können Schritt halten, betonte Catelijne Muller von der Organisation ALLAI. Große KI-Systeme könnten schon jetzt reguliert werden, das forderten die Unternehmen wie etwa OpenAI kürzlich bei einer Anhörung im US-Senat auch selbst, sagte Muller mit Blick auf Probleme wie Desinformation, Fake News oder das "Halluzinieren" der Systeme.
Da foundation models für mehrere Zwecke verwendet würden, sei es entscheidend, Entwicklern Anreize zu geben, sich Gedanken um die Sicherheit der Systeme zu machen, sagte Natali Helberger (University of Amsterdam). Ansonsten würden Probleme in einer unvorhersehbaren Anzahl nachgelagerter Verwendungen auftreten. Sie plädierte dafür, die Risikoüberwachung zu stärken, und verwies darauf, dass im Hinblick auf Verantwortung zwischen Entwicklern und Nutzern eine Zusammenarbeit nötig sei. Diesen Aspekt betonte auch Sandra Wachter vom Oxford Internet Institute. Derjenige, der die Design-Entscheidungen treffe, habe Einfluss auf das Risiko. Er könne etwa entscheiden, ob neue Texte einfließen, um beispielsweise einem Bias entgegenzuwirken.