Piwik Webtracking Image

Wenn der Schein trügt : Warum die KI-Regulierung komplex bleibt

Gefälschte Bilder, manipulierte Stimmen: Deep Fakes verbreiten sich rasant und stellen die Gesellschaft vor neue Herausforderungen. Ihre Regulierung bleibt komplex.

17.01.2025
True 2025-01-17T12:56:21.3600Z
2 Min
Foto: picture-alliance/dpa/Arne Dedert

Der Papst im Daunenmantel ist eins der bekanntesten KI-generierten Deep Fakes.

Sie soll klare Regeln schaffen und Missbrauch eindämmen: Die EU-Verordnung über Künstliche Intelligenz (KI). Das Europäische Parlament hat sie zwar im März 2024 verabschiedet, die Umsetzung des sogenannten AI Acts in nationales Recht steht aber noch aus. Vor allem Detailfragen sind offen, unter anderem, wer in Deutschland die Aufsicht übernehmen soll. Bis alle Regelungen der Verordnung greifen, gibt es zudem eine Übergangsfrist von zwei Jahren. In Brüssel arbeitet derzeit das AI Office an Praxisleitfäden, etwa zur Umsetzung der Pflichten. Diese sollen die Rechtsanwendung erleichtern.

Mit der Verordnung hat die EU das weltweit erste umfassende Regelwerk für KI geschaffen. Sie schreibt vor, dass KI-Anwendungen nicht missbraucht werden dürfen und der Schutz der Grundrechte gewährleistet sein muss. Die Regulierung folgt einem risikobasierten Ansatz: Je höher das Risiko bei einer KI-Anwendung eingeschätzt wird, desto strenger sind die Vorgaben. Vorgesehen sind Transparenz- und Informationspflichten.

AI Act will einen informierten Umgang mit Deep Fakes

Dazu zählt nach Artikel 50 AI Act, dass KI-generierte oder bearbeitete Bilder, Videos oder Audios mit technischen Methoden wie Wasserzeichen, Metadaten oder Fingerprints gekennzeichnet werden müssen. Betreiber von KI-Systemen sind verpflichtet, dies beispielsweise mit einem Hinweis in einem Posting oder per Untertitel offenzulegen. Ausnahmen sollen etwa für die Strafverfolgung sowie die Kunst- und Wissenschaftsfreiheit gelten. Bei Nicht-Einhaltung drohen hohe Bußgelder.

Was sind Deep Fakes?

🔹 Deep Fakes sind täuschend echt wirkende, künstlich erzeugte oder veränderte Medieninhalte wie Fotos, Videos oder Sprachaufnahmen. Der Begriff ist ein Kofferwort aus „deep learning“ und „fake“.

🔹 Deep Fake-Technologien können sowohl für schädliche Zwecke wie Erpressung, Desinformation oder Manipulation, als auch für nützliche Zwecke wie künstlerische Projekte oder Unterhaltung eingesetzt werden.

🔹 Die Diskussion rund um die Regulierung konzentriert sich auf die Verhinderung oder Eindämmung negativer Folgen.



Wie schwierig die Umsetzung allerdings in der Praxis ist, zeigt die Flut von sogenannten "Deep Fakes". Dabei handelt es sich um mithilfe von KI, maschinellem Lernen und Deep Learning generierte Bilder oder Videos, die authentisch wirken, es aber nicht sind. Mit relativ wenig Aufwand können so Gesichter manipuliert oder Stimmen gefälscht werden - wirksame Mittel für gezielte Desinformationskampagnen. Die Möglichkeiten sind grenzenlos und: Die Technik dahinter wird immer besser.

Die Beispiele sind zahlreich: Popstar Taylor Swift in pornografischen Szenen, die fingierte Stimme von US-Präsident Joe Biden, die angeblich zum Nichtwählen aufruft, oder Bundeskanzler Olaf Scholz (SPD), der vermeintlich verkündet, die Bundesregierung wolle beim Verfassungsgericht ein AfD-Verbot beantragen. 

Experten kritisieren die aktuellen Rahmenbedingungen als lückenhaft

Eine Reihe von Experten kritisiert die rechtlichen Rahmenbedingungen angesichts der Vielzahl von KI-geniertem und tausendfach geteiltem Material als lückenhaft. So sei beispielsweise häufig unklar, gegen wen überhaupt geklagt werden soll. Gefordert werden etwa softwareseitige Kennzeichnungspflichten für Deep Fakes oder Verlaufs- und Identitätsinformationen zu digitalen Daten für Anbieter und Hersteller der Systeme.

Für den Erfolg des Regelwerks werden die EU und die Mitgliedstaaten weiter versuchen müssen, mit dem technologischen Fortschritt Schritt zu halten.

Mehr dazu lesen

Zwei Menschen halten Schilder mit den Logos mehrere sozialer Netzwerke hoch
Regulierung von Online-Plattformen: Wie die Big Tech-Unternehmen die Regeln auf die Probe stellen
Die Europäische Union hat mit dem Digital Services Act Regeln für Onlineplattformen durchgesetzt. Wie gut die Aufsichtsstruktur funktionieren wird, ist noch unklar.
Ein Handy, auf dem die ChatGPT-App geöffnet ist.
Nationale Aufsicht gesucht: Wer die Aufsicht über Künstliche Intelligenz übernehmen könnte
Die Datenschutzkonferenz will die KI-Aufsicht in Deutschland übernehmen. Warum die Bundesnetzagentur geeigneter sein könnte, erklärten Experten in einer Anhörung.