Künstliche Intelligenz : Die neue Zaubertechnik
Die Syteme mit Chancen und Risiken dringen zunehmend in den Alltag vor
Wenn es um zukünftige Anwendungen digitaler Techniken geht, darf das Schlagwort Künstliche Intelligenz (KI) in keiner Debatte fehlen. Was genau mit dem Begriff gemeint ist, ist nicht nur vielen Politikern unklar. Oft entsteht der Eindruck, dahinter stecke eine Art Zaubertechnik, die man nur mit genügend Daten füttern müsse, um Antworten auf viele bislang ungelöste Probleme zu erhalten. Die Realität ist aber viel trivialer und mühsamer und hat oft wenig mit den hochgesteckten Erwartungen zu tun. "Wenn KI-Systeme als neuronale statistische Datenanalysen bezeichnet würden, was der Realität wesentlich näher käme, dann würde sich wahrscheinlich keiner Gedanken darüber machen", sagte der Kaiserlauterer Informatikprofessor Peter Liggesmeyer unlängst. Ein Teil des Hypes um die KI liege im Begriff selbst begründet.
Neuronale Netze Was gegenwärtig meist unter KI verstanden wird, sind vor allem ausgefeilte Werkzeuge zur Mustererkennung. Diese sind bereits vielfach im Alltag im Gebrauch. Dazu gehören Systeme zur Erkennung von Sprache oder Verkehrszeichen, wie sie bereits in neueren Autos im Einsatz sind. Als erfolgreich haben sich dabei tiefe neuronale Netze in Verbindung mit schnellen Computern erwiesen.
Anders als traditionelle Computerprogramme, die über Algorithmen gesteuert werden, können neuronale Netze selbst lernen, was als maschinelles Lernen bezeichnet wird. Dadurch, dass beispielsweise einer bestimmten Form eine bestimmte Bedeutung zugewiesen wird, bilden sich in den neuronalen Netzen sogenannte Gewichtungen. Das ist vergleichbar mit Verknüpfungen im Gehirn, die sich beim Lernen bilden. Diese Netze können aus mehreren Schichten bestehen, was als tiefes neuronales Netz bezeichnet wird.
Fußgänger unterscheiden Neuronale Netze zur Objekterkennung im Straßenverkehr verfügen über zig Millionen künstliche Neuronen mit mehr als 100 Millionen Gewichtungen. Doch es ist ein weit verbreiteter Irrtum, dass solche neuronalen Netze praktisch ohne menschliches Zutun etwas lernen könnten. So betreiben beispielsweise der Autokonzern Daimler und der Zulieferer Bosch einen hohen Aufwand, um ihren Systemen beizubringen, im Verkehr einen Fußgänger sicher von einem Radfahrer zu unterscheiden. Daimler setzt dazu unter anderem studentische Hilfskräfte ein, die auf Fotos mit Straßensituationen mehr als 20 unterschiedliche Objekttypen markieren. Mit Hilfe dieser "annotierten Daten" werden die neuronalen Netze angelernt. Im realen Straßenverkehr müssen sie dann anhand der antrainierten Gewichtungen ähnliche Objekte in den Sensoraufnahmen erkennen.
Das Beispiel macht deutlich: Gute KI-Systeme brauchen eine möglichst zuverlässige Datenbasis. Doch selbst bei guten Trainingsdaten lässt sich nie exakt vorhersagen, ob das System tatsächlich die Objekte wie gewünscht erkennt. Dieses Verhalten wird als Opazität oder Black-Box-Effekt bezeichnet. Im realen Straßenverkehr sollte natürlich kein Mensch überfahren werden, weil die KI ihn nicht richtig erkannt hat.
Risiken Hinzu kommt: Solche Mustererkennungssysteme lassen sich einfacher als Menschen austricksen. Leichte Veränderungen an Verkehrsschildern können dazu führen, dass ein Tempolimit oder Stoppschild nicht mehr als solches erkannt wird. Das könnte ebenfalls fatale Folgen haben. Da spielt es keine Rolle, dass die eigentliche Steuerungssoftware des Autos noch kein selbstlernendes System, sondern ein sogenanntes regelbasiertes Expertensystem darstellt. Solche Systeme zählt der Abschlussbericht der Enquete-Kommission auch zur KI.
Anders als bei Verkehrssituationen ist es bei bestimmten Anwendungen gar nicht so einfach, an die erforderlichen Trainingsdaten zu gelangen. So war vielen Nutzern smarter Lautsprecher sicher nicht klar, dass Anbieter wie Amazon oder Google heimlich ihre Gespräche analysierten, um die Systeme verbessern zu können. Auch bei der Auswertung von Gesundheitsdaten sind die Systeme darauf angewiesen, mit den Fällen realer Patienten angelernt zu werden. In solchen Fällen spielt die Anonymisierung und Pseudonymisierung eine wichtige Rolle. Das ist bei seltenen Krankheiten jedoch manchmal schwierig.
Gesichtserkennung Zu guter Letzt bergen KI-Systeme auch dann Gefahren, wenn sie perfekt funktionieren. Schließlich können automatische Systeme zur Gesichtserkennung dazu genutzt werden, die Bewegungen von Menschen umfassend zu überwachen. Nach Ansicht der Datenschutzbeauftragten von Bund und Ländern kann der Einsatz von Videokameras mit biometrischer Gesichtserkennung "die Freiheit, sich in der Öffentlichkeit anonym zu bewegen, gänzlich zerstören".
Doch vielfach funktionieren solche Systeme noch alles andere perfekt und benachteiligen zum Beispiel bestimmte Bevölkerungsgruppen, weil sie mit den Daten einer anderen Gruppe angelernt wurden. Systeme wie automatische Upload-Filter wiederum können zwar Urheberrechtsverletzungen oder den Upload illegaler Inhalte verhindern, aber auch die Meinungsfreiheit einschränken.
Die Beispiele machen deutlich: Je nach Anwendung werfen KI-Systeme sehr unterschiedliche Fragestellungen auf. Daher ist es eine richtige Entscheidung der Enquete-Kommission gewesen, sechs verschiedene Projektgruppen zu bilden. Diese setzten sich mit den Auswirkungen von Künstlicher Intelligenz auf verschiedene Lebensfelder auseinander. Dazu zählten Wirtschaft, Staat, Gesundheit, Arbeit mit Bildung und Forschung sowie Mobilität und Medien.
Wohl und Würde Die Arbeit der Enquete-Kommission dürfte bei den Abgeordneten dazu beigetragen, das Verständnis für die Herausforderungen durch KI-Systeme zu verbessern. Vielfach herrscht in der Politik noch der Glaube vor, dass allein der Zugriff auf viele Daten die Systeme schlauer macht. So sagte Kommissionspräsidentin Ursula von der Leyen bei der Vorstellung des KI-Weißbuchs der EU-Kommission: "Je mehr Daten wir haben, desto klüger werden unsere Algorithmen." Doch Algorithmen werden von Programmierern ausgedacht und können durch zusätzliche Daten nicht besser oder gar "klüger" werden. Der CDU-Abgeordnete Hansjörg Durz sagte in der Bundestagsdebatte zur Einsetzung der Enquete-Kommission: "Der Google-Translator etwa übersetzt täglich maschinell circa 100 Milliarden Wörter und wird dadurch stetig trainiert und optimiert." Ein Übersetzungsprogramm lernt jedoch nicht dadurch, dass es selbst übersetzt, sondern menschliche Übersetzungen analysiert.
Doch wie kann die Politik dazu beitragen, "dass KI-Anwendungen vorrangig auf das Wohl und die Würde der Menschen ausgerichtet sein und einen gesellschaftlichen Nutzen bringen sollten", wie es die Enquete-Kommission formuliert? Hierzu werden im Abschlussbericht Handlungsfelder wie Daten, Forschung, Nachhaltigkeit, Wirtschaft und Arbeit, Kompetenzen und Bildung, Mensch und Gesellschaft sowie Regulierung und Staat benannt (siehe Text unten).
Datenschatz Am Beispiel des autonomen Fahrens bedeutet das: Wenn gut aufbereitete Datensätze die Autos sicherer machen, wäre es dann nicht sinnvoll, allen Herstellern möglichst mit allen verfügbaren Daten zu versorgen? Doch in diesem Fall könnte das Wettbewerbsrecht einer Kooperation oder einer Zwangsweitergabe der Daten entgegenstehen. Die Kommission plädiert dabei für eine "Förderung eines freiwilligen Teilens von Daten" oder eine "Gestaltung von Datenzugangsrechten". Eine vorgeschlagene Standardisierung von Daten könnte demnach ebenfalls dazu beitragen, dass diese besser zum Trainieren von Systemen genutzt werden können. Die Forderung der Abgeordneten, den Menschen in den Mittelpunkt von KI-Anwendungen zu stellen, ist leider auch keine Zauberformel, um die neue Zaubertechnik zu beherrschen. Das zeigt sich am autonomen Fahren. Hier stellt sich demnächst die Frage, ob solche Systeme auch dann zugelassen werden, wenn sie noch keine absolute Fehlerfreiheit garantieren können. Am Ende müssen Gesetzgeber, Hersteller und Behörden hoffen, dass der Einsatz der Technik tatsächlich die Zahl der Unfälle reduzieren hilft und eine "grundsätzlich positive Risikobilanz" zu erwarten ist. Das forderte 2017 zumindest die Ethikkommission zum autonomen und vernetzten Fahren.
Grundrechte Ähnliche Entscheidungen sind in vielen Einsatzbereichen zu erwarten. So heißt es in dem Abschlussbericht: "Bei der Einführung von Videoüberwachungs- und Gesichtserkennungssystemen muss sorgfältig zwischen ihrem Nutzen und einer möglichen Einschränkung von Grundrechten der Betroffenen abgewogen werden." Eine Forderung, die den Abgeordneten von SPD und Linke jedoch nicht weit genug geht. Während die SPD den Einsatz im öffentlichen Raum nur "in Ausnahmefällen" zulassen will, lehnt die Linke solche Systeme komplett ab, weil sie noch nicht zuverlässig genug seien.
Doch viele KI-Anwendungen bieten durchaus Chancen, die Flut an täglich generierten Daten sinnvoll zu nutzen. So können dem Abschlussbericht zufolge KI-Systeme "zu einer nachhaltigen Entwicklung der Mobilität, zu einem effizienteren Umgang mit Ressourcen und einer gelingenden Energiewende beitragen und so auch das Erreichen der Klimaziele unterstützen". Allerdings sei der Einsatz von KI-Lösungen nicht per se wirtschaftlich, ökologisch und sozial nachhaltig.
In der Bundestagsdebatte vergangene Woche bedauerten die Abgeordneten einhellig, dass die Arbeit der Kommission eineinhalb Jahre unter weitgehendem Ausschluss der Öffentlichkeit stattgefunden habe. Doch die Lektüre des Abschlussberichts vermittelt einen guten Überblick über die Komplexität des Themas. Die Enquete-Vorsitzende Daniela Kolbe (SPD) appellierte an die Abgeordneten: "Lesen Sie den Bericht und lassen sie uns ihn uns gemeinsam umsetzen."
Der Autor ist Redakteur für Netzpolitik und Mobilität beim Computermagazin Golem.de