Innovation ermöglichen, Risiken vermeiden
⟩⟩⟩ von Benjamin Stiebel, Behörden Spiegel
Der Vormarsch von Künstlicher Intelligenz ist nicht aufzuhalten. Aufgabe ist es daher, Chancen und Risiken in ein vernünftiges Verhältnis zu bringen. Deutschland und Europa tun sich in dem Bereich einmal mehr als Vorreiter der Regulierung und Standardisierung hervor. Doch europäische Anforderungen auf Papier werden bei der Gestaltung der digitalen Zukunft nur ins Gewicht fallen, wenn sie mit wettbewerbsfähigen europäischen Lösungen flankiert werden.
Ein bekannter Anwendungsfall für Künstliche Intelligenz (KI) ist das autonome Fahren. Schon vor Jahren wurden große Erfolge von zumeist US-amerikanischen oder chinesischen Unternehmen verkündet. Pilotversuche folgten, auch in Deutschland. Es sah aus, als ob uns vom autonomen Verkehr nur noch wenige Jahre trennen würden. Seitdem ist die Betrachtung wieder nüchterner geworden. Trotz erstaunlicher Leistungen der Systeme ist die Unsicherheit noch zu groß – das zeigten auch Unfälle bei Testfahrten. Das Problem erläutert Prof. Dr. Simon Burton, Forschungsleiter für den Bereich Safety am Fraunhofer-Institut für Kognitive Systeme IKS: „Der Straßenverkehr ist ein äußerst komplexes Gesamtsystem.” Neben dem Fahrzeug selbst gehörten dazu andere ggf. autonom oder teil-autonom fahrende Autos, weitere Verkehrsteilnehmer wie Fußgänger oder Fahrradfahrer und die ganze Straßeninfrastruktur. In dem Gesamtgefüge habe KI es häufig mit unvorhersehbaren Ereignissen zu tun. KI-Systeme lernten anhand von massenhaften Daten. Trotzdem ergäben sich Unschärfen bei Ereignissen, die sehr selten vorkämen. Gerade diese könnten aber besonders wichtig für die Sicherheit sein, wie z. B. Kleinkinder, die vor das Auto liefen.
Letztlich dürfe die Sicherheit aber nicht nur auf technischer Ebene betrachtet werden, so Burton. Fehlerquellen gebe es auf verschiedenen Ebenen. Das beginne schon bei der Gestaltung der Straßen, damit zum Beispiel Fußgängerüberwege eindeutig erkannt werden könnten. Klarheit brauche es zudem im Nutzungskontext: Wie müssten Fahrzeugführer/-innen geschult werden? Wer hafte bei Unfällen? Es zeige sich: KI könne ein Problemlöser sein, schaffe selbst aber auch neue Probleme. „Wir wollen KI besonders in Bereichen einsetzen, die wir nicht gut spezifizieren können”, sagt Burton. „Entsprechend können wir aber auch die entstehenden Risiken schlecht spezifizieren.” Das Dilemma ließe sich nicht technisch lösen. Was es brauche, sei ein breiter Diskurs darüber, was wir von KI-Systemen erwarten und unter welchen Bedingungen wir sie einsetzen wollen. „Bisher gibt es keine Richtlinie dafür, welche Fehlerrate wir bei einer KI tolerieren wollen”, gibt Burton zu bedenken.
Lange fehlte es generell an konkreten Anforderungen für den KI-Einsatz. Inzwischen hat die EU-Kommission einen Verordnungsentwurf zur Regulierung vorgelegt. Im Kern steht ein risikobasierter Ansatz. Systeme der höchsten Risikoklasse wie Social Scoring sollen demnach gänzlich verboten werden. Anwendungen mit minimalem Risiko wie einfache Spamfilter werden dagegen gar nicht gesondert reguliert. Ist das Risiko als begrenzt einzustufen, wie bei Chatbots, werden vor allem Transparenzpflichten eingeführt. Systeme mit hohem Risiko werden deutlich stärker reguliert. Dazu gehören Anwendungen, die über den Zugang zu Berufs- und Bildungsangeboten oder die Kreditvergabe entscheiden sowie Anwendungen im Rahmen der Strafverfolgung. Hier muss eine umfangreiche Konformitätsbewertung vorgenommen werden. Die Richtigkeit der verwendeten Daten muss sichergestellt werden. Zudem müssen die Anwendungen registriert werden und staatliche Kontrollen sind vorgesehen.
Vertrauen schaffen
Für Arne Schönbohm muss das Ziel der Regulierung sein, nachweislich resiliente und vertrauenswürdige KI-Systeme zu schaffen. „Wir müssen Akzeptanz bei den Verbraucherinnen und Verbrauchern erreichen”, fordert der Präsident des Bundesamts für Sicherheit in der Informationstechnik (BSI). Dazu brauche es neben einem Rechtsrahmen auch Normen und Standards für sichere und vertrauenswürdige Systeme. „Über diesen Weg wird mit entschieden, wie erfolgreich wir aus Deutschland und Europa heraus das Thema mitgestalten können.” Einen Aufschlag hat das Bundesamt mit dem AIC4 (AI Cloud Service Compliance Criteria Catalogue) gemacht. Der weltweit erste Kriterienkatalog für den Bereich spezifiziert Mindestanforderungen an die sichere Verwendung von KI-Methoden in Cloud-Diensten.
Regulierung und Normen könnten jedoch nicht das einzige Instrument sein, um den unvermeidlichen Siegeszug von KI im europäischen Sinne zu gestalten, wie die Bundestagsabgeordnete Dr. Anna Christmann (Bündnis 90/Grüne) zu bedenken gibt. „Rote Linien gegen Einsatzszenarien wie massenhafte Gesichtserkennung oder Social Scoring sind absolut notwendig”, so Christmann. „Es wäre aber ein großer Fehler, nur auf Regulierung zu setzen und nicht auch eigene praktische Kompetenzen zu entwickeln.” Dafür brauche es zum einen Investitionen. Zum anderen müsse hiesigen Unternehmen und auch Start-ups Freiheit für Innovation eingeräumt werden. „Wir dürfen durch Generalität in der Gesetzgebung keine unüberwindbaren Hürden schaffen.” Diese Gefahr sieht die Abgeordnete beim Verordnungsentwurf der EU-Kommission, der z. B. Fehlerfreiheit der verwendeten Datensätze fordert. Hier sei unklar, was das in der Praxis genau heißen soll – buchstäblich verstanden, sei die Anforderung nicht erfüllbar, moniert Christmann.
Auch Jochen Dahlke warnt vor Pauschalisierung im Diskurs über den Einsatz Künstlicher Intelligenz. Der frühere Geschäftsfeldleiter Big Data bei der Zentralen Stelle für Informationstechnik im Sicherheitsbereich (ZITiS) ist inzwischen für das Bundesministerium der Verteidigung tätig. „Anforderungen an Genauigkeit, Transparenz und Sicherheit unterscheiden sich in verschiedenen Einsatzkontexten erheblich. Deswegen müssen wir Kompetenzen sektorenspezifisch aufbauen auch viel differenzierter diskutieren”, fordert Dahlke. So könne ein Bias – also eine vorurteilsartige Verzerrung in KI-getriebenen Entscheidungsprozessen – in bestimmten Anwendungen vorsätzlich eingebaut sein, während er in vielen anderen Anwendungen als gefährlicher, unerwünschter Effekt gilt. Zudem sei die Eingriffstiefe bei Anwendungen für Analysten in der Polizeiarbeit eine ganz andere als bei kommerziellen Angeboten. „Eine Art Ampelsystem zur Einteilung aller KI-Systeme ist nicht die Lösung”, kritisiert Dahlke. „Die Regulierung muss sektorenbezogen vorgenommen werden.”
Dem schließt sich Dr. Martin Conrad an. Er ist als Referatsleiter im Bundesinnenministerium für den IT-Einsatz und die Cyber-Fähigkeiten der Bundespolizei zuständig. „Die EU-Kommission hat sich mit ihrem Vorstoß die Kompetenz angemaßt, den KI-Einsatz für die nationalen Sicherheitsbehörden mitzuregulieren”, kritisiert er. Für die Entwicklung von Fähigkeiten im Rahmen von Strafverfolgung und Gefahrenabwehr sei der Entwurf ein enormer Bremsklotz, Kompetenzstreitigkeiten seien vorprogrammiert. Milder gestimmt ist Patrick Voss-de Haan, Leiter des Referats „Cybercrimeforschung” im Bundeskriminalamt. Für ihn gilt: Ein schlechter Rechtsrahmen ist besser als gar kein Rechtsrahmen. Beim polizeilichen Handeln werde tief in die Rechte der Menschen eingegriffen. Entsprechend brauche es solide Grundlagen für den Einsatz von Technik. Voss-de Haan weiter: „Wir wollen innovativ sein und neue Werkzeuge einsetzen. Aber wir wollen auch akzeptable Lösungen schaffen. Nur wissen wir schlicht nicht, wie wir es machen können, weil es bisher keine klaren Kriterien für den akzeptablen Einsatz von KI im Sicherheitsbereich gibt.”
Den Spagat wagen Im kommerziellen Bereich werden KI-Systeme in Ermangelung klarer Kriterien bisher vor allem in den USA und China weitgehend ungebremst entwickelt und eingesetzt, während europäische Unternehmen sich mit der bevorstehenden Regulierung einzurichten haben. Im öffentlichen Bereich ist es dagegen gerade das Fehlen klarer Vorgaben, dass sich bremsend auswirkt. Ähnlich wie schon beim Datenschutz besteht die fromme Hoffnung darin, dass sich technische Innovation und rechtliche Restriktion langfristig werden verheiraten lassen. Im besten Fall soll eine Regulierung des wichtigen europäischen Marktes das Sicherheits- und Transparenzniveau auch bei Angeboten aus Drittländern hochziehen. Für hiesige Anbieter soll eine Art „AI made in Europe” zum Wettbewerbsvorteil werden. Ob das gelingt, bleibt abzuwarten. Im Datenschutz ist das Kalkül bisher jedenfalls nicht ganz aufgegangen – vor allem, weil im internationalen Kontext von konsequenter Rechtsdurchsetzung keine Rede sein kann.