Zum Hauptinhalt springen
Blogbeitrag

KI-Regularien von China und der EU im Vergleich

Ab Juli fördert der deutsche Bund fünf KI-Kompetenzzentren dauerhaft mit 50 Millionen Euro jährlich. (bmbf.de). Ziel ist es, Künstliche Intelligenz „made in germany“ an die Weltspitze zu bringen – im direkten Wettstreit mit Ländern wie China, den USA, Japan, Indien, aber auch Großbritannien, die allesamt auf Forschungsebene derzeit noch vor Deutschland liegen. Auch die EU kommt in Bewegung: Erst kürzlich veröffentlichte der Sonderausschuss zu Künstlicher Intelligenz im digitalen Zeitalter seinen Abschlussbericht mit Empfehlungen zur langfristigen Entwicklung. Neben der rasant fortschreitenden Entwicklung gewinnt jedoch auch ein anderes Themenfeld immer größere Relevanz in der KI: Leitbilder und Regularien. Künstliche Intelligenz muss im Einklang mit aktuellen Datenschutzgesetzen stehen und überall, wo maschinell begründet Entscheidungen getroffen werden können, spielen Fragen der Verantwortlichkeit und Nachvollziehbarkeit eine große Rolle. China als einer der Hauptanwärter auf den Platz der weltweiten KI-Spitze brachte im September 2021 seinen Ethikkodex für Künstliche Intelligenz mit dem Titel „Eine neue Generation ethischer Spezifikationen für Künstliche Intelligenz“ (heise.de) heraus, der hier (georgetown.edu) in einer englischen Übersetzung verfügbar ist. Ausgearbeitet wurden die KI-Leitlinien von einem Ausschuss von Fachleuten, der im Februar 2019 eingerichtet wurde. Noch im selben Jahr veröffentlichte dieser kurze Leitprinzipien für die KI-Regulierung, die nun ausführlich ergänzt wurden (heise.de). Die umfassenden Richtlinien sind Teil des Landesziels, bis 2030 zum weltweiten Marktführer in der KI aufzusteigen (techbeacon.com).

Die Leitlinien sollen jeden Aspekt der aufkommenden Technologie regeln, sodass die KI „unter menschlicher Kontrolle“ steht (globalgovernmentforum.com). Die sechs grundlegenden ethischen Anforderungen des Dokuments sollen Fairness, Gerechtigkeit und Sicherheit fördern und Diskriminierung sowie Datenmissbrauch vermeiden. Außerdem soll die Steigerung des menschlichen Wohlergehens im Mittelpunkt stehen und sichergestellt werden, dass KI kontrollierbar und vertrauenswürdig bleibt (dataguidance.com). In den einzelnen Punkten wird ausgeführt, dass Nutzerinnen und Nutzer über eine völlig autonome Entscheidungsbefugnis verfügen und das Recht haben, ihre Zustimmung zum Einsatz der Systeme jederzeit zu widerrufen (techbeacon.com). Ethik und Moral sollen hierbei in den gesamten Lebenszyklus einer KI integriert werden.

Zusätzlich zu den sechs ethischen Anforderungen werden 18 spezifische Anforderungen formuliert, die sich mit allen Aspekten der KI von der Forschung und Entwicklung bis zur Implementierung befassen. Dazu gehören eine verstärkte Qualitätskontrolle von KI-Produkten und Dienstleistungen vor ihrer Freigabe sowie das Bewusstsein über mögliche negative Auswirkungen (globalgovernmentforum.com). Eine Echtzeitüberwachung soll stattfinden und Nutzerfeedback zeitnah bearbeitet werden. Zudem sind Pläne zur Einführung von so genannten Notfallmechanismen für den Fall eines Systemversagens enthalten (techbeacon.com). Der Einsatz von KI, der die nationale oder öffentliche Sicherheit gefährdet, ist verboten (globalgovernmentforum.com).

Darüber hinaus legt der Kodex fest, dass Unternehmen bei der Datenverarbeitung die entsprechenden Gesetze strikt einhalten müssen. Bei der Datenerhebung und der Entwicklung von Algorithmen sollen mögliche Verzerrungen vermieden werden. Zudem soll sich um die Fairness und den Ausschluss von Diskriminierung innerhalb von KI-Systemen bemüht werden (dataguidance.com).

Doch nicht nur in China kommt es zu ethischen Regulierungen und Richtlinien beim Thema Künstliche Intelligenz. Im April 2019 veröffentlichte die AI HLEG (eine unabhängige hochrangige Gruppe von Fachleuten für KI, die 2018 von der EU-Kommission eingerichtet wurde) die europäischen „Ethik-Leitlinien für eine vertrauenswürdige KI“ (europa.eu).

Die ethischen Richtlinien für KI-Systeme der chinesischen Zentralregierung und das Leitlinienpapier der EU zeigen tatsächlich viele Gemeinsamkeiten. So stehen in der EU die ethischen Grundsätze der Achtung der menschlichen Autonomie, der Schadensverhütung, der Fairness und der Erklärbarkeit im Mittelpunkt. Mit Ausnahme der Schadensverhütung werden diese Punkte in recht ähnlichem Maße abgedeckt. Beim Punkt der Schadensverhütung gehen die chinesischen Leitlinien sogar noch weiter und sehen vor, dass KI nicht nur Schaden verhindern, sondern sogar menschliches Wohlergehen steigern soll. 

Von besonderer Wichtigkeit ist hierbei jedoch zu beachten, worin die Unterschiede bestehen. Zunächst handelt es sich bei den europäischen Leitlinien um die Pilotversion einer Bewertungsliste, die in der Praxis ausgetestet werden soll, bevor diese in Gesetze gegossen werden kann. Die Leitlinien der chinesischen Zentralregierung hingegen wurden bereits als finale Version des National New Generation Artificial Intelligence Governance Specialist Committee verabschiedet und gelten damit unmittelbar. China ist somit in diesem Kontext der EU bereits einen oder zwei Schritte voraus. 

Ein zentraler inhaltlicher Unterschied der beiden Leitlinien besteht darin, wen diese adressieren. Während sich die europäische Version sich an alle möglichen Akteurinnen und Akteure richtet, die KI einsetzen könnten, sind in der Version der chinesischen Zentralregierung vor allem Unternehmen Adressaten der Leitlinien. Regierungsbehörden sind von der Regulierung ausgeschlossen und somit auch die von ihnen eingesetzte KI, beispielsweise bei der automatisierten Gesichtserkennung und biometrischen Identifizierung im öffentlichen Raum.  

In einer globalisierten Welt stellt sich also die Frage, inwiefern die Regulation von KI-Anwendungen und die Prüfung ethisch vertrauenswürdiger KI-Systeme auf internationaler Ebene erfolgen kann. Da China, wie bereits erwähnt, plant, bis 2030 weltweit führend auf dem Gebiet der Künstlichen Intelligenz zu sein, ist davon auszugehen, dass wir in Zukunft von chinesischen Systemen stärker betroffen sein werden, weshalb die Leitlinien der chinesischen Zentralregierung auch für Europa von großer Relevanz sind.

Die Regulation von KI ist grundsätzlich unabhängig von nationalen Lösungen auch mit einer Vielzahl von weiteren Herausforderungen verbunden. Ein klassischer Algorithmus „definiert eine Folge von Handlungen, die – basierend auf der Eingabe – eine Ausgabe mit den gewünschten Eigenschaften berechnet.“ (kas.de). Bei KI-Systemen kommen jedoch Algorithmen des maschinellen Lernens zum Einsatz, die anhand von Datensätzen selbst analysieren, welche Eingabe(kombination) zu welchem Ergebnis geführt hat und basierend darauf ihre eigenen Entscheidungsregeln ableiten. Diese Herangehensweise hat bei einer Vielzahl von Anwendungsfällen große Vorteile (kas.de), allerdings führt sie dazu, dass KI-Anwendungen häufig eine „Black-Box“ darstellen (bigdata-insider.de). Dies bedeutet, dass die Entscheidungen, die die Anwendung intern trifft, für den Menschen nicht nachvollziehbar sind. Selbst für Fachleute ist häufig nicht identifizierbar (dgq.de), welche Merkmale und Korrelationen im zugrunde liegenden Modell erlernt wurden und zu einer Diskriminierung führen könnten (bigdata-insider.de). Diese mangelnde Transparenz und Nachvollziehbarkeit ist insbesondere bei Anwendungen kritisch, die den einzelnen Menschen oder die Gesellschaft als Ganzes betreffen. Die Konsequenzen einer Fehlentscheidung trägt insbesondere die Person, über die entschieden wird, wie bei der automatisierten Kreditvergabe, der Identifikation von Terroristinnen und Terroristen oder dem Rückfälligkeitsvorhersagealgorithmus (kas.de).

Eine weitere Schwierigkeit in der Regulation von künstlicher Intelligenz besteht in der zunehmenden Komplexität zugrunde liegender Technologien. Viele Entscheidungen in Hinblick auf Empfehlungen und Gesetze werden nicht von den Bürgerinnen und Bürgern selbst getroffen. Es ist jedoch zentraler Bestandteil einer demokratischen Gesellschaft, dass solchen Entscheidungen, die wie bereits gezeigt werden konnte, häufig Implikationen in Bezug auf Moral und Werte mit sich tragen, ein gesellschaftlicher Diskurs zugrunde liegt, an dem alle Betroffenen teilhaben können. Grundvoraussetzung ist es daher, dass die Funktionsweise der Technologie, über die geurteilt werden soll, allgemeinverständlich erklärbar ist und nachvollzogen werden kann. Wenn Technologien jedoch immer komplexer werden und es aufgrund des Black-Box-Phänomens selbst Fachleuten schwerfällt, Prozesse nachzuvollziehen, droht der gesellschaftliche Diskurs ins Wanken zu geraten. Statt Fakten gelangen Emotionen in den Vordergrund und werden sowohl von politischen als auch wirtschaftlichen Akteurinnen und Akteuren genutzt, um die gesellschaftliche Deutungshoheit zu gewinnen.  

Neben der Entscheidungsfindung spielt die Erklärbarkeit eine Rolle in der aktiven Nutzung. Sehen Regularien vor, dass die Nutzerinnen und Nutzer selbstbestimmt über den Einsatz entscheiden und diesen ablehnen können, ist diese Entscheidungsfreiheit unabhängig von der theoretischen Grundlage praktisch nur dann gegeben, wenn diese vollständig im Klaren darüber sind, welche Implikationen der Einsatz mit sich trägt.

Da sowohl gesellschaftlich als auch politisch insbesondere im Rahmen der Verwendung neuer Technologien immer wieder Diskussionsbedarf entsteht, freuen wir uns, gemeinsam einen Diskurs zu genau solchen Fragen zu gestalten. Verlinken (und folgen) Sie uns gerne auf Twitter unter @society_read.

Dieser Beitrag wurde von Yasmina Adams, Lasse Cezanne und Johannes Korz aus der SocIeTy (ehem. Redaktion Sozioinformatik) verfasst. 

Happy to work together. Pleasant positive girl and modern robot holding their hands in fists and holding them together while expressing gladness
© yacobchuk - Getty Images/iStockphoto