Zum Hauptinhalt springen
Meldung

ExamAI-Arbeitspapier zum AI Act

Das neuste Arbeitspapier aus dem Projekt ExamAI – KI Testing und Auditing umfasst drei Beiträge zur Regulierung von Künstlicher Intelligenz (KI) in der Arbeitswelt vor dem Hintergrund der geplanten europäischen KI-Verordnung (AI Act).

Ende April 2021 veröffentlichte die EU-Kommission den weltweit ersten dedizierten Rechtsrahmen speziell für Künstliche Intelligenz (KI-Verordnung). Der Regulierungsvorschlag beinhaltet eine Risikoklassifizierung von KI-Anwendungen und formuliert – abhängig von der jeweiligen Risikoklasse – unterschiedliche Anforderungen an Unternehmen. Für sogenannte Hochrisiko-Anwendungen wurden beispielsweise spezielle Anforderungen formuliert, worunter neben allgemeinen Dokumentations- und Transparenzpflichten auch das Testen entsprechender KI-Systeme fällt. Die Anwendungsfälle aus dem Projekt ExamAI – KI Testing und Auditing (Industrieproduktion& Personal- und Talentmanagement) sind größtenteils Teil der Kategorie „Hochrisiko“. Dementsprechend stellt sich die Frage, welche konkreten Auswirkungen der EU-Regulierungsvorschlag in seiner aktuellen Form für die Anwendung von KI im Arbeitsbereich hat.

Im Rahmen des Projekts ExamAI diskutierten im September 2021 im WebTalk „KI-Regulierung made in Europe“ vier Expert*innen aus Wirtschaft, Wissenschaft und Politik über diese Auswirkungen sowie über die Stärken und Schwächen des AI Acts in seiner aktuellen Form. Die Diskussionsrunde wurde aufgezeichnet und steht allen Interessierten zur Verfügung.

Das Arbeitspapier fasst die Diskussionsbeiträge zusammen. Dr. Johanna Wenckebach (Hugo-Sinzheimer Institut, Hans-Böckler-Stiftung) spricht sich in ihrem Beitrag dafür aus, einen stärkeren Arbeitnehmer*innenschutz im AI Act zu integrieren, damit dieser nicht als zahnloser Tiger daherkommt. Wenn der AI Act eine starke und flexible Grundlage für die Gestaltung verantwortungsvoller KI darstellen soll, müssen zudem die Verantwortlichkeiten für KI-Systeme und die Ausgestaltung der im AI Act formulierten Pflichten geklärt werden, fordert Cornelia Kutterer (Microsoft). Stellvertretend für das Projekt ExamAI bemängelt Nikolas Becker die fehlenden Prüfmethoden für Hochrisiko-KI-Systeme und schlägt Assurance Cases und ATDD als Grundstein für das Testen von KI-Systeme im Arbeitsbereich auf Sicherheit und Fairness vor.

Das Arbeitspapier steht zum Download bereit: KI-Regulierung made in Europe – Positionen zum Gesetzentwurf der Europäischen Kommission

Über das Projekt ExamAI

Das Forschungsprojekt „ExamAI – KI Testing und Auditing“, widmet sich der Erforschung geeigneter Test- und Auditierungsverfahren für KI-Anwendungen. Es steht unter der Leitung der Gesellschaft für Informatik e. V. wird von einem interdisziplinären Team bestehend aus Mitgliedern der TU Kaiserslautern, der Universität des Saarlandes, des Fraunhofer-Instituts für Experimentelles Software Engineering IESE, der Stiftung Neue Verantwortung getragen und im Rahmen des Observatoriums Künstliche Intelligenz in Arbeit und Gesellschaft (KIO) der Denkfabrik Digitale Arbeitsgesellschaft des Bundesministeriums für Arbeit und Soziales (BMAS) gefördert. Weitere Informationen finden Sie unter https://testing-ai.gi.de