Zum Hauptinhalt springen
Meldung

ExamAI-Arbeitspapier zu diskriminierender KI veröffentlicht

Im neuen Arbeitspapier des Projekts "ExamAI – KI Testing und Auditing" adressieren vier Expert*innen die Risiken algorithmischer Entscheidungen in der Personalwahl

Von der idealen Platzierung einer Stellenanzeige im Rahmen der Mitarbeitendensuche über die Personalauswahl bis hin zur Personalverwaltung spielt der Einsatz KI-basierter Systeme zunehmend auch in Deutschland eine Rolle. Insbesondere bei der Personalauswahl versprechen algorithmische Systeme eine effiziente, vorurteilsfreie Selektion geeigneter Bewerber*innen. Tatsächlich bergen sie jedoch erhebliche Diskriminierungsrisiken und es ist fraglich, wie diesen Risiken begegnet werden kann. Im Rahmen des ExamAI WebTalks „Diskriminierende KI? Risiken algorithmischer Entscheidungen in der Personalauswahl“ am 25. Mai 2021 diskutierten vor diesem Hintergrund vier Expert*innen aus Informatik, Recht und Zivilgesellschaft über Regulierungsmöglichkeiten von KI-Systemen und über rechtlichen Handlungsbedarf beim Diskriminierungsschutz. Die Diskutan*innen haben ihre Perspektiven im Nachgang zusammengefasst, ihre Beiträge liegen ab jetzt in Form eines Arbeitspapiers vor.

Für Dr. Andrea Knaut von der Geschäftsstelle für den Dritten Gleichstellungsbericht ist eine geschlechtergerechte Gestaltung digitaler Systeme nur dann möglich, wenn Diskriminierungsfreiheit algorithmischer Systeme durch politische Rahmenbedingungen und die Aufstellung von Industrienormen zu einem verpflichtenden Ziel guter Systemgestaltung gemacht wird. Weiterhin sollen Arbeitgebende durch das Allgemeine Gleichbehandlungsgesetz (AGG) dazu verpflichtet werden, den Einsatz von KI-Systemen im Personalmanagement offen zu legen. Geht es schließlich um den Ansatz, Diskriminierungsrisiken durch eine Auditierung von KI-Systemen auszuschließen, so muss eine Antwort auf die Frage gefunden werden, wie Geschlechtsdiskriminierung, die bereits in den Trainingsdaten von KI-Modellen steckt, adressiert werden kann.

Elisa Lindiger vom feministischen Labor Superrr Lab stellt zur Debatte, ob KI im Personalwesen in den meisten Fällen nicht bloß ein Marketingversprechen ist und kritisiert die mangelnde Transparenz über den tatsächlichen Einsatz und Einfluss von KI im HR-Bereich. Um Diskriminierung ausreichend erkennen und ausschließen zu können, fordert sie weiterhin eine interdisziplinäre Zusammenarbeit bei der Entwicklung und Prüfung von KI-Systemen. „Wissenstransfer und disziplinübergreifende Zusammenarbeit ist die Grundvoraussetzung dafür, dass nicht schon bald Technologien im großen Stil eingesetzt werden, die die Chancengerechtigkeit in der Arbeitswelt massiv negativ beeinflussen“, so Lindinger.

In einem gemeinsamen Beitrag empfehlen Dr. Andreas Sesing von der Universität des Saarlandes sowie Angela Tschech von der Martin-Lutter-Universität-Halle-Wittenberg neber einer Testpflicht für KI-Systeme zur Reduktion von Diskriminierungsrisiken auch eine Anpassung des AGG sowie der KI-Verordnung der EU-Kommission. Um den rechtlichen Schutz von Betroffenen zu stärken, müsste die Transparenzpflicht anwendender Unternehmen durch das AGG erweitert und der Schutz vor unzulässiger Diskriminierung in der KI-Verordnung expliziter berücksichtigt werden.

Das Arbeitspapier steht ab sofort zum Download bereit: https://testing-ai.gi.de/fileadmin/user_upload/ExamAI_Publikation_Arbeitspapier_final.pdf 

Der WebTalk, der dem Arbeitspapier zu Grunde liegt, lässt sich über folgenden Link nachschauen: https://testing-ai.gi.de/meldung/diskriminiert-durch-ki-gi-webtalk-diskutiert-rechtliche-aspekte 

Über das Projekt ExamAI:

Das Forschungsprojekt „ExamAI – KI Testing und Auditing“, widmet sich der Erforschung geeigneter Test- und Auditierungsverfahren für KI-Anwendungen. Es steht unter der Leitung der Gesellschaft für Informatik e. V. wird von einem interdisziplinären Team bestehend aus Mitgliedern der TU Kaiserslautern, der Universität des Saarlandes, des Fraunhofer-Instituts für Experimentelles Software Engineering IESE, der Stiftung Neue Verantwortung getragen und im Rahmen des Observatoriums Künstliche Intelligenz in Arbeit und Gesell- schaft (KIO) der Denkfabrik Digitale Arbeitsgesellschaft des Bundesministeriums für Arbeit und Soziales (BMAS) gefördert.

Weitere Informationen finden Sie auf: https://testing-ai.gi.de 

Grafik zum Arbeitspapier: "Diskriminierende KI? Risiken algorithmischer Entscheidungen in der Personalauswahl"