Zum Hauptinhalt springen
Meldung

Abschlussbericht des Projekts ExamAI – KI Testing & Auditing vorgestellt

Das Projekt ExamAI – KI Testing & Auditing stellt seinen Abschlussbericht mit Lösungsansätzen und Handlungsempfehlungen für den Umgang mit sicherheits- und fairnesskritischen KI-Systemen vor

Auf einem virtuellen Fachsymposium "Testen & Zertifizieren von KI-Systemen" stellte das ExamAI-Projektkonsortium am 30.11. vor über 320 Gästen seinen umfassenden Abschlussbericht vor. Aus interdisziplinärer Perspektive untersuchte das Konsortium aus GI, Fraunhofer IESE, Universität des Saarlandes, TU Kaiserslautern und Stiftung Neue Verantwortung in einem zweijährigen Forschungsvorhaben, wie sinnvolle Kontroll- und Testverfahren für KI-Systeme in der Arbeitswelt aussehen sollten. Die im Projekt entstandenen Lösungsansätze und Handlungsempfehlungen wurden in zahlreichen Publikationen veröffentlicht, weitere Artikel befinden sich im Erscheinen.

Projektleiter Nikolas Becker, GI: "Unsere Ergebnisse leisten einen Beitrag zur Gestaltung effektiver Test-, Kontroll- und Zertifizierungspraktiken für den Einsatz von KI. Beim Thema Sicherheit und Fairness von KI brauchen wir eine neue Denkweise. Statt auf standardisierte Gestaltungsvorgaben zu setzen, schlagen wir mit Assurance Cases einen flexibel gestaltbaren Argumentationsprozess zum Nachweis von Sicherheit vor. Dafür müsste die Industrie mehr Wert auf Safety Engineering legen, die Arbeit in Normungsgremien muss diverser werden und auch auf Seiten der Marktüberwachung brauchen wir Kompetenzen für die Assurance-Case-Methodik."

Der gestern vorgestellte Abschlussbericht ExamAI – KI Testing und Auditing. Herausforderungen, Lösungsansätze und Handlungsempfehlungen für das Testen, Auditieren und Zertifizieren von KI fasst die zentralen Projektergebnisse und Empfehlungen übersichtlich zusammen.

Weiterhin sind die Folien der Vorträge des Fachsymposiums verfügbar:

  • Nikolas Becker, Gesellschaft für Informatik: ExamAI: Ein Überblick (Download)
  • Dr. Jens Heidrich, Fraunhofer IESE: Wie Assurance Cases KI in der Industrie sicherer machen können (Download)
  • Marc Hauer, TU Kaiserslautern: Assurance Cases zum Prüfen von Anforderungen im HR Bereich (Download)
  • Prof. Dr. Georg Borges/Sven Hilpisch, Universität des Saarlandes: Rechtliche Implikationen für das Testen von KI-Systemen (Download)
  • Dr. Stefan Heumann, Stiftung Neue Verantwortung: Empfehlungen für Politik, Industrie, Wissenschaft, Normung und Marktüberwachung (Download)

Eine Aufzeichnung der anschließenden Paneldiskussion "Der politische Imperativ für das Testen & Zertifizieren von KI-Systemen" mit Prof. Dr. Katharina Zweig, TU Kaiserslautern, Prof. Dr. Georg Borges, Universität des Saarlandes, Prof. Dr. Peter Liggesmeyer, Fraunhofer IESE, Prof. Dr. Sarah Spiekermann, WU Wien und Dr. Tarek R. Besold, DEKRA Digital finden Sie auf dem YouTube-Kanel der GI.

Das Projekt wurde im Rahmen des Observatoriums Künstliche Intelligenz in Arbeit und Gesellschaft (KIO) der Denkfabrik Digitale Arbeitsgesellschaft des Bundesministeriums für Arbeit und Soziales (BMAS) gefördert.

Projektleiter Nikolas Becker, GI