Skip to main content
Blogbeitrag

KI und Ethik in Unternehmen | Interview mit Andrea Martin (IBM)

Der zunehmende Einsatz von Künstlicher Intelligenz (KI) bringt weitreichende Veränderungen für die Arbeitswelt mit sich. Um Vertrauen in Maschinen zu schaffen, die selbst-lernend Entscheidungen und Empfehlungen generieren, müssen diese Prozesse bis ins kleinste Detail nachvollziehbar für den Menschen gemacht werden. Andrea Martin, Leiterin IBM Watson Center München und Distinguished Engineer bei IBM, spricht im Interview über mögliche Verfahren und Wege, um den beherrschbaren und transparenten Einsatz von KI in Unternehmen sicherzustellen.

Frau Martin, wo stehen heute Unternehmen in Deutschland, wenn es um den Einsatz von KI-Anwendungen geht?

Unsere Erfahrung aus dem täglichen Kontakt mit Kundinnen und Kunden zeigt uns, dass das Interesse am Einsatz von KI sehr hoch ist – insbesondere zur Optimierung der Interaktion mit der eigenen Kundschaft und im Hinblick auf das Zusammenspiel von Mensch und Maschine, beispielsweise mit virtuellen Assistenten, aber auch zur Verbesserung der oft hochkomplexen Entscheidungsfindung und zur Gewinnung von neuen Erkenntnissen aus großen Datenmengen. Eine Studie von Omdia[1] bestätigt dies: Nahezu 79 % der deutschen Unternehmen setzen KI-Technologie ein, und unter den bestehenden Nutzerinnen und Nutzern sind 36 % der Ansicht, dass es erheblichen Spielraum für eine weitere Implementierung gibt. Weitere 15 % der Unternehmen sind dabei, den Einsatz von KI-Lösungen weiter zu untersuchen und planen, in den nächsten 12 Monaten zu investieren.

Was sind typische Bereiche in der Wirtschaft, in denen mit Entscheidungen von selbstlernenden Maschinen gearbeitet wird?

Wir arbeiten mit Kundinnen und Kunden aus allen Branchen. Einen Schwerpunkt sehen wir im produzierenden Gewerbe, wo KI-Lösungen oftmals zur Effizienzsteigerung und zur Qualitätsverbesserung eingesetzt werden. Ein anderer Schwerpunkt ist der Kundenservice, der in fast allen Branchen zu finden ist, bei Banken, Versicherungen, im Handel etc. Generell ist laut einer Studie von Deloitte[2] festzustellen, dass es durchaus Unterschiede gibt beim Einsatz von KI-Lösungen zwischen Deutschland und der restlichen Welt: So finden sich KI-Projekte in der Finanzwirtschaft hierzulande deutlich häufiger (15 % statt international 8 %), dafür ist KI im Bereich Cybersecurity in Deutschland noch seltener anzutreffen als weltweit. Potenzial gibt es sicherlich in den Bereichen Logistik, Marketing, Einkauf und vielen anderen internen Unternehmensprozessen.

Für selbstlernende Systeme (die wir hier mit KI bezeichnen) ist die Datenqualität von besonderer Bedeutung. Wie können Unternehmen unfaire Verzerrungen der Daten identifizieren? Gibt es klare Verfahren, um die Transparenz der Systeme zu gewährleisten?

Wir haben bei IBM eine umfassende Strategie, um Vertrauen und Transparenz für KI-Lösungen zu schaffen – für unsere eigenen Lösungen, aber auch gemeinsam mit unseren Kundinnen und Kunden. Dazu haben wir klare Prinzipien und Governance-Strukturen (z. B. unsere „Principles for Trust and Transparency“) sowie Vorgehensweisen und Werkzeuge. Mehrere Dimensionen sind dabei zu beachten, und deshalb verpflichten wir uns beispielsweise auch, die EU-Richtlinien für vertrauenswürdige KI umzusetzen.

Es gibt einige Grundvoraussetzungen für die Vertrauens-würdigkeit einer KI-Lösung. Dazu gehört, dass sie keinen Schaden anrichtet, dass – u. a. zur Sicherstellung der von uns repräsentierten Werte – der Mensch als Entscheidungs-instanz möglichst die Kontrolle behält und dass es eine hinreichende Ergebnisgenauigkeit gibt. Aber es gibt weitere Dimensionen, die aus unserer Sicht für eine vertrauens-würdige KI-Lösung unerlässlich sind, z. B. Transparenz und Verantwortlichkeit: Es muss erkennbar sein, dass KI einge-setzt wird. Außerdem müssen Rückverfolgbarkeit (z. B. in Bezug auf die eingesetzten Daten), Fairness, Erklärbarkeit, Robustheit und Sicherheit für ein KI-System sichergestellt sein. Weiterhin sollten während des Betriebs die Leistung und das Qualitätsniveau der KI-Lösung gemessen und gegebenenfalls korrigierende Maßnahmen ergriffen und kommuniziert werden.

Wie sollten Ihrer Meinung nach institutionelle Anforderungen für einen diskriminierungsfreien Einsatz von KI in Unternehmen aussehen?

Generell sollte es ein Zusammenspiel geben von organisatorischen bzw. Governance-Maßnahmen, von Vorgehensweisen beim Design, bei der Entwicklung und beim Betrieb von KI-Lösungen sowie von technischen Lösungen zur Beförderung von Vertrauenswürdigkeit. Es ist wichtig zu erkennen, dass die Technologie alleine nicht in der Lage sein wird, Vertrauenswürdigkeit oder Diskriminierungsfreiheit herzu-stellen. Ebenso kann der IT-Bereich eines Unternehmens nicht alleine dafür verantwortlich gemacht werden: Es muss einen interdisziplinären Diskurs zu diesem Thema geben – in Unternehmen sowie auch in der Gesellschaft und Politik.

An welchen Fragen arbeitet die Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“ des Bundestags zurzeit? Wie will sie mehr Klarheit für Unternehmen beim Einsatz von KI schaffen?

Die Kommission hat zum Ziel, die Potenziale von KI für Deutschland zu erörtern, aber auch die möglichen Risiken zu betrachten – u.a. aus technischer, rechtlicher, ethischer und gesellschaftlicher Sicht. Ergebnis sollen Handlungs-empfehlungen auf nationaler, europäischer und internationaler Ebene sein, deren Umsetzung dazu führen soll, dass die Potenziale auch gehoben und die Risiken gemildert bzw. ausgeschaltet werden können. Um möglichst zielgenau Empfehlungen zu entwickeln, arbeiten wir in verschiedenen Projektgruppen – denn sowohl das Potenzial als auch die Risiken von KI sind stark abhängig vom Einsatzgebiet. Die Projektgruppen zu den Themen „KI und Wirtschaft“, „KI und Staat“ sowie „KI und Gesundheit“ sind abgeschlossen, momentan arbeiten wir an den Themen „KI und Arbeit“, „Bildung“, „Forschung“, „KI und Mobilität“ sowie „KI und Medien“.

Brauchen Fachkräfte auch Wissen über KI, das über den technischen Bereich hinaus geht?

Absolut. Für mich gibt es mehrere Wissens-Aspekte zum Thema KI. Zum einen benötigen wir natürlich spezifisches Wissen zu KI-Funktionalitäten, also beispielsweise dem Machine Learning. Dies betrifft Designer*innen, Entwickler*innen und solche Fachkräfte, die KI-Lösungen erstellen, trainieren und betreiben. Zum anderen müssen die Nutzerinnen und Nutzer der KI-Lösung in die Lage versetzt werden, diese zu bedienen. Aber genauso braucht es Prozess- und Organisationswissen, um die KI-Lösung in die bestehen-den Prozesse einzubetten bzw. Abläufe und dazugehörige Rollen und Fähigkeiten entsprechend anzupassen. Und wir sollten uns um die „Soft Skills“ kümmern wie z.B. kritisches Denken, Problemlösungskompetenz, Verantwortungsbewusstsein. Denn die Menschen müssen in der Lage sein, trotz Empfehlungen einer KI-Lösung selbständig Entscheidungen zu treffen und sich ggf. auch über die Empfehlung der KI-Lösung hinwegzusetzen. Auch hier gilt wieder: Alleine die technischen Fähigkeiten werden nicht zum gewünschten Erfolg führen – es ist eine ganzheitliche Betrachtungsweise notwendig.

 

Dieses Interview erschien im GI-Jahresbericht 2019/2020. Das gesamte Heft steht Ihnen hier zum Lesen bereit. 

 


[1] Omdia (formerly Ovum), Mai 2020: Emerging Enterprise Services Spotlight: The State of Edge and AI Services in Germany, 2020 – 2021

[2] www2.deloitte.com/de/de/pages/technology-media-and-telecommunica-tions/articles/ki-studie-2020.html

 

Copyright: IBM Corporation