Skip to main content
Blogbeitrag

KI im Bewerbungsgespräch: Eingestellt!

Wie sieht das Bewerbungsverfahren der Zukunft aus? Unilever, eines der weltweit größten Verbrauchsgüterunternehmen, experimentiert mit neuen Möglichkeiten. Wie „The Telegraph“ schon im September 2019 berichtete, nutzt das Unternehmen einen vom amerikanischen Softwarehersteller HireVue entwickelten Algorithmus zur Analyse von Gesichtsausdrücken und Sprachverhalten, um eine Vorauswahl unter Bewerberinnen und Bewerbern vorzunehmen (Telegraph). Bei der Bewerbung nimmt man von sich selbst per Smartphone oder Computer ein Video auf, das von einer „video interviewing software“ anschließend analysiert wird. Angepasst an das jeweilige Jobangebot, beantworten alle Bewerberinnen und Bewerber im Interview die gleichen Fragen. Ausgewertet werden unter anderem Aspekte der Sprache, der Tonlage oder auch Gesichtsausdrücke. Die eingesetzten Maschinellen Lernverfahren werden zuvor mit Videos von Arbeitnehmerinnen und Arbeitnehmern trainiert, deren Job-Eignung vom Arbeitgeber bereits bewertet worden ist. Durch die Analyse des Videos ermittelt der HireVue-Algorithmus einen Score von 0 bis 100. Anhand dieses Scores kann der Arbeitgeber nun entscheiden, ob die Bewerbung einer Person weiter berücksichtigt oder verworfen wird.

Die Vorzüge solcher Lösungen liegen auf der Hand: Eingereichte Videos lassen sich in kürzester Zeit analysieren. Bewerbungsunterlagen müssen nicht mehr vollständig von Menschen bearbeitet werden. Außerdem verspricht man sich eine objektivere Einschätzung der Bewerberinnen und Bewerber. HireVue verspricht seinen Kunden bis zu 50% schnelleres Wachstum, 29% mehr Umsatz und 13% mehr „Top-Performer“ (hirevue.com).

Unilever ist nicht der einzige Anbieter von Lösungen für die datengetriebene Bewerberanalyse. Unter dem Leitsatz „Let's make work better“ beschäftigt sich Google im Projekt „re:Work“ mit den Praktiken und der Erforschung eines datengetriebenen Ansatzes für Human Resources (HR). Mithilfe von Daten und wissenschaftlichen Methoden soll die Arbeit für alle Mitarbeiterinnen und Mitarbeiter verbessert und ein kollaborativer Prozess für allen Interessenten geschaffen werden (Google) Die Forschung begann dabei bereits im Jahr 2008 im „Project Oxygen“. In Mitarbeiterbefragungen wurden dabei die Eigenschaften der besten Führungskräfte des Unternehmens erhoben (Google). 

Basierend auf den so gewonnenen Informationen stellt re:Work Leitfäden und Gütekriterien für verschiedene Prozesse bereit, etwa die Rekrutierung neuer Mitarbeiter (Google).

Nach Einschätzung der Wirtschaftsprofessoren Biemann und Weckmüller verfolgt Google dabei jedoch den Ansatz „people should make people decisions“ und verzichtet auf den Einsatz von Algorithmen in Bewerbungsverfahren (haufe.de).

Dass die Verwendung von Algorithmen zu schwer kontrollierbaren Problemen führt, zeigt das Beispiel von Amazon. Dort wurden vor einigen Jahren Algorithmen für den Rekrutierungsprozess eingeführt, wie etwa die Nachrichtenagentur Reuters im Oktober 2018 meldete (Reuters). Anhand von Bewerbungen aus einem Zeitraum von zehn Jahren wurde ein auf Maschinellem Lernverfahren basierendes System entwickelt, das 100 Bewerbungen entgegennimmt und daraus die fünf am besten geeigneten Kandidaten zurückliefert. Es stellte sich jedoch heraus, dass das System einen entscheidenden Fehler machte: Im männlich dominierten technischen Umfeld, lernte der Algorithmus schnell, männliche Bewerber zu bevorzugen. Laut den anonymen Quellen von Reuters sei das System nie als alleiniges Entscheidungskriterium eingesetzt und inzwischen eingestellt worden.

Einige deutsche Unternehmen, etwa Fraport oder das Handelsblatt, nutzen Software der PRECIRE Technologies GmbH in Bewerbungsgesprächen. Die eingesetzte Lösung ermittelt anhand von einer 15-minütigen Sprachaufnahme die (vermeintliche) Persönlichkeit von Bewerbenden. Die Messergebnisse konnten wissenschaftlich jedoch nicht bestätigt werden und die Firma bekam 2019 den Negativpreis „Big Brother Award“ (algorithmwatch.org).

Weniger kritisch erscheint der im Journal „The Business Case of AI in HR“ vorgestellte Ansatz der Firma IBM. So sammelt „IBM Watson Recruitment“ Informationen über den Stellenmarkt und bereits rekrutierte Arbeitnehmerinnen und Arbeitnehmer, um die Dauer vorherzusagen, die benötigt wird, um eine Stelle wieder zu besetzen. Weiterhin werden Trefferquoten erstellt, die angeben, wie gut Anforderungen der Jobbeschreibung mit den Kenntnissen der Bewerberinnen und Bewerber zusammenpassen. Dabei geht es offenbar primär darum, den Bewerbungsprozess von Vorurteilen frei zu halten und den zuständigen Mitarbeiterinnen und Mitarbeitern mehr Zeit für das Kennenlernen und Netzwerken mit Bewerberinnen und Bewerbern zu geben (ibm.com).

Bei der Einführung von Software für Entscheidungen, die über Menschen getroffen werden, stellt sich immer die Frage nach der Fairness der angewandten Software. Abgesehen davon, dass die bekannten Probleme bei der Datenerhebung zu Diskriminierung führen können, benachteiligen mitunter auch korrekt erhobene Datensätze einzelne Menschengruppen. Dies wurde auch am AMS-Algorithmus kritisiert (gi.de). Trotz korrekter Erhebung diskriminierten die vorliegenden Daten Menschengruppen mit bestimmten Eigenschaften. Dieses Problem gab es auch beim bereits erwähnten Amazon-System, das das Geschlecht zur Entscheidungsfindung nicht heranzieht, aber trotzdem Männer bevorzugt (Reuters).

Trotz dieser Risiken kann man davon ausgehen, dass in Zukunft öfter datengetriebene Systeme zur Analyse von Bewerbungsgesprächen verwendet werden. Schon jetzt sollten wir uns daher über die daran anzulegenden Anforderungen klar werden. So hat AlgorithmWatch im März 2020 ein Gutachten über die Automatisierung im Personalmanagement veröffentlicht (algorithmwatch.org). In diesem Gutachten werden insbesondere automatisiert getroffene Entscheidungen diskutiert. 

Datengetriebene Systeme greifen in die Persönlichkeitsrechte der Bewerberinnen ein. Laut Art. 22 Abs. 1 Nr. 1 DSGVO darf bei Bewerbungsverfahren die Entscheidung zur Einstellung nicht vollautomatisiert getroffen werden. Dies wird in der Verordnung damit begründet, dass vollautomatisierte Entscheidungen weitaus weniger transparent sind als menschliche. Wären die verwendeten Algorithmen hingegen völlig transparent und verständlich, würde sich die Gefahr der Manipulation des Algorithmus erhöhen. Sind relevante Variablen bekannt, ist es möglich, das eigene Verhalten so anzupassen, dass man im Bewerbungsverfahren als idealer Kandidat erscheint, unabhängig von der tatsächlichen Eignung für die Stelle.

Die Entscheidung über die Annahme eines Bewerbenden sollte daher am Ende, wie im Gutachten von AlgorithmWatch dargelegt, auch weiterhin von Menschen getroffen werden. So gelingt es uns hoffentlich, die Risiken zu beherrschen und von den positiven Effekten der Automatisierung zu profitieren, etwa um mehr Zeit für zwischenmenschliche Interaktion zur Verfügung zu haben.

Da durch die Verwendung neuer Technologie immer wieder ethisch fragwürdige Situationen entstehen, würden wir uns freuen, gemeinsam einen Diskurs zu gestalten, der sich mit solchen Fragen beschäftigt. Verlinken Sie uns gerne mit dem Hashtag #RedaktionSozioinformatik.

Wir bedanken uns herzlich bei Elrike van den Heuvel, Sarah Groos, Lasse Cezanne und Johannes Korz für diesen Beitrag. Die vier sind Mitglieder der Redaktion Sozioinformatik. Kontakt zu den Autoren.

© omgimages - iStock