>

Man sollte sich nie blind auf Technologie verlassen. Besonders fatal ist, wenn sich Personalverantwortliche bei der Bewerberauswahl zu sehr auf künstliche Intelligenz verlassen. Angesichts des weltweiten Siegeszugs von KI wollte ich herausfinden, wie Vorurteile vermieden und gleichzeitig moderne HR-Technologien optimal genutzt werden können.

Michele Bezzi, Manager bei SAP Security Research, leitet ein Team, das sich mit Sicherheitsfragen im Zusammenhang mit KI beschäftigt. Bezzi erzählt, dass das Team vor allem auf Datenschutz, Fairness und Vorurteile geschaut hat. Das sind auch die Bereiche, um die es in den Unternehmensrichtlinien für KI geht.

Er hat einen ganz einfachen Rat für einstellende Führungskräfte: alle Daten umfassend zu prüfen, bevor man die Maschine darauf loslässt. Laut Bezzi kommt bei moderner KI maschinelles Lernen zum Einsatz, um aus Daten Wissen zu gewinnen. Beispielsweise füttern Programmierer die Maschine mit Bildern und Texten, und sie lernt daraus, eine Katze oder einen Hund zu erkennen. Das Problem an der Sache ist, dass solche Daten per se vorurteilsbehaftet sein können. In komplexen Szenarien wie der Personalbeschaffung laufen Unternehmen Gefahr, Risiken zu vervielfachen.

Daten für die Personalbeschaffung genau prüfen

„Maschinen können nur aus den Daten lernen, mit denen sie trainiert werden. Es ist deshalb wichtig, die Maschine mit Daten zu trainieren, die nicht vorurteilsbehaftet sind“, betont Bezzi. „Man muss dafür sorgen, dass die Daten die Ziele widerspiegeln, die mit der Personalbeschaffung verfolgt werden. Vorurteilsbehaftete historische Daten müssen entfernt und neue Daten hinzugefügt werden, die den gewünschten Ergebnissen Rechnung tragen.“

Bezzi warnt auch vor unabsichtlicher Diskriminierung. Ein Algorithmus könnte verschiedene scheinbar unbedenkliche Daten miteinander kombinieren und daraus eine voreingenommene Entscheidung ableiten. „Sogar wenn man Geschlecht oder ethnische Zugehörigkeit herausnimmt, könnte die Maschine voreingenommene Entscheidungen treffen, indem sie automatisch Schule oder Wohngegend berücksichtigt.“

KI und HR: Den menschlichen Faktor nicht vergessen

In dem Hype um die Vorteile der künstlichen Intelligenz bei der Suche nach qualifizierten Mitarbeitern ist der menschliche Faktor in Vergessenheit geraten.

„Wenn man anfängt, Daten auf komplexe Aufgaben wie die Personalbeschaffung anzuwenden, und die Menschen außen vor lässt, können Fehler passieren, die schwerwiegende Konsequenzen bei den Einstellungsentscheidungen haben“, führt Bezzi aus. „Es ist wichtig, HR-Aufgaben zu automatisieren, aber trotzdem braucht man noch Menschen, die die von der Maschine generierten Ergebnisse auswerten.“

Hier kommt Brilliant Hire by SAP ins Spiel. Die von SAP-Mitarbeitern im Rahmen des Programms SAP.iO Venture Studio entwickelte Lösung verbindet als Screening-as-a-Service künstliche Intelligenz mit Unterstützung durch Menschen. In enger Ausrichtung an der SAP SuccessFactors Human Experience Management (HXM) Suite entwickelt und verwaltet das Netzwerk Bewerbungstests. Bei der Auswertung der Ergebnisse der Bewerber werden dann Experten von außen hinzugezogen. Die Experten sehen weder den Namen noch den Lebenslauf oder andere personenbezogene Daten des Bewerbers, und jeder Bewerber wird von mindestens drei verschiedenen Experten bewertet. In der Anfangsphase der Personalbeschaffung können Algorithmen Lebensläufe vorsortieren, indem sie die Qualifikationen der Bewerber mit Stichwörtern in den Stellenbeschreibungen abgleichen. Um aber dann unter denjenigen, die es auf die Auswahlliste schaffen, den besten Kandidaten zu finden, ist es viel sinnvoller, alle Bewerber Aufgaben lösen zu lassen, die mit der ausgeschriebenen Stelle zu tun haben.

HXM Suite von SAP verbindet KI und HR-Experten

„In unseren Testfragen konfrontieren wir die Bewerber mit Situationen, die im Arbeitsalltag eintreten können“, beschreibt Ryan Phillips, Geschäftsführer von Brilliant Hire. „Ein Finanzanalyst muss vielleicht eine Kalkulationstabelle herunterladen, bestimmte Aufgaben ausführen und sie dann wieder hochladen. Ein Designer soll vielleicht eine Empfehlung abgeben, wie sich eine komplexe Website vereinfachen und benutzerfreundlicher gestalten ließe. Bei solchen Aufgaben kann man kaum schummeln.“

Das Grundkonzept des Modells ist, KI selektiv anzuwenden, um den Menschen eine bessere Erfahrung zu bieten.

„Die KI ist immer noch extrem vorurteilsbehaftet, weshalb wir sie in einer Anwendung nur in kleinen Dosen verwenden“, unterstreicht Phillips. „Wir können Suchläufe durchführen, um mögliche Ähnlichkeiten zwischen den Antworten von Bewerbern und vorhandenen Inhalten aus dem Internet zu erkennen. Auch können wir erkennen, wie viele Pfade die Bewerber während des Tests verwendet und ob sie Informationen kopiert und eingefügt haben.“

Licht ins KI-Dunkel bringen

Wenn man versteht, wie Maschinen zu Entscheidungen kommen – das nennt man „Erklärbarkeit“ –, kann das hilfreich sein, um Vorurteile bei der Personalbeschaffung in KI-basierten Tools zu erkennen und zu vermeiden.

„Unternehmen müssen wissen, wie genau die Algorithmen beschaffen sind, die ihnen Ergebnisse liefern sollen“, so Bezzi. „Das darf einfach nicht vollkommen im Dunkeln liegen. Je ausgereifter ein Algorithmus ist, umso schwieriger wird es, die neuronalen Netze zu durchschauen, die hinter den Entscheidungen der Maschine stehen. Man sollte immer mit einem einfachen Prozess beginnen und genau verstehen, was warum passiert, bevor man sich an komplexere Dinge wagt. Am allerbesten ist es, grundsätzlich alles einfach zu halten.“

Phillips empfiehlt Open-Source-Tools, mit denen sich mit ein paar einfachen Skripten kostengünstig überprüfen lässt, inwieweit ein Algorithmus vorurteilsbehaftet ist.

Maschinen allein genügen nicht

Man hört oft, künstliche Intelligenz werde den Menschen irgendwann überflüssig machen, doch das ist ein Trugschluss. Wenn in der Personalbeschaffung Vorurteile herrschen, dann gehen diese von den Daten aus. Die Menschen sind dafür verantwortlich, die Vorurteile auszumerzen und menschliches Urteilsvermögen walten zu lassen. Also kein Grund zur Panik: Die Maschinen werden noch lange nicht übernehmen!