Deepfake & Co.: Grenzen der Digitalisierung im Recruiting

Recruiting

Menschen glauben gerne den Ergebnissen von Maschinen. Zweifel wären oft angebracht. Wie umgehen Recruiter Risiken und profitieren von der Digitalisierung?

Alles dreht sich gerade um das verheißungsvolle Thema der Digitalisierung. Algorithmen, künstliche Intelligenz und Bots so weit das Auge sieht. Bei der Betrachtung der vermeintlichen Heilsbringer betrachtet man aus Arbeitgebersicht meistens primär die positiven Seiten. Auch im Kontext Recruiting hört und liest man wunderbare Sachen.

Avatare führen autonom Video-Interviews mit Bewerbern, welche sie vorher über soziale Netzwerke ausgewählt haben. Selbstlernende Systeme können die Vorauswahl von geeigneten Bewerbern übernehmen. Videos können automatisiert ausgewertet werden und Rückschlüsse über Persönlichkeitsmerkmale geben. Ja, selbst kurze Textproben können aufschlussreich analysiert werden. Alles vollautomatisch, schneller und viel objektiver und dadurch fairer als der Mensch. Klingt zu gut, um wahr zu sein? So ist es auch!

Drei Herausforderungen für das Recruiting

Im Folgenden zeige ich drei relevante Herausforderungen auf, auf die wir uns im Recruiting vorbereiten sollten, sofern wir uns der schönen neuen Welt der neuen, digitalen Möglichkeiten hingeben möchten.

1. Befähigung der Recruiter:

Welcher Recruitingverantwortliche, den Sie kennen, ist in der Lage, zu beurteilen, welche von den oben vorgestellten Möglichkeiten seriös darstellbar wäre? Hierzu bedarf es auf der einen Seite technisches Verständnis und auf der anderen Seite fundiertes Wissen über die kausalen Zusammenhänge und wissenschaftlichen Grundlagen des Recruitings. Dann wüsste man beispielsweise, dass die meisten automatisierten Sprach- oder Videoanalyse-Tools, die versprechen, Rückschlüsse auf Persönlichkeitsmerkmale zu geben, wissenschaftlich hoch kontrovers diskutiert werden. Dann wüsste man auch, dass die Qualität der Ergebnisse einer künstlichen Intelligenz maßgeblich von der Qualität der Trainingsdaten abhängig ist. Wie auch der zweite Punkt zeigt…

2. Ethik der Algorithmen:

Menschen glauben gerne den Ergebnissen von Maschinen – der sogenannte Overtrust-Effekt. Daneben sind Algorithmen heute so komplex in ihren Analysen, dass wir Ergebnisse nur schwer rekonstruieren können. Deswegen ist es besonders wichtig, dass sichergestellt wird, dass Maschinen ethisch-moralisch vertretbar agieren. Denn im Zweifel würden wir es häufig gar nicht sofort merken, wenn ein Algorithmus beispielweise diskriminierend agiert. Der globale Konzern Amazon hat einen Algorithmus getestet, der Bewerber anhand der Bewerbungsunterlagen bewerten sollte. Als Trainingsdaten für den selbstlernenden Algorithmus wurden Vergangenheitsdaten genutzt – wie so häufig. Ein entscheidender Fehler, wie sich im späteren Verlauf zeigte. Der Algorithmus benachteiligte systematisch Frauen und das Projekt wurde dann irgendwann wieder gestoppt.

Da diese Problematik nicht nur im Recruiting eine Rolle spielt, sondern in allen Anwendungsgebieten, bei denen künstliche Intelligenz oder allgemein Algorithmen Auswirkungen auf den Menschen haben, ist es nicht verwunderlich, dass es längst politische Gremien als auch Experten gibt, die sich explizit mit dem Thema Algorithmenethik beschäftigen.

3. Möglichkeiten des Missbrauchs:

Jede Technologie kann nicht nur wertschöpfend genutzt werden, sondern auch destruktiv. Ebenso ist dies auch im Recruiting möglich, beispielweise mittels „Deepfakes“. Der Begriff Deepfake ist ein Kunstbegriff, zusammengestellt aus den Worten Deep (Deep Learning, eine Lernmethode im Kontext künstlicher Intelligenz) und Fake (Betrug). Er bezeichnete die Methode, über künstliche Intelligenz insbesondere Gesichter in Videos auszutauschen und automatisch diese Gesichter auf die Mimik und Bewegungen der Original-Person anzupassen. Durch Deepfakes ist es heute schon nicht mehr einwandfrei möglich, zu erkennen, ob die Person, deren Video wir gerade analysieren, überhaupt die Person ist, die wir glauben zu sehen.

Ebenso ist es möglich, durch Methoden wie dem sogenannten „Adversarial Learning“ die selbstlernenden Systeme künstlicher Intelligenz gezielt von außen zu manipulieren. Adversarial Learning nennt sich eine Methode, bei der beispielweise Bilderkennungssoftware durch die für das menschliche Auge unsichtbare Veränderung von Bildern so weit manipuliert werden kann, dass sie Bilder bewusst falsch interpretiert.

Vorgehen nach einem 3-Stufen-Modell

Die modernen, digitalen Technologien können Recruitingabteilungen einen großen Mehrwert bieten und das Arbeitsfeld des Recruitings nachhaltig verändern. Damit allerdings Recruiter die Profiteure der Digitalisierung werden und nicht deren Opfer, sollten sie die richtigen Grundlagen für deren Einsatz schaffen. Ein einfaches 3-Stufen-Modell beschreibt, welches Know-how im Unternehmen gegeben sein sollte. Als erstes muss man die Kausalitäten und wissenschaftlichen Grundlagen in zeitgemäßen Recruiting verstehen. Darauf aufbauend muss man sich mit individuellen Zahlen, Ziel- und Messgrößen sowie Analysemethoden im Recruiting beschäftigen: kurzum KPIs und Analytics. Erst wenn dieses Grundlagenwissen existiert, sollte man sich an Themen wie künstliche Intelligenz oder algorithmenbasierte Recruitingmethoden herantrauen.

Unsere Newsletter

Abonnieren Sie die HR-Presseschau, die Personalszene oder den HRM Arbeitsmarkt und erfahren Sie als Erstes alles über die neusten HR-Themen und den HR-Arbeitsmarkt.
Newsletter abonnnieren
(c) privat

Tim Verhoeven

BearingPoint
Tim Verhoeven ist zu digitalen Trendthemen wie Big Data, Recruiting Analytics, Robotics und Candidate Experience gefragter Experte, Fachbuchautor und Blogger. Er arbeitet als Recruitment Evangelist bei Indeed, leitete in seiner letzten Position das Recruiting einer internationalen Unternehmensberatung und war vorher bei anderen namhaften Unternehmen im Recruiting tätig. In 2018 gewann er den HR-Excellence Award in der Kategorie Tech & Data.

Weitere Artikel