Gerechtere Chancen mit KI?

Chancengerechtigkeit

Die Vorstellung, dass man durch genügend Anstrengung alles erreichen kann, mag motivierend klingen. Jeder sei seines Glückes Schmied, heißt es. Doch in der Realität beeinflussen die Umstände, in die wir hineingeboren werden, maßgeblich unsere Bildungs- und Berufschancen im Leben. Faktoren wie beispielsweise Geschlecht, ethnische Herkunft und sozio-ökonomischer Hintergrund spielen dabei eine entscheidende Rolle. Dieser Umstand wird oft treffend als „Geburtslotterie“ bezeichnet, da es vom Zufall abhängt, beispielsweise in welcher Familie oder Region jemand geboren wird.

Chancengleichheit versus Chancengerechtigkeit

Einige haben das Glück, von Geburt an mit zahlreichen Privilegien ausgestattet zu sein. Der Begriff „Privilegien“ verweist auf unverdiente Vorteile oder bevorzugte Bedingungen, die aufgrund der sozialen Position oder Zugehörigkeit zu bestimmten Gruppen genossen werden – ohne jegliche eigene Leistung. Diese Privilegien erstrecken sich über verschiedene Lebensbereiche wie Bildung, Beschäftigung, Gesundheitsversorgung und soziale Teilhabe. Beispiele im beruflichen Kontext umfassen ein umfangreiches Netzwerk durch die Eltern, finanzielle Mittel für Auslandsstudien oder Praktika und das Erlernen von Schlüsselkompetenzen für beruflichen Erfolg.

Andererseits sehen sich einige von Anfang an mit größeren Hürden konfrontiert, um ähnliche Lebensziele zu erreichen, da ihre Startbedingungen deutlich ungünstiger sind. Das Fehlen namhafter Praktika, durch selbstfinanziertes Studium bedingte weniger herausragende Noten oder der Mangel an Kontakten, der zu weniger lukrativen Einstiegspositionen führt, sind typische Beispiele für solche Hürden – eine klare Ungleichheit der Bedingungen. Bezogen auf die vorgenannten Beispiele lässt sich sagen, dass theoretisch für jede Person die Chance auf ein Studium bestehen mag (Chancengleichheit), doch die tatsächlichen Rahmenbedingungen und Hürden, unter denen Studierende ihr Studium absolvieren, können äußerst unterschiedlich sein (Chancengerechtigkeit). Diese Ungleichheit spiegelt sich auch im beruflichen Leben wider.

Ayse Semiz-Ewald ist Keynote-Speakerin an der KI-X, der ­KI-Konferenz für HR, am 19. und 20. März 2024 in Berlin.

Weitere Infos auf ki-x.berlin.

Ungleiche Chancen auf dem Arbeitsmarkt

Durch unbewusste Vorurteile (Unconscious Biases) wird die bestehende Chancenungleichheit durch unterschiedliche Startbedingungen weiter verstärkt. Im Recruiting können zum Beispiel unbewusste Vorurteile dazu führen, dass qualifizierte Personen aufgrund von irrelevanten Merkmalen wie Geschlecht, ethnischer Herkunft oder Ähnlichem übersehen werden. Die Studie Discrimination against Female Migrants Wearing Headscarves von Doris Weichselbaumer aus dem Jahr 2016 hat beispielsweise gezeigt, dass Personen mit türkischem Namen und Kopftuch sich 4,5-mal häufiger bewerben müssen als ihre deutsch benannten Mitbewerberinnen, um die gleiche Rücklaufquote zu erhalten. Kurz gesagt: „Meryem Öztürk“ mit Kopftuch muss sich 4,5-mal häufiger bewerben als „Sandra Bauer“ – bei gleicher Qualifikation, versteht sich. Die Ergebnisse unterstreichen, wie unbewusste Vorurteile die Chancen derer, die bereits mit zahlreichen Hürden konfrontiert sind, weiterhin negativ beeinflussen. Dies hat zur Folge, dass bereits bestehende Ungleichheiten im Arbeitsmarkt weiter verstärkt werden, wenn nicht aktiv entgegengewirkt wird.

Entstehung und Funktion von unbewussten ­Vorurteilen

Unser Gehirn verarbeitet pro Sekunde etwa elf Millionen Informationseinheiten, von denen nur etwa 40 bewusst verarbeitet werden können, wie Manfred Zimmermann in seinem Artikel Neurophysiology of Sensory Systems beschrieben hat. Unbewusste Vorurteile sind mit Prozessen im Gehirn verbunden, die auf automatischen Denkmustern und kognitiven Verarbeitungsmechanismen basieren – gewissermaßen Abkürzungen, die unser Gehirn nutzt, um die Fülle an Informationen effizient zu verarbeiten. Es ist wichtig zu betonen, dass diese neurologischen Prozesse nicht zwangsläufig absichtlich oder böswillig sind. Sie resultieren oft aus Mustern, die sich im Laufe der Zeit aufgrund von Erfahrungen und Umweltfaktoren entwickelt haben. Sensibilisierung und stetige Reflexion der eigenen Denkmuster können dazu beitragen, diese neurologischen Prozesse zu modifizieren und eine bewusstere, weniger voreingenommene Wahrnehmung zu fördern.
Um wieder zur Welt des Recruitings zurückzukehren: Theoretisch ist es also möglich, einen fairen Sourcing- und Auswahlprozess zu gestalten. Es erfordert jedoch eine bewusste Anstrengung, sich der Existenz von unbewussten Vorurteilen bewusst zu werden, und die Entwicklung von Strategien, um ihnen wirkungsvoll entgegenzuwirken.

KI und Chancengerechtigkeit

Stellen Sie sich vor, Sie bewerben sich bei einem Unternehmen auf eine Stelle, für die Sie bestens qualifiziert sind, und erhalten eine Absage. Würden Sie wissen wollen, ob ein Mensch oder eine KI Sie abgelehnt hat? Es gibt viele Anbieter von KI-basierten Recruiting-Tools, die damit werben, dass ihre Software unbewusste Voreingenommenheit reduziert, weil sie Variablen wie Alter, Geburtsort oder Geschlecht ausblenden. Dies führt jedoch nicht dazu, dass der Auswahlprozess automatisch fairer ist. Die KI basiert auf historischen Daten und vorherigen Entscheidungsprozessen. Sie erkennt Muster in den Trainingsdaten, die letztendlich mit den Variablen verbunden sind.

Es erfordert also mehr als das simple Weglassen von Information, um einen KI-gestützten Recruiting-Prozess chancengerecht zu gestalten. Grundsätzlich birgt KI das Potenzial, Vorurteile in Auswahlprozessen zu reduzieren, ist jedoch an sich nicht von Natur aus frei von Vorurteilen. Der entscheidende Faktor liegt in der Qualität der Daten, auf die die KI zurückgreift. Wenn die Daten Diskriminierung enthalten, wird die KI diese tendenziell fortführen und womöglich sogar verstärken. Maßnahmen wie Debiasing, Neugewichtung und die Vorverarbeitung von Daten können dazu beitragen, Diskriminierung entgegenzuwirken, erfordern jedoch umfassende Tests. Diese Tests erfordern Zeit und Ressourcen. Anbieter von KI-gestützter Recruiting-Software tragen hier eine erhebliche Verantwortung. Nicht umsonst hat die Europäische Union im Rahmen des EU AI Act den Einsatz von KI-basierten Recruiting-Systemen als hochriskante Anwendung eingestuft.

Der EU AI Act

Die Europäische Union teilt im Rahmen der KI-Verordnung EU AI Act KI-Systeme in vier verschiedene Risikoklassen ein, die mit unterschiedlichen rechtlichen Auflagen verbunden sind: inakzeptables Risiko, hohes Risiko, begrenztes Risiko und niedriges Risiko. Der Einsatz von KI in Recruiting-Systemen wird als hochriskante Anwendung eingestuft. Pflichten, die mit Hochrisiko-KI-Systemen verbunden sind, sind unter anderem Überwachung durch menschliches Personal sowie die Einhaltung von Anforderungen an die Datenverwaltung und das Datenmanagement, insbesondere mit Blick auf Trainings-, Validierungs- und Testdatensätze.

Die Rolle von Personal­verantwortlichen

Wie deutlich wurde, geht es im ersten Schritt darum, bereits vorhandener Diskriminierung durch Sensibilisierung und umfassende Bewusstseinsbildung über unbewusste Vorurteile entgegenzuwirken. Regelmäßige Schulungen und Sensibilisierung können dazu beitragen, Vorurteile zu erkennen und zu minimieren, was zu mehr Chancengerechtigkeit führen kann. Des Weiteren empfiehlt sich die Einbeziehung von menschlichen (Daten-)Expertinnen/Experten in die Einkaufs- und Überwachungsprozesse von KI-Systemen. Es sollten ausschließlich Anbieter ausgewählt werden, die nachweisen können, dass sie ihre KI umfassend getestet und validiert haben und auch weiterhin testen werden.

Die Integration von KI in den Rekrutierungsprozess eröffnet also sowohl vielversprechende Chancen als auch erhebliche Risiken. Es liegt in unserer Verantwortung als Personalverantwortliche sicherzustellen, dass KI einen positiven Beitrag zu einer chancengerechteren Welt leisten kann. Eine sorgfältige Gestaltung, Umsetzung und fortlaufende Überwachung sind entscheidend, um sicherzustellen, dass KI dazu beiträgt, Vorurteile in den Einstellungsprozessen zu minimieren und gleichzeitig die Effizienz im Recruiting zu steigern. Die Verantwortung für die sorgfältige Gestaltung und Überwachung von KI-basierten Recruiting-Tools liegt nicht allein bei den Anbietern, sondern auch bei den Personalverantwortlichen. Es liegt also auch an Ihnen, aktiv zu einer chancengerechteren Welt beizutragen.

Weitere Beiträge zum Thema:

Dieser Beitrag erschien zuerst in der gedruckten Ausgabe Miteinander. Das Heft können Sie hier bestellen.

Unsere Newsletter

Abonnieren Sie die HR-Presseschau, die Personalszene oder den HRM Arbeitsmarkt und erfahren Sie als Erstes alles über die neusten HR-Themen und den HR-Arbeitsmarkt.
Newsletter abonnnieren

Ayse Semiz-Ewald

Ayse Semiz-Ewald ist Psychologin und leitet das Diversity Management bei der Deutschen Telekom. Zuvor war sie bei Eon, EY, Zalando und Wayfair tätig. Seit 2021 ist Semiz-Ewald zusätzlich als Karriere-Coachin aktiv und gründete 2023 das Start-up Jobmagnet Karrierecoaching, um arbeitslose Jobsuchende aus unter­repräsentierten und marginalisierten Gruppen zu unterstützen.

Weitere Artikel