Der Titel einer Keynote auf der Kölner Messe Zukunft Personal lautet KI – Chancen des Mittelstandes. Die Referentin Isabel Grupp, Geschäftsleiterin von Plastro Mayer, einem Familienunternehmen der Kunststoff verarbeitenden Industrie, stellte in ihrem Vortrag jedoch nicht die Technologie des maschinellen Lernens in den Vordergrund, sondern ganz klar den Menschen. Ihre Botschaft: Künstliche Intelligenz sei zwar eine bahnbrechende Chance für die Unternehmen, allerdings nur, wenn sie als Dienerin der Firmenprozesse gesehen werde. „Der Mensch darf nicht aus den Augen verloren werden, und Führung mit Emotionen sollte weiterhin im Mittelpunkt stehen“, machte Grupp deutlich. Dementsprechend steht sie beispielsweise auch dem Thema künstliche Intelligenz im E-Recruiting eher skeptisch gegenüber. „Über eine Plattform können keine Gefühle transportiert werden“, sagt sie. Auch stellte die Geschäftsleiterin infrage, wie Arbeitgeber auf neuen Recruiting-Kanälen mittels Matching-Tools die passenden Mitarbeitenden finden, wenn sie von diesen wie bei Tinder einfach weggewischt werden könnten.
Diese Ausführungen sollten der einzige Exkurs in die Welt der KI-basierten HR-Lösungen im Rahmen von Isabel Grupps Keynote bleiben. Best Practices zum Thema KI im Personalmanagement gab es nicht. Gelten die Chancen durch KI nicht für den HR-Bereich? Wer tiefer in das Thema eintaucht, weiß, dass diese Frage nicht so leicht zu beantworten ist beziehungsweise immer auch ein „Aber“ mit sich bringt. Zwar kann die Automatisierung von HR-Prozessen das Personalmanagement effizienter machen. Doch Empathie für die Mitarbeitenden im Betrieb darf in einem Geschäftsbereich, bei dem es um Menschen geht, erst recht nicht vernachlässigt werden. „In Konzernen mag ein anderes Mindset herrschen, doch gerade in einem Familienbetrieb ist die persönliche Atmosphäre entscheidend. Daher möchten wir bei Plastro Mayer KI von jeglichen Bereichen, bei denen es um unsere Mitarbeitenden geht, zum aktuellen Zeitpunkt fernhalten“, sagt Grupp.
KI kann diskriminieren
Vorbehalte und Ängste aufseiten der Angestellten gibt es aber auch in Konzernen, wie die HR-Beraterin und ehemalige Personalvorständin bei Tui, Elke Eller, weiß: „Manche Mitarbeitenden haben Sorge, dass künstliche Intelligenz HR quasi abschafft, dass in Zukunft Maschinen statt Menschen HR-Entscheidungen treffen und dass KI auch Führungsaufgaben übernimmt.“ Nicht ganz unberechtigt. Im Silicon Valley gibt es bereits Tech-Firmen, bei denen die Personalarbeit voll automatisiert abläuft.
Darüber hinaus stellen sich unwillkürlich datenschutzrechtliche sowie ethische Fragen rund um die KI-basierten Lösungen: Zum Beispiel was und wie viel das Unternehmen über seine Beschäftigten wissen darf. Und wie wird sichergestellt, dass ein Algorithmus nicht diskriminiert? Dass Letzteres nicht selbstverständlich ist, hat Medienberichten zufolge zum Beispiel der Onlineversandhändler Amazon erfahren: Das Unternehmen nutzte ein KI-basiertes Bewerbungstool, bei dem man später feststellte, dass es Bewerberinnen benachteiligte. Denn bei den Daten, anhand derer das System lernen sollte, welche Talente zu Amazon passen, handelte es sich um Bewerbungen, die in den vergangenen Jahren bei dem Onlineversandhändler eingegangen waren. Die meisten kamen von Männern. „Die mangelhafte Qualität des Trainingsdatensatzes, insbesondere in Bezug auf die Repräsentativität, ist allgemein eine Gefahrenquelle für falsche beziehungsweise diskriminierende Entscheidungsvorschläge“, sagt Martin Kersting, Professor für Psychologische Diagnostik an der Justus-Liebig-Universität Gießen. Viele Unternehmen würden daran scheitern, dass sie keine hochwertigen Daten hätten. Dann seien schlechte Ergebnisse programmiert.
Transparenz ist das Wichtigste!
Die Risiken beim Einsatz von künstlicher Intelligenz im Personalmanagement sollten immer mitbedacht werden. Der wahrscheinlich größte Knackpunkt liegt darin, sie überhaupt zu erkennen. Amazon hat rund ein Jahr gebraucht, um den Fehler in besagter Software zu entdecken. Laut einer internationalen, branchenübergreifenden Studie von Pricewaterhouse Coopers unter rund 4.000 Führungskräften auf Management- und Personalebene können nur 21 Prozent der Befragten die Risiken gut abschätzen, die mit dem Ersatz menschlicher Arbeitskraft durch neue Technologien einhergehen. Diese Unsicherheit macht sich der Untersuchung zufolge auch in der Kommunikation bemerkbar: Nur ein Viertel gab in der Befragung an, Mitarbeitende und andere Interessengruppen klar und konsistent über die Auswirkungen neuer Technologien wie KI zu informieren.
Angesichts solcher Ergebnisse verwundert es kaum, wenn die Skepsis hinsichtlich des Einsatzes von KI im HR-Bereich groß ist. „Es ist enorm wichtig, die Mitarbeitenden aufzuklären. Nur so können bestehende Ängste abgebaut und Akzeptanz geschaffen werden“, sagt Elke Eller. Um diesbezüglich eine positive Entwicklung voranzutreiben, hat sie zusammen mit Michael H. Kramarsch, Gründer und Managing Partner der Hkp Group, den Ethikbeirat HR-Tech gegründet. Gemeinsam haben die seit dem Jahr 2018 hier engagierten Wissenschaftler und Expertinnen aus den Bereichen Verhaltensökonomie, Personalmanagement, Psychologie, Wirtschaftsethik und Recht Richtlinien für den verantwortungsvollen Einsatz von KI in der Personalarbeit erarbeitet. Konkret benannt wird dabei unter anderem ein transparenter Zielsetzungsprozess für die Nutzung und die Einbindung aller relevanten Interessengruppen. Das Thema Transparenz zieht sich als Leitwert aber auch durch die weiteren neun Richtlinien.
Laut Eller kommt es zudem darauf an, die Menschen im Betrieb für den Umgang mit der neuen Technologie zu befähigen. „Nur wenn ich weiß, wie etwas funktioniert, und ich das dahinter liegende System zumindest in Grundzügen verstehe, kann ich auch Vertrauen in die Technologie entwickeln“, sagt sie. Problematisch werde es dann, wenn der Mensch sich der Technologie ausgeliefert fühle.
Künstliche Intelligenz
Eine allgemeingültige Definition von künstlicher Intelligenz gibt es nicht. Daniel Mühlbauer, Gründer des Start-ups für People Analytics HR Datenliebe, bezeichnet KI in seinem Whitepaper KI für HR sinnvoll nutzen als einen Sammelbegriff für maschinelles Lernen. „Diese interdisziplinäre Forschungsrichtung versucht Computersystemen beizubringen, wie Menschen zu lernen und das Erlernte zur mehr oder weniger eigenständigen Lösung von Problemen einzusetzen. Sehr verkürzt gesagt handelt es sich also um die maschinelle Imitation menschlicher Intelligenz“, schreibt er. Häufig geht es darum, von Daten auf zukünftiges Verhalten zu schließen.
Acht mögliche Anwendungsbereiche
Wie Martin Kersting, der ebenfalls Mitglied des Ethikbeirats HR-Tech ist, betont, ist es für die nötige Akzeptanz beim Einsatz von KI-basierter Software zudem entscheidend, den Nutzen herauszustellen. „Die Menschen im Unternehmen sollten wissen, warum das jeweilige Tool benötigt wird und welche Vorteile es bringt“, sagt er. Ideal sei, wenn dies an einem Fallbeispiel gezeigt werden könne, um deutlich zu machen, wer wie von der KI-Software profitiere.
Der Ethikbeirat hat acht Anwendungsbereiche ausgemacht: die Analyse von Lebensläufen, den Einsatz von Chatbots als Ansprechpartner, das Matching von Profilen, die Erstellung eines Rankings, Vorschläge für Entwicklungsmaßnahmen, die Analyse von Audio- und Videoaufnahmen, die Vorhersage der Kündigungsabsicht und die Optimierung von Stellenanzeigen. Für Letzteres wird KI und Big Data laut Kersting bislang eindeutig am häufigsten eingesetzt. Ansonsten seien die Unternehmen in Sachen künstlicher Intelligenz im Personalbereich noch sehr zurückhaltend.
HR braucht KI-Know-how
Neben den genannten Anwendungsbereichen gibt es für viele weitere HR-Prozesse Tools, die mit KI werben, die aber weder auf maschinellem Lernen noch auf Algorithmen basieren. „KI ist manchmal auch ein Buzzword. Dann wird ein technisches System mit diesem Label versehen, obwohl es gar nicht auf künstlicher Intelligenz basiert. Es verkauft sich so schlicht besser“, erläutert Eller.
Dass auch zahlreiche HR-Fachleute nicht genau wissen, was KI konkret ist, ist ein großes Problem. „Wir brauchen Menschen im Personalbereich, die Know-how für das Thema mitbringen“, sagt Eller und fordert, dies entsprechend in die HR-Ausbildung aufzunehmen. Es müsse zum Standard werden, dass der Nachwuchs mit Technologien, die auf künstlicher Intelligenz basieren, umgehen kann und zum Beispiel erkennt, wenn Datenschutzrichtlinien nicht eingehalten werden. Auch relevante Richtlinien, um KI im Personalmanagement einzusetzen, sollten bekannt sein. Wie eine Umfrage des Bundesverbandes der Personalmanager*innen und des Ethikbeirats HR-Tech von 2021 unter 314 Personen aus dem HR-Bereich zeigt, gibt es hier noch viel Nachholbedarf. So kennen nur 20 Prozent das Weißbuch der Europäischen Kommission, eingesetzt wird es lediglich in sechs Prozent der Unternehmen. Die Richtlinien des Ethikbeirats HR-Tech werden noch seltener eingesetzt und sind nur elf Prozent der befragten HR-Fachleute ein Begriff.
Prüfung für KI-Richtlinien
Den Befragungsergebnissen zufolge befürwortet jedoch die überwiegende Mehrheit solche Richtlinien, geben sie doch eine Art Handlungsanleitung an die Hand. Beim Ethikbeirat HR-Tech wird laut Eller und Kersting derzeit diskutiert, ob man eine Prüfung etablieren sollte, mit der nachgewiesen werden kann, dass das Vorgehen einer Organisation konform zu den Richtlinien des Ethikbeirats ist. Dazu müsste man die Richtlinien gegebenenfalls konkretisieren. Perspektivisch wäre dann eine Art Label denkbar, das angibt, inwiefern die KI-Lösungen des HR-Bereichs eines Unternehmens den Richtlinien entsprechen – ähnlich wie man es bei Elektrogeräten für die Energieeffizienz kennt. Bis es so weit ist, werden aber wohl noch ein paar Jahre ins Land ziehen.
Dieser Beitrag erschien zuerst in der gedruckten Ausgabe Intelligenz. Das Heft können Sie hier bestellen.