Noch vor einigen Jahren hieß es, künstliche Intelligenz würde vor allem zahlreiche Blue-Collar-Jobs ersetzen. Wissensarbeiter zogen sich in ihre Trutzburgen zurück, betrachteten das Geschehen um sie herum und wähnten sich in Sicherheit. Spätestens mit ChatGPT und nach den pandemiebedingten Eruptionen des Arbeitsmarktes ist allen klar geworden: Die Verhältnisse kehren sich momentan um. Fachkräfte fehlen an allen Ecken und Enden und haben sich in großer Zahl aus bestimmten Berufsfeldern zurückgezogen. Gleichzeitig fragen sich inzwischen die White Collars zunehmend, welche Aufgaben aus ihrem Jobprofil an KI-Anwendungen ausgelagert werden, welche ihnen erhalten bleiben, sich
verändern – und vor allem, wie sie selbst im Wettbewerb dastehen, wenn sie sich KI-Anwendungen verweigern. Es stellt sich auch die Frage, was passiert, wenn sie sich deren Gebrauch nicht gewachsen fühlen oder aus KI-Anwendungen nicht das Beste auf eine smarte Art und Weise herausholen. Die Trutzburg der Wissensarbeit droht schneller zu fallen als von vielen gedacht.
Cyborgs und Centauren
Ein wesentlicher Grund dafür ist, dass KI-Anwendungen nicht nur automatisierbare Aufgaben übernehmen können, sondern in anderen Aufgaben auch die Wirkung der menschlichen Arbeit steigern (augmentieren) können. Das Tätigkeitsprofil der Menschen wird also anders zugeschnitten:
Zum einen verändert sich das Tätigkeitsprofil dadurch, dass repetitive, routineartige Tätigkeiten automatisiert erfolgen können und daher aus dem menschlichen Profil entwachsen, wohlgleich die Verantwortung für den automatisierten Teil diskutiert werden muss. Zum anderen verändern sich
durch die Nutzung von KI-Anwendungen solche Tätigkeiten qualitativ, die vom Menschen Kreativität, Abstraktions- und Problemlösungsfähigkeit verlangen. Letzteres wird häufig als Augmentation bezeichnet.
KI-Anwendungen wie Large Language Models (LLMs) werden genutzt, um fachbezogene Informationen aufzubereiten und menschliche Tätigkeiten mit neuen Ideen anzureichern und zu hinterfragen. Von dieser Augmentation wird ein Anstieg menschlicher Produktivität erwartet, wie neueste Studien aus dem Jahr 2023 von Fabrizio Dell’Acqua oder des World Economic Forum zeigen. Gemeinsam mit Kolleginnen und Kollegen hat Fabrizio Dell’Acqua in diesem Zusammenhang bei der Studie Navigating the Jagged Technological Frontier kürzlich das Bild von Cyborgs und Centauren entworfen – zwei Modi, wie Menschen KI-Anwendungen für wissensintensive Tätigkeiten unterschiedlich nutzen. Während Centauren eine Arbeitsteilung zwischen menschlichen und KI-Aufgaben vornehmen, je nachdem, was sich für eine bestimmte Aufgabe besser eignet, delegieren Cyborgs keine Aufgaben an die KI, sondern verflechten ihre Tätigkeit mit der KI. So wechseln sich menschliche und KI-Tätigkeiten auf der Teilaufgabenebene ab. Hieraus folgt für die für Forschung und Praxis wichtige Fragen, wie Arbeit in der Zukunft organisiert werden kann und wie (Teil-)Aufgaben, die durch KI-Anwendungen erledigt werden können, wirkungsvoll mit menschlichen Tätigkeiten verknüpft werden können.
Wirkungsvoll meint dabei, dass eine Zusammenarbeit tatsächlich zu einer Produktivitäts- und Qualitätsverbesserung in der Aufgabenerledigung führt, und impliziert, dass Menschen in der Lage sein sollten, Aufgaben, die durch KI erledigt werden, zu validieren oder zu korrigieren. Auch hier zeigen Forschungsergebnisse von Dell’Acqua, dass Aufgaben gerade dann schlechter erledigt werden, wenn der KI blind vertraut wird und die Menschen nicht in der Lage sind, KI-erzeugte Ergebnisse zu validieren und zu korrigieren. Unabhängig also davon, in welchem Modus die Menschen mit KI-Anwendungen interagieren, bleibt die menschliche Expertise in der Fachdomäne oder im Methodenwissen unerlässlich. Ob nun Tätigkeiten ganz oder teilweise automatisiert oder augmentiert werden und in welchem KI-Interaktions-Modus Letztere organisiert werden – es gibt kaum einen Beruf, der nicht betroffen sein wird. Allerdings, und darin liegt die akute Problematik, galoppiert die Entwicklung KI-getriebener Technologien und Anwendungen den Menschen und ihren Organisationen meilenweit voraus; es bleibt kaum Raum für die notwendige Zeit zur Orientierung, Reflexion und Anpassung. KI-Anwendungen sind mittlerweile allgegenwärtig und anders als bei anderen technologischen Innovationen haben
Menschen und Organisationen kaum die Möglichkeit, sich aktiv und vollständig KI-Anwendungen zu verwehren. Gerade vor dem Hintergrund zunehmend komplexer werdender KI-Modelle, deren Entscheidungswege und Ergebnisse sich dem Menschen nur als Black Box darstellen, stellt sich die Frage, wie das für eine Zusammenarbeit notwendige Vertrauen und damit eine höhere Akzeptanz von KI-Anwendungen geschaffen werden kann.
Die Politik und insbesondere die Europäische Kommission haben daher das wichtige Ziel, vertrauenswürdige KI zu schaffen. Transparenz spielt hierbei neben anderen Faktoren wie Fairness, Zuverlässigkeit, Sicherheit und menschlicher Aufsicht eine wichtige Rolle. Transparenz beinhaltet insbesondere erstens: Nachvollziehbarkeit über die verwendeten Daten, Einflussgrößen und verwendeten Algorithmen, zweitens: Erklärbarkeit (Explainable AI (XAI)) der durch die KI-Anwendung generierten Ergebnisse über Visualisierung der Einflussweise der Einflussfaktoren und drittens: schließlich eine zielgruppenspezifische Kommunikation über den Einsatz und die Gewichtung von KI in der Entscheidungsfindung. Ausgehend von der definierten Fragestellung ist festzustellen, ob ein für die verwendeten Daten geeigneter, möglichst einfacher (White-Box-)Algorithmus gefunden werden kann und welche Stellschrauben beziehungsweise Parameter hier grundsätzlich (durch den Menschen) justiert werden können. Ein Grundverständnis von Gütemaßen verschiedener Algorithmen ist wichtig, um festzustellen, ob ein für die Fragestellung geeignetes Modell gewählt wurde und mit welcher Genauigkeit das gewählte Modell arbeitet.
So interessiert beispielsweise bei der Prognose seltener Ereignisse (Kündigungsquote einer bestimmten Personengruppe) nicht die Accuracy, das heißt die Gesamtgenauigkeit des Modells, sondern die korrekte Schätzung der tatsächlichen Kündigungen, in dem Fall die Sensitivität des Modells. Bei der Modellauswahl sollte diese Abwägung beachtet werden. Dabei ist es wichtig, die Daten zum Training eines Modells auszubalancieren, um das Ergebnis nicht zugunsten der dominanten Mehrheitsgruppe, also derjenigen, die nicht kündigen, zu verfälschen. Bei der Erklärbarkeit geht es darum, die Ergebnisse von Black-Box-Modellen wie etwa künstlichen neuronalen Netzen in eine vereinfachte, für den Menschen verständliche Darstellung zu überführen, so dass KI-generierte Entscheidungen korrigierbar sind, was man auch als „human-in-the-loop“ bezeichnet. Erklärbare KI-Modelle kommen bereits in einigen Domänen zur praktischen Anwendung; die Medizin mit ihren hochkomplexen Bildgebungsverfahren als auch die industrielle Fertigung mit gut erprobten Modellen zu „predictive maintenance“ dürften als Vorreiter gelten. Der Ansatz der „Erklärbaren KI“ (XAI) könnte, so die These, auch im Personalwesen ein gutes Mittel sein, KI-Anwendungen nachvollziehbarer und vor allem korrigierbar zu machen. Eine grundlegende Kompetenz zur Funktionsweise von KI-Anwendungen ist daher auch für HR-Fachleute essenziell, um vereinfachte Ergebnisdarstellungen lesen und bewerten zu können.
Neue Tätigkeitsprofile für Mensch und KI
Für die Personal- und Organisationsentwicklung kann es zunächst im Hinblick auf die Veränderung von Tätigkeitsprofilen fruchtbar sein, sich diese nach Automatisierungs und Augmentierungspotenzial anzusehen, das durch KI möglich ist. Das gilt für Profile, die sich qualitativ verändern, weil durch Automatisierung Teile weggefallen sind oder weil durch Augmentierungspotenzial neue Anforderungen in der Zusammenarbeit und Kommunikation mit KI-Anwendungen entstanden sind. Kaum ein Tätigkeitsprofil ist unberührt, sodass Re- und Upskilling gerade auch im Hinblick auf die Dynamik der Weiterentwicklung von Kollegin KI für alle Berufe relevant ist und bleibt. Die Herausforderung für HR wird es sein, Tätigkeitsprofile der Menschen und künstlichen Kollegen angemessen aufeinander zuzuschneiden und in Stellenbeschreibungen zusammenzufügen. Das wird in der Regel in Zusammenarbeit mit den Fachabteilungen geschehen und erfordert im Personalmanagement gleichwohl ein hohes Maß an Kompetenz, um bewerten zu können, was KI-Anwendungen – in den verschiedenen Funktionsbereichen– leisten können und was nicht. Diese Kompetenz könnte möglicherweise in der Rolle eines HR-KI-Partners ihren Ausdruck finden. Damit einhergehend wird eine wichtige Aufgabe der Bereiche Learning und Development sowie auch der Organisationsentwicklung sein, die Menschen für die Zusammenarbeit mit Kollegin KI zu motivieren, zu befähigen und zu ermächtigen.
Hier zeigt die länderübergreifende empirische Studie Self-determination and attitudes toward artificial intelligence: Cross-national and longitudinal perspectives aus dem Jahr 2023 von Jenna Bergdahl und Kolleginnen, dass Kompetenz-, Verbundenheits- und Autonomieempfinden als Ausdruck von Selbstbestimmung wichtige Faktoren auf dem Weg zur Akzeptanz von KI sind. Während Kompetenz die Fähigkeit meint, Aufgaben effektiv und mit dem gewünschten Ergebnis zu erledigen, adressiert Verbundenheit den Austausch mit anderen über ein Thema. Autonomieempfinden zielt schließlich darauf ab, Entscheidungsfreiheit über die eigenen Tätigkeiten zu haben. Ein erster Schritt für das Personalmanagement sollte daher sein, über Befähigung und Austausch mit anderen in der Organisation die interne Motivation zu fördern und damit eine positive Grundhaltung gegenüber KI zu erzeugen. Gleichwohl – und das impliziert Befähigung insbesondere – gilt es, KI-Anwendungen kritisch evaluieren zu können. Vor allem im Hinblick auf die Frage, welche Daten verwendet werden, über welchen Weg und welche Algorithmen diese verarbeitet werden und wie KI-erzeugte Ergebnisse zu interpretieren und zu bewerten sind. Darüber Nachvollziehbarkeit herzustellen und die technische Möglichkeit „Erklärbarer KI“ , können wichtige Mittel zur Befähigung und Selbst-Ermächtigung der Menschen sein. Denn Kollegin KI wird bleiben und sich entwickeln, und Führungskräfte aus dem Personalmanagement müssen sich die Frage stellen, was Menschen in der Zusammenarbeit mit ihr brauchen, um eine fruchtbare Symbiose zu erzeugen.
Weitere Beiträge zum Thema:
- Circus Sonnenstich: Trisomie 21, Kunst und Inklusion (humanresourcesmanager.de)
- Künstliche Intelligenz im Job: Mehr Theorie als Praxis (humanresourcesmanager.de)
Dieser Beitrag erschien zuerst in der gedruckten Ausgabe Tech. Das Heft können Sie hier bestellen.