Eine analytische Auseinandersetzung auf Grundlage der Studie „The Emergence of AI Ethics Auditing“ von Schiff, Kelley und Camacho Ibáñez (2024)
Einleitung

Der Einsatz Künstlicher Intelligenz in HR-Prozessen wirft tiefgreifende ethische und machtpolitische Fragen auf. Ethische KI-Audits gelten als zentrales Instrument zur Kontrolle algorithmischer Systeme, doch in der betrieblichen Praxis zeigt sich ein strukturelles Ungleichgewicht: Während technische und juristische Akteure dominieren, bleibt das Human Resource Management häufig marginalisiert.
Basierend auf der Studie von Schiff et al. (2024)1 analysiert der Beitrag dieses Spannungsverhältnis kritisch und stellt die Frage, ob HR trotz wachsender Verantwortung überhaupt über die institutionellen Mittel zur Mitgestaltung verfügt. Weiterbildung wird häufig als Lösung propagiert – greift jedoch zu kurz, wenn tiefere Machtasymmetrien nicht adressiert werden.
Der Beitrag plädiert für eine Erweiterung der Auditpraxis, die soziale, normative und organisationale Perspektiven systematisch integriert – und HR nicht nur als Adressat, sondern als aktiven Akteur in der KI-Governance ernst nimmt.
1. Begriff und Charakter von AI Ethics Audits
AI-Ethik-Audits lassen sich – in Anlehnung an Costanza-Chock et al. (2022)2 – als strukturierte Verfahren zur normativen Bewertung algorithmischer Systeme verstehen. Die Audits intendieren, durch die Anwendung expliziter Bewertungskriterien ethische Risiken zu identifizieren, zu dokumentieren und ggf. zu adressieren. In der Praxis folgen sie – so die Analyse von Schiff et al. – in ihrer Ablaufstruktur weitgehend den Phasen klassischer Finanzprüfungen: Planung, Durchführung, Berichterstattung.
2. Motivlagen: Zwischen Compliance und symbolischer Legitimation
Die Untersuchung zeigt, dass regulatorischer Anpassungsdruck – insbesondere durch den EU AI Act – die zentrale Triebfeder für die Implementierung ethischer Prüfverfahren darstellt. Ethische KI-Audits fungieren dabei häufig als Instrument zur Einhaltung aufkommender Normensysteme, etwa im Hinblick auf Transparenzpflichten, Risikoklassifizierung oder Datenschutzstandards. Sie sind Teil einer wachsenden „Compliance-Infrastruktur“, die Ethik in rechtlich operationalisierbare Formate überführt.
Ergänzend treten reputationsbezogene Beweggründe in den Vordergrund: Unternehmen reagieren auf öffentlich gewordene Fälle algorithmischer Diskriminierung – etwa bei automatisierten Bewerbungsverfahren oder bei der algorithmischen Steuerung von Schichtplänen – oft mit der Einführung von Ethik-Audits, die vorrangig der symbolischen Schadensbegrenzung dienen. Derartige Initiativen bleiben jedoch häufig auf eine externe Darstellung beschränkt, ohne intern tatsächlich Machtverhältnisse oder Entscheidungsprozesse zu verändern.
Ein prominentes Beispiel hierfür ist der Fall von Amazon: Das Unternehmen entwickelte ein KI-gestütztes Tool zur Bewertung von Bewerbungen. Es wurde jedoch festgestellt, dass das System Bewerbungen von Frauen benachteiligte. Der Algorithmus hatte aus historischen Daten gelernt, in denen Männer in technischen Positionen überrepräsentiert waren, und bewertete daher Begriffe wie „Frauen“ oder „Frauenfußballteam“ negativ. Amazon stellte die Nutzung des Tools daraufhin ein. 3
Ein weiteres Beispiel liefert eine Untersuchung von AlgorithmWatch, die zeigte, dass auf Plattformen wie Facebook Stellenanzeigen geschlechtsspezifisch ausgespielt wurden. Beispielsweise wurden Anzeigen für LKW-Fahrer überwiegend Männern angezeigt, während Anzeigen für Kinderbetreuungspersonal hauptsächlich Frauen erreichten. Dies führt zu einer Verstärkung bestehender Geschlechterstereotypen im Arbeitsmarkt.4
Bemerkenswert ist, dass proaktive, intrinsisch ethisch motivierte Auditinitiativen – etwa aus dem HR-Bereich selbst, von Ethikbeiräten oder auf Basis betrieblicher Mitbestimmung – vergleichsweise selten dokumentiert sind. Vielmehr dominiert ein instrumentelles Verständnis, das Audits primär als Mittel zur Risikominimierung, Reputationssteuerung und zur Erfüllung externer Erwartungshaltungen begreift.
Diese Einschätzung wird auch in den Interviews mit Auditor:innen in der Studie von Schiff et al. (2024) bestätigt:
„The most pressing and most recent kind of motivation… is now just compliance with upcoming regulations“ (External, USA, Man).
Ein weiterer Interviewpartner beschreibt das Reputationsmotiv wie folgt:
„The starting point which we’ve had is significant public backlash or outrage in response to some risk that was uncovered“ (External, USA, Man).
Dabei ist das Verhältnis zwischen Compliance und Ethik nicht zwingend dichotom. In manchen Fällen entwickelt sich aus einem ursprünglich regulatorisch motivierten Auditprozess allmählich ein breiteres Verständnis für ethische Verantwortung – etwa wenn Unternehmen interne Ethikrollen schaffen, partizipative Bewertungsformate einführen oder ethische Prinzipien in die Systementwicklung rückkoppeln. Diese hybriden Motivlagen zeigen: Ethik kann aus Compliance erwachsen – doch dafür bedarf es institutioneller Lernprozesse, offener Machtanalysen und einer Reflexion über den tatsächlichen Veränderungsanspruch von Auditverfahren.
3. Inhaltlicher Fokus: Technische Operationalisierbarkeit als Engführung – und notwendige Erweiterung
Die in der Studie analysierten Audits konzentrieren sich überwiegend auf technisch quantifizierbare Dimensionen wie algorithmische Fairness (z. B. disparate impact), Datenschutz oder Modell-Erklärbarkeit. Diese Fokussierung auf das technisch Operationalisierbare spiegelt eine regulatorisch geprägte Risikologik wider, die messbare, standardisierbare Kriterien bevorzugt. Ethik wird damit auf das reduziert, was sich codieren, zählen und kontrollieren lässt.
Zwar sind solche Metriken nicht per se problematisch – im Gegenteil: Sie ermöglichen Transparenz, Nachvollziehbarkeit und Skalierbarkeit. So lassen sich etwa Diskriminierungsmuster automatisiert detektieren, oder Entscheidungsprozesse durch Explainability-Tools plausibel machen. Doch in dieser technokratischen Reduktion liegt auch ein Risiko: Viele zentrale ethische Fragen lassen sich nicht allein über Zahlen erfassen.
Beispielsweise bleibt die Frage, wer Zielgrößen definiert, welche gesellschaftlichen Annahmen in Trainingsdaten eingeschrieben sind oder wie algorithmische Systeme in bestehende Machtverhältnisse eingebettet werden, häufig unadressiert. Ethik beginnt nicht beim Modell, sondern bei der Problemdefinition – und diese ist immer sozial, politisch und normativ gerahmt.
Zudem vernachlässigt die technische Engführung die organisationale Realität, in der KI-Systeme zum Einsatz kommen: Wie wirken sie auf Hierarchien, Mitbestimmung, Vertrauenskulturen? Welche Rolle spielen implizite Normen, strategische Interessen oder kulturelle Selbstverständlichkeiten im Umgang mit algorithmischen Empfehlungen?
Vor diesem Hintergrund ist eine Erweiterung des Auditverständnisses notwendig. Zwei idealtypische Zugänge lassen sich unterscheiden:
- Algorithmic Audits, die auf Modellebene operieren und technische Robustheit, Fairness oder Performanz bewerten.
- Governance-Audits, die strukturelle, prozessuale und kulturelle Kontexte der KI-Anwendung einbeziehen – etwa durch Stakeholder-Mapping, Diskursanalysen oder Partizipationsbewertungen.
Eine ethisch fundierte KI-Governance sollte beide Perspektiven integrieren. Die Herausforderung besteht darin, technisches Können mit normativer Reflexion und sozialer Kontextsensibilität zu verbinden – ohne das eine gegen das andere auszuspielen.
4. HRM im Schatten technokratischer Dominanz?
Ein zentrales Defizit besteht laut der Studie in der systematischen Unterrepräsentation nicht-technischer Stakeholder – insbesondere aus dem HR-Kontext. Trotz breiter Debatten um Diversity, Inclusion und Bias-Reduktion bleiben HR-Abteilungen oft marginalisiert. Schiff et al. zeigen, dass sich Auditor:innen primär mit technischen Funktionen und juristischen Einheiten austauschen – HR tritt selten als aktiver Mitgestalter auf.
Diese Beobachtung verweist auf ein strukturelles Spannungsfeld: Während HR formal für personenzentrierte Entscheidungen und Integrität verantwortlich ist, fehlt häufig die Ausstattung, um diese Rolle im KI-Governance-Kontext wahrzunehmen. Es mangelt an digitaler Infrastruktur, an technischer Anschlussfähigkeit und oft an organisationalem Mandat. Auch ein Interview aus der Studie macht diese strukturellen Defizite deutlich:
„If they’ve got no budget to go and do that, or if they’ve got no tools to assist them, how can they realistically go ahead and do that?“ (External, USA, Woman).
Dabei wäre eine differenzierte Betrachtung des HR-Feldes fruchtbar: Bereiche wie Recruiting, Performance Management oder Organisationsentwicklung sind in sehr unterschiedlichem Maße von KI-basierten Systemen betroffen und stellen jeweils spezifische Anforderungen an ethische Prüfverfahren. Eine monolithische Auffassung von „HR“ übersieht diese internen Diversitäten – und damit auch Chancen zur gezielteren Einbindung.
HR befindet sich somit in einer paradoxen Konstellation: verantwortlich, aber machtlos – und dabei selbst heterogen strukturiert. Diese strukturelle Disparität manifestiert sich auch in asymmetrischen Entscheidungsarchitekturen: IT, Legal und Data Science verfügen über Autorität, Budgets und Gestaltungshoheit – HR wird oft erst spät, wenn überhaupt, einbezogen. Dies begünstigt eine technokratische KI-Governance, die ethisch-normative Dimensionen nur selektiv berücksichtigt.
5. Systemische Herausforderungen und Ambivalenzen der Auditpraxis
Auditor:innen berichten von erheblichen Herausforderungen bei der Durchführung von Ethik-Audits: fehlende Datenzugänge, unzureichende Modelltransparenz, mangelnde Dokumentation sowie interne Reibungsverluste infolge siloartiger Organisationen.
Auditor:innen berichten von großen praktischen Problemen: fehlende Dokumentation, unzureichende Dateninfrastruktur, organisatorische Intransparenz, mangelndes Budget und unklare Verantwortlichkeiten. Ein Interviewpartner beschreibt es so:
„You can’t just look at a product in isolation, without looking at how it works in the wider organization“ (External, USA, Woman).
Hinzu kommt die Unsicherheit durch sich ändernde und oft noch vage Regulierung:
„Another challenge is lack of regulatory clarity. It’s still unclear, many of these questions are still unsettled by regulators“ (External, USA, Man).
All dies unterstreicht: KI-Audits operieren in einem prekären Spannungsfeld zwischen Standardisierungsambitionen und praktischer Unschärfe.
6. Relevanz für HR: Zwischen Anspruch und institutioneller Realität
Aus der Perspektive des HRM ergibt sich ein doppelter Handlungsauftrag: einerseits die aktive Mitgestaltung ethischer Audits, andererseits die strategische (Selbst-)Positionierung als gleichwertiger Governance-Akteur im digitalen Wandel. Doch um diese Rolle glaubwürdig einzunehmen, bedarf es struktureller Reformen: HR muss befähigt werden, KI-Systeme mitzugestalten – etwa durch Weiterbildungen, spezifische Governance-Rollen („Ethics Lead HR“) und formelle Beteiligung an Auditprozessen.
Zugleich bedarf es einer kritischen Reflexion der eigenen Praxis: Inwiefern perpetuiert HR selbst diskriminierende Strukturen? Welche Allianzen mit Technik, Recht und Ethik können entwickelt werden? Und wie lässt sich eine menschenzentrierte Governance etablieren, die über technische Compliance hinausgeht?
Dabei ist es wichtig, HR nicht als monolithische Funktion zu betrachten, sondern differenziert auf die inneren Segmente zu blicken: Während z. B. das Recruiting besonders stark algorithmisiert ist, betreffen ethische Fragen der algorithmischen Steuerung im Talentmanagement oder der internen Mobilität andere Dynamiken. Die Gestaltungsmacht von HR wird sich nicht zuletzt daran messen lassen, ob diese Differenziertheit strategisch adressiert und im Governance-Design berücksichtigt wird.
7. Ausblick: Normative Orientierung in einem emergenten Feld
AI-Ethik-Audits befinden sich im Übergang von einer konsultativen Praxis hin zu einer potenziell regulatorisch normierten Institution. Für das HRM eröffnet sich hier die Chance, ethische Verantwortung nicht nur reaktiv zu übernehmen, sondern aktiv mitzugestalten – vorausgesetzt, strukturelle Voraussetzungen werden geschaffen und das eigene Rollenverständnis kritisch weiterentwickelt.
Zugleich zeigt sich, dass technikorientierte Audits nicht per se als Defizit zu betrachten sind: Ihre Potenziale – etwa hinsichtlich Transparenz, Reproduzierbarkeit oder automatisierter Fairness-Kontrollen – können eine wichtige Grundlage für ethische Reflexion und Kontrolle sein. Entscheidend wird sein, ob diese technischen Möglichkeiten in ein ganzheitliches, interdisziplinäres Auditverständnis überführt werden, das normative, soziale und organisationale Perspektiven integriert.
Langfristig wird sich die Legitimität des KI-Einsatzes im Personalbereich daran messen lassen, ob nicht nur technologische, sondern auch ethisch-soziale Kriterien in die Entwicklung, Anwendung und Überprüfung integriert werden – und ob HR als reflexiver, gestaltender Akteur in diesen Prozess eingebunden ist. Die Zukunft der KI-Governance im Unternehmen ist nicht allein eine technische Frage – sie ist auch eine Frage institutioneller Macht, kultureller Verständigung und organisationaler Lernfähigkeit.
7.1 Weiterbildung als Lösung? – Eine notwendige, aber unzureichende Antwort
Die häufig vorgeschlagene Lösung, HR durch gezielte Weiterbildungen und Kompetenzaufbau zu befähigen, wird der strukturellen Problematik nur teilweise gerecht. Zwar ist Fachwissen über algorithmische Systeme, ethische Prinzipien und Governance-Strukturen essenziell – doch greift diese Strategie zu kurz, wenn sie nicht durch tiefgreifende organisationale Veränderungen ergänzt wird.
Kompetenz allein schafft noch keinen Einfluss. Selbst hervorragend qualifizierte HR-Expert:innen bleiben in vielen Organisationen machtpolitisch marginalisiert, wenn ihnen keine formalen Mitentscheidungsrechte oder budgetären Spielräume eingeräumt werden. Die Gefahr besteht, dass Weiterbildung zu einem symbolischen Akt verkommt – wohlklingend, aber folgenlos.
Zudem verschleiert der Fokus auf individuelle Qualifikation die systemischen Machtasymmetrien zwischen technischen, juristischen und personellen Funktionen. In der Realität dominieren oft Data Science und Legal die Entscheidungsarchitektur, während HR spät oder gar nicht einbezogen wird – unabhängig vom tatsächlichen Kompetenzstand.
Daher ist Weiterbildung zwar ein wichtiger Baustein, aber keineswegs ein Allheilmittel. Ohne strukturelle Reformen – etwa durch die Verankerung von HR in interdisziplinären KI-Gremien, die Schaffung verbindlicher Governance-Rollen und eine nachhaltige Ressourcenverteilung – droht der Anspruch auf ethische Mitgestaltung ins Leere zu laufen. Kompetenz ohne Mandat bleibt machtlos.
8. Perspektiven auf eine gestärkte HR-Rolle

Um die ethische Mitgestaltung algorithmischer Systeme im HR-Bereich zu stärken, reicht es nicht aus, strukturelle Defizite zu diagnostizieren – es bedarf konkret operationalisierbarer Modelle. Drei zentrale Handlungsansätze lassen sich identifizieren:
- Partizipative Auditformate
Klassische Audits folgen oft einem Top-down-Muster. Eine alternative Option sind partizipative Ethik-Audits, in denen HR-Verantwortliche, Beschäftigte, Data Scientists und externe Ethik-Expert:innen gemeinsam Bewertungskriterien entwickeln und überprüfen. HR könnte hier als Brückeninstanz fungieren – zwischen technologischer Machbarkeit und arbeitsbezogener Alltagspraxis. - Verbindliche Governance-Strukturen mit HR-Verankerung
In vielen Unternehmen fehlt es an institutionellen Schnittstellen, an denen HR systematisch in die KI-Strategie eingebunden ist. Abhilfe könnten interdisziplinäre KI-Governance-Boards schaffen, in denen HR mit festen Stimmrechten vertreten ist – analog zu den Rollen von Legal oder Compliance. Wichtig ist dabei: Die Einbindung darf nicht konsultativ bleiben, sondern muss Entscheidungskompetenz beinhalten. - Rollenentwicklung innerhalb von HR: „AI Ethics Partner“
Ähnlich wie es „People Business Partner“ gibt, könnte eine neue Funktionsrolle innerhalb des HRM etabliert werden: der oder die AI Ethics Partner. Diese Rolle hätte die Aufgabe, bei KI-basierten Entscheidungen die Perspektive von Ethik, Inklusion und Fairness systematisch einzubringen – mit direkter Anbindung an Audits, Tech-Entwicklung und Geschäftsführung. - Frühzeitige Positionierung in der Einführungsphase von KI-Systemen
Gerade in Unternehmen, in denen KI-Anwendungen erst schrittweise eingeführt werden, eröffnet sich für das Personalwesen eine strategische Chance: die Rolle des First Mover in ethischer KI-Governance. HR könnte hier gezielt Standards mitentwickeln – etwa zur fairen Personalauswahl, zur transkulturellen Bewertung algorithmischer Vorschläge oder zur Transparenz im Leistungsmanagement. Anstatt lediglich auf bestehende technologische Rahmenbedingungen zu reagieren, kann HR als Initiator:in ethischer Leitplanken auftreten – und so von Anfang an menschenzentrierte Standards in Design und Implementierung verankern. Diese Vorreiterrolle setzt allerdings voraus, dass HR über organisationale Unterstützung, Ressourcen und ein entsprechendes Selbstverständnis verfügt.
9. Fazit
Diese Ansätze zeigen: HR kann nicht nur Objekt von KI-Governance sein, sondern aktiv Mitgestalterin – gerade in frühen Phasen der Systemeinführung. Wer jetzt handelt, gestaltet nicht nur ethische Standards, sondern auch die zukünftige Rolle des HRM in der digitalen Organisation. Die Zukunft des Human Resource Managements entscheidet sich damit an der Schnittstelle zwischen ethischer Verantwortung, technischer Anschlussfähigkeit und struktureller Gestaltungsmacht.
Quellen
- Schiff, D. S., Kelley, S., & Camacho Ibáñez, J. (2024). The emergence of AI ethics auditing. Big Data & Society. https://doi.org/10.1177/20539517241299732 ↩︎
- Costanza-Chock, S., Raji, I. D., & Buolamwini, J. (2022). Who audits the auditors? In: ACM Conference on Fairness, Accountability, and Transparency (FAccT 2022). https://arxiv.org/abs/2310.02521 ↩︎
- https://www.zeit.de/arbeit/2018-10/bewerbungsroboter-kuenstliche-intelligenz-amazon-frauen-diskriminierung ↩︎
- https://algorithmwatch.org/en/automated-discrimination-facebook-google/ ↩︎
Was sind AI-Ethik-Audits und welchen Zweck erfüllen sie?
AI-Ethik-Audits sind strukturierte Verfahren zur normativen Bewertung algorithmischer Systeme. Sie dienen dazu, ethische Risiken wie Diskriminierung, Intransparenz oder mangelnde Rechenschaft zu identifizieren, zu dokumentieren und idealerweise zu beheben.
Warum spielen regulatorische Vorgaben wie der EU AI Act eine zentrale Rolle bei der Einführung von KI-Audits?
Der EU AI Act setzt verbindliche Anforderungen für den Einsatz von KI-Systemen. Unternehmen reagieren darauf oft mit Ethik-Audits, um Compliance nachzuweisen und rechtlichen sowie reputationsbezogenen Risiken vorzubeugen.
Welche Risiken birgt eine rein technische Ausrichtung von Ethik-Audits?
Eine technische Engführung reduziert Ethik auf messbare Parameter wie Fairness-Metriken oder Datenschutz, während soziale, politische und organisationale Kontexte häufig vernachlässigt werden. Dies kann zu oberflächlicher Scheinkontrolle führen.
Welche bekannten Beispiele zeigen die Notwendigkeit von Ethik-Audits?
Beispielsweise diskriminierte Amazons Bewerbungsalgorithmus systematisch Frauen. Auch Facebook zeigte gezieltes Gender-Targeting bei Stellenanzeigen. Diese Fälle unterstreichen die Bedeutung externer und interner Kontrollmechanismen.
Warum ist das HR-Management oft nicht in KI-Auditprozesse eingebunden?
In vielen Organisationen fehlt HR die technische Anschlussfähigkeit, die digitale Infrastruktur oder das formelle Mandat. IT, Legal und Data Science dominieren meist die Governance-Strukturen, während HR marginalisiert bleibt.
Reicht Weiterbildung aus, um HR als aktiven Akteur in der KI-Governance zu etablieren?
Nein. Weiterbildung ist notwendig, aber nicht ausreichend. Ohne strukturelle Reformen – wie Mitentscheidungsrechte, Governance-Rollen und Ressourcen – bleibt HR oft formal verantwortlich, aber real machtlos.
Welche Rolle könnte HR in der Einführungsphase von KI-Systemen einnehmen?
HR hat die Chance, sich als First Mover in ethischer KI-Governance zu positionieren. Durch frühzeitige Beteiligung kann HR menschenzentrierte Standards mitgestalten und sich strategisch als Mitarchitekt digitaler Arbeitswelten etablieren.
Wie könnte eine stärkere Einbindung von HR in Audits konkret aussehen?
Beispielsweise durch partizipative Auditformate, feste HR-Rollen in interdisziplinären Governance-Boards oder die Einführung von spezialisierten Funktionen wie „AI Ethics Partner“ innerhalb des Personalwesens.