Künstliche Intelligenz wird zunehmend in der Personalführung eingesetzt – mit weitreichenden Konsequenzen für Entscheidungstransparenz, Mitarbeiterbeteiligung und Datenschutz. Eine aktuelle Studie zeigt: Führungskräfte nutzen KI nicht nur für operative Aufgaben, sondern auch für kritische Personalentscheidungen wie Beförderungen und Kündigungen. Häufig erfolgt dies ohne ausreichende Schulung, Kontrolle oder ethische Leitplanken. Während in den USA bislang kaum verbindliche Standards existieren, etabliert Europa mit dem EU AI Act dagegen ein klares Regelwerk. Doch auch hier bedarf es für einer verantwortungsvolle Gestaltung des KI-Einsatzes im Personalwesen.

Globale Trends, lokale Konsequenzen
Der Einsatz von Künstlicher Intelligenz (KI) im Personalwesen nimmt stetig zu – mit weitreichenden Implikationen für Organisationen, Führungskräfte und Beschäftigte. Eine aktuelle Studie des US-Portals Resume Builder, die über 1.300 Managerinnen und Manager befragte, zeigt: KI-gestützte Systeme übernehmen zunehmend zentrale Entscheidungen – von Beförderungen bis hin zu Kündigungen.
Obwohl die Studie in den USA durchgeführt wurde, sind ihre Ergebnisse auch für den deutschsprachigen und europäischen Kontext relevant. Denn die beobachteten Trends und Herausforderungen spiegeln sich angesichts der wachsenden Verbreitung des Einsatzes generativer KI-Modelle in ähnlicher Form in vielen Unternehmen weltweit wider.
KI im Führungsalltag: Von Analyse zur Entscheidung
Rund 65 % der befragten Führungskräfte setzen regelmäßig KI-Anwendungen ein. Besonders verbreitet sind Tools wie ChatGPT (53 %), Microsoft Copilot (29 %) und Google Gemini (16 %). Die Anwendungsfelder reichen von der Erstellung von Schulungsmaterialien über die Entwicklung individueller Förderpläne bis hin zur Bewertung von Mitarbeitenden. Bemerkenswert ist, dass viele Führungskräfte KI auch bei sensiblen Personalmaßnahmen wie Gehaltserhöhungen, Beförderungen, Abmahnungen und Entlassungen nutzen.
Autonome Entscheidungen: Eine Grauzone der Verantwortung
Etwa ein Viertel der Befragten lässt KI regelmäßig Entscheidungen ohne menschliche Kontrolle treffen. Zwar geben die meisten an, bei Bedarf eingreifen zu wollen, jedoch bleibt unklar, wie konsequent dies in der Praxis geschieht. Trotz hoher Vertrauenswerte in die Objektivität der Systeme bleibt die Entscheidungslogik vieler Anwendungen intransparent. Die Studie lässt offen, welche Datenquellen oder Kriterien der Leistungsbewertung durch KI tatsächlich zugrunde liegen.
Mangel an Qualifikation und Standards
Nur ein Drittel der befragten Führungskräfte hat eine formale Schulung zum ethischen Umgang mit KI erhalten. Angesichts der zunehmenden Verantwortung bei der Verwendung dieser Technologien ist dies durchaus problematisch. In den USA existieren bislang kaum verbindliche Standards, etwa zur Qualität solcher Schulungen oder zur Kontrolle eingesetzter Systeme. Erste gesetzliche Initiativen wie das New Yorker Local Law 144 greifen bislang nur begrenzt.
Europäischer Regulierungsrahmen: Der EU AI Act
In der Europäischen Union hingegen steht mit dem der EU AI Act eine Regulierung des Einsatzes von KI in den Startlöchern und Artikel 4 verlangt den Nachweis ausreichender Kompetenz beim Einsatz von KI. Auch werden KI-Systeme im Personalbereich generell als Hochrisikoanwendungen eingestuft und strenge Anforderungen an Transparenz und Erklärbarkeit, Risikobewertung und menschliche Kontrolle vorgeschrieben. In Verbindung mit der Datenschutz-Grundverordnung (DSGVO) entsteht ein vergleichsweise dichter regulatorischer Rahmen. Dieser verpflichtet Unternehmen zur verantwortungsvollen und nachvollziehbaren Anwendung von KI – ein deutlicher Unterschied zur stärker unternehmensgesteuerten Praxis in den USA.
Datenschutz und Mitbestimmung: Anforderungen an Transparenz
Die Studie lässt offen, ob Mitarbeitende darüber informiert werden, welche personenbezogenen Daten in KI-Systeme eingespeist werden. Gerade Informationen zu Gehalt, Leistung oder Entwicklungspotenzial unterliegen in Europa hohen Datenschutzanforderungen. Daraus ergibt sich ein klarer Handlungsbedarf: Unternehmen müssen transparent darlegen, wie und wofür KI-Systeme eingesetzt werden. Gleichzeitig stellt sich die Frage nach der Beteiligung der Beschäftigten an der Auswahl und Einführung solcher Technologien. Eine institutionelle Einbindung über Betriebsräte oder Tarifparteien erscheint aus arbeitsrechtlicher und compliance-orientierter Sicht geboten.
Automatisierung statt Entwicklung? Risiken strategischer Kurzsichtigkeit
Ein weiteres zentrales Studienergebnis betrifft den Substitutionseffekt: Nahezu jede zweite Führungskraft sollte prüfen, ob sich Positionen im Team durch KI ersetzen lassen. In mehr als der Hälfte der Fälle wurde diese Einschätzung positiv beantwortet – häufig mit anschließender Umsetzung. Dabei bleibt offen, welche Kriterien dieser Bewertung zugrunde lagen und ob Alternativen wie Umschulungen oder interne Versetzungen berücksichtigt wurden. Der Fokus liegt offenbar häufig auf kurzfristiger Effizienz, weniger auf nachhaltiger Personalentwicklung.
Handlungsempfehlungen für HR-Verantwortliche
Für ein verantwortungsbewusstes und zukunftsorientiertes KI-Management im Personalbereich ergeben sich folgende Empfehlungen:
- Verpflichtende Weiterbildungen für Führungskräfte zum ethischen, rechtlichen und operativen Umgang mit KI-Systemen.
- Implementierung verbindlicher Governance-Strukturen, die Prüf-, Freigabe- und Einspruchsprozesse definieren.
- Transparente Kommunikation gegenüber Mitarbeitenden über Ziel, Funktion und Bewertungslogik eingesetzter Systeme.
- Systematische Evaluation von KI-Anwendungen durch Monitoring und begleitende Forschung.
- Stärkung der Mitbestimmung, etwa durch Einbindung betrieblicher Interessenvertretungen und tarifvertragliche Regelungen.
Fazit
Die zunehmende Integration von KI in die Personalführung eröffnet Effizienzpotenziale, bringt aber ebenso erhebliche Herausforderungen mit sich. Die Analyse zeigt, dass viele Systeme bislang ohne klare Standards, transparente Verfahren oder angemessene Beteiligung der Mitarbeitenden eingesetzt werden. Für das HR-Management bedeutet dies, aktiv Gestaltungsverantwortung zu übernehmen. Der EU AI Act wird hierfür wohl demnächst einen verbindlichen Rahmen liefern – entscheidend ist jedoch, wie konsequent Organisationen diesen in ihre Strukturen und Prozesse übersetzen.








