Der KI-Effekt im Recruiting: Ein strategischer Leitfaden für HR

von | Juli 18, 2025 | KI im Recruiting

Künstliche Intelligenz (KI) ist dabei, die Personalauswahl fundamental zu verändern. Doch während sich die Debatte oft um Effizienz und algorithmische Fairness dreht, rückt eine Studie ein übersehenes, aber kritisches Phänomen in den Fokus: KI verändert nicht nur, wie wir auswählen, sondern auch, wie sich Bewerber präsentieren. Dieses Wissen ist für jede HR-Abteilung, die KI-Tools einsetzt oder deren Einführung plant, von entscheidender Bedeutung.

Im Folgenden werden die Erkenntnisse der Studie „AI assessment changes human behavior“ von Goergen, de Bellis und Klesse (2025), erschienen in den Proceedings of the National Academy of Sciences (PNAS), praxisorientiert aufbereitet. Es werden die Risiken aufgezeigt, die psychologischen Ursachen erklärt und einen konkreter Werkzeugkasten für die HR-Praxis geliefert.

Wie KI das Bewerbungsverhalten verändert – und was das Recruiting daraus lernen muss

Das Kernproblem und die strategische Antwort

1. Executive Summary: Das Phänomen auf den Punkt gebracht

  • Problem: Menschen verhalten sich systematisch anders, wenn sie wissen, dass sie von einer Künstlichen Intelligenz bewertet werden. Die Studie bezeichnet dieses Phänomen als den „AI-Assessment-Effekt“. Konkret „betonen Menschen ihre analytischen Eigenschaften und spielen ihre intuitiven und emotionalen herunter“, wenn sie einer KI gegenüberstehen (Goergen et al., 2025, S. 1).
  • Ursache: Der Effekt entsteht nicht durch die Technik selbst, sondern durch eine tief verankerte psychologische Annahme der Bewerber: der „Analytical Priority Lay Belief“. Dies ist der Glaube, dass eine KI primär analytische, logische und strukturierte Eigenschaften belohnt und für emotionale oder intuitive Fähigkeiten blind ist.
  • Konsequenz: Diese Verhaltensanpassung verzerrt die Ergebnisse von Assessments fundamental. Sie gefährdet die Validität der Auswahl, kann zu teuren Fehlbesetzungen führen und die Diversität in Teams einschränken. Die Studie warnt, dass dieser Verhaltenswandel „potenziell die Validität von Bewertungsprozessen untergräbt“ (Goergen et al., 2025, S. 1).
  • Lösung: HR kann diesem Effekt aktiv entgegensteuern. Die wirksamsten Hebel sind eine bewusste, transparente Kommunikation (Re-Framing), die Gestaltung hybrider Auswahlprozesse (Mensch-Maschine-Kollaboration) und eine gezielte interne Kompetenzentwicklung.
Ein junger Mann in Business-Kleidung sitzt an einem Schreibtisch in einem modernen Büro. Er schaut angespannt in den Bildschirm eines Laptops, der ein bläuliches Licht ausstrahlt. Über seinem Kopf schweben transparente Datenvisualisierungen, die eine Bewertung durch künstliche Intelligenz andeuten.
Zwischen Beobachtung und Selbstinszenierung: KI-gestützte Assessments verändern, wie sich Bewerbende präsentieren – oft unbewusst.

2. Die drei größten Risiken für Ihr Recruiting durch den „AI-Assessment-Effekt“

Die strategische Anpassung der Bewerber ist kein trivialer Nebeneffekt. Sie birgt handfeste unternehmerische Risiken.

  • Risiko 1: Validitätsverlust – Sie bewerten eine optimierte Fassade
    Die Kernaufgabe eines Assessments ist es, die authentischen Fähigkeiten und die Persönlichkeit eines Kandidaten zu erfassen. Der AI-Assessment-Effekt führt jedoch dazu, dass Bewerber eine Version ihrer selbst präsentieren, die sie für KI-kompatibel halten. Die Studie belegt in einer zweistufigen Untersuchung (Studie 3), dass sich Bewerber unter KI-Bedingungen signifikant weiter von ihrem „wahren Ich“ (gemessen in einer Kontrollbedingung ohne Assessment) entfernen als unter menschlicher Bewertung (Goergen et al., 2025, S. 5).
    Folge: Sie stellen möglicherweise jemanden ein, der exzellent darin ist, sich einer KI zu präsentieren, aber nicht die für die Stelle essenziellen sozialen, kreativen oder intuitiven Fähigkeiten mitbringt.
  • Risiko 2: Selektions-Bias – Sie bevorzugen die Anpassungsfähigen, nicht die Geeignetsten
    Die Verhaltensänderung hat direkte Auswirkungen auf die Auswahlentscheidung. In einer Simulation auf Basis ihrer Daten kalkulierten die Forscher, was bei einer angenommenen Einstellungsschwelle passieren würde. Das Ergebnis ist alarmierend: „27 % aller Teilnehmenden wären nur dann für den Job ausgewählt worden, wenn sie von einer KI bewertet wurden, aber nicht, wenn sie von einem Menschen bewertet wurden, und umgekehrt“ (Goergen et al., 2025, S. 5).
    Folge: Mehr als jede vierte Einstellungsentscheidung könnte anders ausfallen, nur weil das Bewertungssystem wechselt. Dies ist kein Zufall, sondern ein systematischer Bias zugunsten von Profilen, die sich stärker analytisch darstellen – unabhängig von der tatsächlichen Passung.
  • Risiko 3: Trügerische Objektivität – Sie vertrauen einem verzerrten Score
    KI wird oft mit dem Versprechen von Objektivität und Neutralität eingeführt. Der AI-Assessment-Effekt zeigt jedoch, dass die Technologie selbst neue, subtile Verzerrungen schafft, indem sie das Verhalten der Bewerber lenkt. Ein von einer KI generierter Score mag mathematisch objektiv sein, doch er basiert auf einem strategisch angepassten und damit potenziell unauthentischen Input.
    Folge: HR-Teams wiegen sich in einer Scheinsicherheit. Sie verlassen sich auf einen scheinbar neutralen Datenpunkt, der jedoch das Ergebnis einer psychologischen Inszenierung ist. Die Verantwortung, diesen Kontext zu verstehen und zu hinterfragen, bleibt beim Menschen.

Der Praxistest – Evidenz und psychologische Hintergründe

3. Die Evidenz: Was die Forschung wirklich zeigt

Die Befunde von Goergen et al. sind keine akademische Theorie. Sie basieren auf einer robusten Datengrundlage von zwölf Einzelstudien mit insgesamt 13.342 Teilnehmenden (Goergen et al., 2025, S. 1). Die Forscher variierten Kontexte (Bewerbungen, Hochschulzulassungen), Methoden (Szenarien, reale Aufgaben) und Stichproben, um die Belastbarkeit ihrer Ergebnisse zu sichern.

  • Der „Self-Presentation-Shift“ ist messbar und stark: In einer Kernstudie (Studie 1) sollten Teilnehmende angeben, wie sie eine Aufgabe angehen würden. Unter KI-Bewertung näherten sie sich der Aufgabe signifikant analytischer (Mittelwert 6,00 vs. 5,59 auf einer 7-Punkte-Skala) und weniger intuitiv (Mittelwert 4,20 vs. 4,82) als unter menschlicher Bewertung (Goergen et al., 2025, S. 3). Dieser Effekt war über alle Studien hinweg konsistent.
  • Der Effekt tritt auch in der Praxis auf: Um die Laborergebnisse zu validieren, führten die Forscher ein Feldexperiment auf der Freelancer-Plattform Upwork durch. Sie schalteten zwei identische Stellenanzeigen, eine mit dem Hinweis auf KI-Screening, die andere auf menschliches Screening. Das Ergebnis bestätigte die Hypothese: „Freiberufler, die zu der von der KI bewerteten Position eingeladen wurden, neigten dazu, analytischere Selbstbeschreibungen anzugeben als diejenigen, die zur von Menschen bewerteten Position eingeladen wurden (M AI = 4,41 vs. M human = 4,02)“ (Goergen et al., 2025, S. 2).
  • Transparenz und wissenschaftliche Güte: Alle Experimente wurden vorab registriert, und die Daten sind öffentlich zugänglich. Dies stärkt die Glaubwürdigkeit der Resultate und ermöglicht eine Nachvollziehbarkeit, die in der HR-Praxis als Goldstandard gelten sollte.

4. Der psychologische Mechanismus: Warum der Mensch den Algorithmus fehlinterpretiert

Der AI-Assessment-Effekt wird nicht von der KI-Software selbst ausgelöst, sondern im Kopf der Bewerber. Die Studie identifiziert einen klaren psychologischen Treiber: die „Analytical Priority Lay Belief“.

Dies ist die Alltagsüberzeugung oder Laienannahme, dass KI-Systeme analytische Merkmale wie Rationalität, Logik und Struktur stärker priorisieren als menschliche Bewerter (Goergen et al., 2025, S. 2). Diese Vorstellung wirkt wie ein mentaler Filter: Bewerber passen ihr Verhalten an das an, was sie für ein algorithmisch wünschenswertes Ideal halten.

Die Studie belegt diesen Zusammenhang statistisch. Eine Mediationsanalyse in Studie 1 zeigte, dass der Glaube an die analytische Priorität der KI der entscheidende vermittelnde Faktor ist: Der Bewertungskontext (KI vs. Mensch) führt zu einer veränderten Annahme darüber, was belohnt wird, und diese Annahme wiederum führt zur Verhaltensänderung (Goergen et al., 2025, S. 3).

Die entscheidende Erkenntnis für HR: Es ist nicht die Technik, die das Verhalten primär verändert, sondern die Kommunikation und die Erwartungen, die mit ihr verbunden sind. Und genau hier liegt der größte Hebel für die Praxis.

Teil C: Der HR-Werkzeugkasten – Konkrete Maßnahmen und Umsetzung

Wer die psychologischen Ursachen versteht, kann gezielt gegensteuern. Die folgenden vier Hebel helfen HR-Teams, den AI-Assessment-Effekt zu managen und die Qualität ihrer Auswahlprozesse zu sichern.

Hebel 1: Kommunikation & Re-Framing

Da der Effekt auf einer falschen Erwartungshaltung beruht, ist die wirksamste und einfachste Maßnahme, diese Erwartung zu korrigieren. Die Studien 5a und 5b zeigten deutlich, dass der analytische Bias fast vollständig verschwindet oder sich sogar umkehrt, wenn man den Bewerbern den expliziten Hinweis gibt, dass die KI auch intuitive oder emotionale Fähigkeiten bewertet (Goergen et al., 2025, S. 6).

Was HR tun kann:

  • Formulierungen anpassen: Vermeiden Sie einschüchternde, technikzentrierte Sprache. Formulieren Sie stattdessen transparent und ganzheitlich.
    • Statt: „Dieses Interview wird automatisiert von einer KI ausgewertet.“
    • Besser: „Unser System unterstützt uns dabei, ein umfassendes Bild Ihrer Fähigkeiten zu erhalten. Es berücksichtigt dabei sowohl analytische Denkweisen als auch kreative, soziale und intuitive Lösungsansätze. Seien Sie einfach Sie selbst – wir sind an einem authentischen Eindruck interessiert.“
  • Hinweise platzieren: Integrieren Sie solche Formulierungen direkt in die Einladung zum Assessment, in FAQs im Bewerberportal oder als Einleitungstext vor dem Start eines Videointerviews.

Hebel 2: Prozessdesign – Hybride Modelle nutzen

Reine KI-Entscheidungen sind am anfälligsten für den beschriebenen Bias. Die Studie 6 untersuchte ein hybrides Szenario, bei dem Bewerber wussten, dass eine KI eine Vorauswahl trifft, die finale Entscheidung aber bei einem Menschen liegt. Das Ergebnis: Der Effekt wurde spürbar reduziert, aber nicht vollständig eliminiert (Goergen et al., 2025, S. 6).

Was HR tun kann:
  • Mensch und Maschine kombinieren: Setzen Sie KI für das Pre-Screening oder als unterstützendes Werkzeug ein, aber stellen Sie sicher, dass eine menschliche Bewertung in einem strukturierten Interview ein entscheidender Teil des Prozesses bleibt.
  • Keine „Blackbox“-Systeme: Der Mensch darf nicht zum reinen Abnicker von KI-Vorschlägen degradiert werden. Die finale Entscheidung und deren Begründung müssen in menschlicher Verantwortung liegen.
  • Menschliche Aufsicht (Human Oversight): Dies ist nicht nur eine bewährte Praxis, sondern auch eine Kernforderung des EU-AI-Acts.

Hebel 3: Kompetenzaufbau – Recruiter für neue Bias-Formen sensibilisieren

Nicht nur Bewerber, auch Recruiter sind anfällig für psychologische Effekte wie den „Automation Bias“ – die Tendenz, den Ergebnissen eines automatisierten Systems unkritisch zu vertrauen.

Was HR tun kann:
  • Gezielte Schulungen: Sensibilisieren Sie Ihr HR-Team für den AI-Assessment-Effekt. Recruiter müssen wissen, dass ein KI-generiertes Profil das Ergebnis einer strategischen Anpassung sein kann.
  • Kritisches Denken fördern: Schulen Sie Interviewer darin, KI-Scores als Hypothesen zu betrachten, die im Gespräch überprüft werden müssen, anstatt als unumstößliche Wahrheiten.
  • Rollenprofile schärfen: Machen Sie klar, in welchen Rollen (z. B. Führung, Vertrieb) soziale und intuitive Kompetenzen erfolgskritisch sind und daher im menschlichen Gespräch besonders validiert werden müssen.

Hebel 4: Monitoring & Kontrolle – Die Wirksamkeit validieren

Die Einführung von KI ist kein einmaliges Projekt, sondern ein kontinuierlicher Lernprozess.

Was HR tun kann:
  • Performance-Daten abgleichen: Überprüfen Sie regelmäßig, ob die durch KI (mit-)ausgewählten Kandidaten langfristig erfolgreich im Unternehmen sind. Korreliert der KI-Score mit der späteren Leistung und Zufriedenheit?
  • Systematische Vergleiche: Analysieren Sie, ob sich die Profile von KI-vorgeschlagenen Kandidaten systematisch von denen unterscheiden, die durch rein menschliche Prozesse ausgewählt wurden.
  • Dokumentation: Führen Sie Buch über Ihre Erkenntnisse. Dies hilft nicht nur, die eigenen Prozesse zu verbessern, sondern ist auch Teil der Dokumentationspflichten für Hochrisiko-KI-Systeme nach dem EU-AI-Act.

6. Change Management & Compliance: Die organisatorische und rechtliche Einbettung

Die Einführung von KI im Recruiting ist ein Change-Prozess, der rechtliche und soziale Rahmenbedingungen berücksichtigen muss.

  • Interne Akzeptanz schaffen: Binden Sie HR-Teams, Fachbereiche und den Betriebsrat frühzeitig ein. Erklären Sie nicht nur die Technik, sondern auch die psychologischen Effekte und die Maßnahmen, die Sie ergreifen, um Fairness und Validität zu sichern.
  • Der rechtliche Rahmen: Personalauswahl-KI gilt laut EU-AI-Act als Hochrisiko-System. Das zieht strenge Pflichten nach sich. Gleichzeitig ist die Mitbestimmung des Betriebsrats nach dem Betriebsverfassungsgesetz (§ 87 Abs. 1 Nr. 6 BetrVG) bei der Einführung technischer Überwachungssysteme zwingend.

Pflichten im Überblick: Mitbestimmung und EU-Regulierung

BereichRelevanz für HRRechtsgrundlage
MitbestimmungBeteiligung des Betriebsrats bei Einsatz technischer Systeme zur Verhaltens-/Leistungsbewertung§ 87 Abs. 1 Nr. 6 BetrVG
RisikomanagementPflicht zur systematischen Risikoerfassung und -dokumentationEU-AI-Act Art. 9
Technische DokumentationNachvollziehbare Beschreibung von Daten, Modelllogik, TestsArt. 11
TransparenzVorab-Information über KI-Nutzung, Zweck und FunktionslogikArt. 13
Human OversightMenschen müssen jeden KI-Entscheid nachvollziehen und korrigieren könnenArt. 14

Fazit:

KI im Recruiting bietet enorme Chancen, aber der AI-Assessment-Effekt zeigt, dass Technologie niemals in einem psychologischen Vakuum agiert. Sie trifft auf Menschen, deren Wahrnehmungen und Annahmen ihr Verhalten prägen.

Für HR bedeutet das eine doppelte Verantwortung: Sie müssen nicht nur den Algorithmus verstehen und steuern, sondern auch die Erwartungen der Menschen managen. Wer diese Herausforderung annimmt und kluge Kommunikation, durchdachte Prozesse und rechtliche Sorgfalt miteinander verbindet, kann die Potenziale der KI heben, ohne die Qualität und Fairness seiner Personalauswahl zu gefährden. Der Schlüssel liegt darin, sich daran zu erinnern, dass hinter jedem Datenpunkt ein Mensch steht.

KI verändert das Recruiting grundlegend: Bewerbende passen ihr Verhalten an, wenn sie wissen, dass eine Maschine sie bewertet – der sogenannte AI-Assessment-Effekt.

FAQs zum KI-Effekt im Recruiting

Was ist der AI-Assessment-Effekt?

Der AI-Assessment-Effekt beschreibt die Tendenz von Menschen, ihr Verhalten und ihre Selbstdarstellung zu verändern, sobald sie glauben, von einer KI bewertet zu werden. Studien zeigen, dass sich Bewerbende dadurch analytischer und rationaler geben – unabhängig von ihrer tatsächlichen Persönlichkeit.

Wie wurde der AI-Assessment-Effekt nachgewiesen?

Der Effekt wurde in einer groß angelegten Studie von Goergen et al. (2024), veröffentlicht in den Proceedings of the National Academy of Sciences (PNAS), durch zwölf Teilstudien mit über 13.000 Teilnehmenden empirisch belegt.

Welche Auswirkungen hat KI auf Bewerbungsverhalten?

Bewerbende passen ihre Antworten, Formulierungen und Darstellung bewusst oder unbewusst an, wenn sie glauben, dass eine KI sie bewertet. Dadurch können Verzerrungen entstehen, die zu Fehleinschätzungen führen – z. B. bei Kreativität oder sozialer Passung.

Wie können Unternehmen mit dem AI-Assessment-Effekt umgehen?

Unternehmen können Re-Framing einsetzen – also gezielt kommunizieren, dass auch intuitive, emotionale oder kreative Merkmale geschätzt werden. So lässt sich die einseitige Selbstpräsentation abmildern und authentischere Einblicke gewinnen.

Welche Rolle spielt der Betriebsrat beim Einsatz von KI im Recruiting?

Nach § 87 Abs. 1 Nr. 6 BetrVG ist der Betriebsrat zu beteiligen, wenn technische Systeme zur Leistungs- oder Verhaltensbewertung eingesetzt werden. Dies gilt auch für KI-gestützte Auswahlverfahren.

Was regelt der EU-AI-Act im Recruiting-Kontext?

Der EU-AI-Act stuft KI-Systeme, die zur Bewerberauswahl eingesetzt werden, als „Hochrisiko-KI“ ein. Das bedeutet u. a. verpflichtendes Risikomanagement, technische Dokumentation, Transparenz gegenüber Bewerbenden und menschliche Aufsicht über Entscheidungen.

Welche weiteren Gesetze gelten beim Einsatz von KI im HR-Bereich?

Neben dem EU-AI-Act sind u. a. die DSGVO (Art. 6, 13–15, 22), das BDSG (§ 26), das AGG (§§ 1–10), das Entgelttransparenzgesetz sowie ab 2026 die Entgelttransparenzrichtlinie (EU) 2023/970 relevant.

Wie können Unternehmen Fairness und Transparenz im Auswahlprozess sichern?

Durch gezielte Kommunikation, Re-Framing, kontinuierliches Monitoring und die Einhaltung rechtlicher Vorgaben können Unternehmen Verzerrungen reduzieren und faire, nachvollziehbare Auswahlprozesse gestalten.

Verändern sich Bewerbende auch, wenn gar keine KI verwendet wird?

Ja. Die Studie zeigt: Allein die Vorstellung, dass eine KI das Verfahren begleitet, reicht aus, um Verhalten zu beeinflussen. Der Effekt tritt also unabhängig davon auf, ob tatsächlich ein Algorithmus eingesetzt wird – es genügt die Erwartung daran.

Ist der AI-Assessment-Effekt bei allen Bewerbergruppen gleich stark?

Nein. Die Ausprägung des Effekts hängt u. a. vom Bildungshintergrund, dem digitalen Vertrauen und der Einschätzung von „guter Selbstdarstellung“ ab. Einige Gruppen neigen stärker dazu, sich analytischer darzustellen als andere.

Können auch menschliche Entscheidungen verzerrt sein – nicht nur KI?

Ja, ganz klar. Bias tritt auch bei Personalverantwortlichen auf – z. B. durch Sympathie, Stereotype oder Tagesform. Der Unterschied ist: Bei KI wirken zusätzlich systemische Effekte wie Trainingsdaten oder Erwartungsverzerrungen durch Re-Framing.

Wie sollten Unternehmen Re-Framing in Stellenausschreibungen umsetzen?

Indem sie bewusst formulieren, dass neben analytischen auch kreative, emotionale oder intuitive Kompetenzen gefragt sind. Das signalisiert: Es gibt nicht nur „eine richtige Antwort“ – was Bewerbende entlastet und zu authentischeren Darstellungen führt.

Neueste Artikel & Insights über den Einsatz von KI im Personalwesen

Impressum & Datenschutz