Teil 2: Was die MIT Brain Scan Studie für das HR bedeutet – Kognitive Risiken durch KI-Nutzung im Unternehmen erkennen und managen

von | Juni 21, 2025 | News, Zukunft der Arbeit

Einleitung

Darstellung eines Gehirns, das auf der linken Seite biologisch und auf der rechten Seite in digitale Pixel übergeht, verbunden mit einem Interface-Fenster von ChatGPT – Symbolbild für den Einfluss künstlicher Intelligenz auf menschliches Denken.
Visualisierung der kognitiven Auswirkungen von KI: Die MIT Brain Scan Studie zeigt, wie die Nutzung von Systemen wie ChatGPT unsere neuronale Aktivität und Eigenverantwortung verändert.

Im ersten Teil dieser Serie wurden die neurologischen Effekte intensiver KI-Nutzung vorgestellt. Die MIT Brain Scan Studie belegte, dass häufige Verwendung von Tools wie ChatGPT messbare Veränderungen in der Hirnaktivität bewirken kann – insbesondere in jenen Bereichen, die für Lernen, Gedächtnis und Aufmerksamkeit zuständig sind. Viele Proband:innen berichteten zudem über ein vermindertes Gefühl der Eigenverantwortung für ihre Arbeit.

In diesem zweiten Teil richten wir den Fokus auf die betriebliche Praxis: Welche Anzeichen für kognitive Risiken lassen sich im Arbeitsalltag beobachten? Welche Konsequenzen ergeben sich daraus für das Personalmanagement? Und wie können HR-Abteilungen proaktiv gegensteuern?

1. Kognitive Risiken im Arbeitskontext

1.1 Routineaufgaben mit KI: Reduktion geistiger Aktivität

Beispiel: Ein:e Junior-Analyst:in nutzt ChatGPT für Marktanalysen. Die Ergebnisse sind korrekt, aber wenig analytisch oder originell.

KI-gestützte Tools erleichtern viele standardisierte Aufgaben. Wenn sie jedoch dauerhaft die inhaltliche Auseinandersetzung ersetzen, verflachen Denkprozesse. Führungskräfte sollten bei Mitarbeitenden wachsam werden, wenn sich die Inhalte repetitiv gestalten und die argumentative Tiefe abnimmt.

1.2 Gefährdete Kreativprozesse

Beispiel: Ein Kreativteam übernimmt erste KI-generierte Ideen und entwickelt sie kaum weiter.

In kreativen Berufsfeldern kann KI den Ideenfluss initial unterstützen. Doch wenn kreative Prozesse zu stark auf algorithmischen Vorschlägen beruhen, sinkt die Fähigkeit zum divergenten Denken. Führungskräfte sollten gezielt hinterfragen, ob kreative Konzepte tatsächlich auf originärer Entwicklung basieren oder lediglich verfeinerte KI-Ausgaben darstellen.

1.3 Verlust von Autorschaft und Motivation

Beispiel: Eine Projektleitung erstellt Präsentationen mit KI-Hilfe, fühlt sich aber nicht mehr als inhaltlich verantwortliche Person.

Regelmäßige KI-Nutzung kann das subjektive Gefühl von Urheberschaft („Ownership“) mindern. Dies wirkt sich negativ auf Motivation, Verantwortungsgefühl und emotionale Bindung zur eigenen Arbeit aus. HR sollte hier gezielte Rückmeldeschleifen etablieren, in denen reflektiert wird, welche Anteile im Arbeitsprodukt vom Menschen stammen.

2. Kognitive Risiken frühzeitig erkennen

2.1 Beobachtbare Muster im Arbeitsalltag

Typische Warnzeichen:

  • Rückgang eigenständiger Initiativen
  • Oberflächliche Argumentationen in Texten oder Meetings
  • Wiederkehrende, wenig differenzierte Ideen
  • Routinemäßige Nutzung gleicher KI-Vorschläge

Führungskräfte sollten diese Signale systematisch beobachten, dokumentieren und in 1:1-Gesprächen offen ansprechen.

2.2 Datenbasierte Analyseinstrumente

HR kann zusätzlich datenbasierte Methoden einsetzen:

  • Regelmäßige Pulsbefragungen mit Fokus auf geistige Beanspruchung
  • Self-Assessment-Tools zur KI-Nutzung (z. B. Nutzungshäufigkeit, Unterstützungsgrad)
  • Textanalysen hinsichtlich Argumentationstiefe, Wiederholungsstruktur oder GPT-Content-Anteil
  • Feedbackfunktionen in Lernplattformen zur Reflektion von Transferleistung

Diese Metriken helfen, Übernutzung, kognitive Stagnation oder mangelnde Eigenleistung sichtbar zu machen.

3. Strategien zur Prävention durch HR

3.1 Kompetenzentwicklung

Trainingsprogramme sollten nicht nur technisches KI-Know-how und die angemessene die Kompetenz im Umgang mit KI vermitteln, sondern auch kritisches Denken, Urteilsfähigkeit und Reflexionskompetenz fördern. Beispiel: Ein interaktives Training mit Praxisfällen, in denen zwischen „ergänzender KI-Nutzung“ und „vollständiger Auslagerung“ unterschieden werden muss.

3.2 Rollenverantwortung klären

Transparente Abgrenzungen zwischen menschlicher und maschineller Leistung fördern das Verantwortungsbewusstsein. HR kann über Rollenklarheit und explizite Autorenschaftskennzeichnung (z. B. „verfasst mit Unterstützung durch…“) strukturell gegensteuern.

3.2.1 Ethische Dimensionen berücksichtigen

KI-Nutzung wirft Fragen nach Urheberschaft, Transparenz und Haftung auf. Unternehmen benötigen klare Leitlinien: Wer haftet bei Fehlern? Welche Offenlegungspflichten bestehen gegenüber Kund:innen? Wie wird dokumentiert, wann und wie KI zum Einsatz kam? Ein Vorschlag: KI-Transparenz-Abschnitt in Projekt- oder Kundenberichten.

3.3 Leistungsbewertung erweitern

Zielsysteme sollten nicht nur Output, sondern auch kognitive Prozessqualität erfassen. Dazu zählen:

  • Tiefe und Klarheit in der Argumentation
  • Kreativität und Originalität der Lösungsansätze
  • Fähigkeit zur kritischen Bewertung von KI-Vorschlägen
  • Reflektierter Umgang mit digitalen Hilfsmitteln

Diese Kriterien sollten in Qualifikationsprofilen und Feedbackprozessen explizit verankert werden.

4. Frühzeitige Sensibilisierung im Ausbildungskontext

Die Ergebnisse der MIT-Studie basieren auf einer Stichprobe von jungen Erwachsenen im Alter zwischen 18 und 34 Jahren – also genau jener Zielgruppe, die sich typischerweise in Studium, Ausbildung oder Berufseinstieg befindet. HR sollte diese Alterskohorte nicht erst im Unternehmen erreichen, sondern bereits während der akademischen oder beruflichen Qualifizierung ansetzen.

Insbesondere in dualen Studiengängen, Praktikumsprogrammen oder Werkstudierendentätigkeiten ergibt sich die Chance, frühzeitig für einen reflektierten Umgang mit KI zu sensibilisieren. Dies erfordert keine Technikskepsis, sondern eine Balance aus Nutzungsfreude und Bewusstsein für mögliche kognitive Langzeitfolgen.

HR-Abteilungen, die mit Hochschulen kooperieren oder frühzeitig Talente binden möchten, könnten hier gezielt Impulse setzen – etwa durch Awareness-Workshops, Leitfäden zur „kritischen KI-Nutzung im Studium“ oder begleitende Reflexionsformate im Rahmen von Talentprogrammen.

Fazit & Ausblick

Die Nutzung von KI im Berufsalltag birgt nicht nur Effizienzpotenzial, sondern auch reale Risiken für die kognitive Entwicklung von Mitarbeitenden. HR-Abteilungen sollten diese Herausforderungen ernst nehmen und geeignete Formate zur Früherkennung, Reflexion und Kompetenzentwicklung etablieren. Entscheidend ist dabei eine Kultur, die digitale Unterstützung erlaubt, ohne geistige Selbstständigkeit zu untergraben.

Teil 3 dieser Serie beleuchtet, wie sich Unternehmen langfristig strategisch aufstellen können, um eine ausgewogene „Human-AI-Balance“ zu schaffen – mit dem Ziel, Innovationskraft, Resilienz und kognitive Nachhaltigkeit gleichermaßen zu fördern.

Teil 1: Was macht KI mit unserem Gehirn? – Kernergebnisse der MIT Brain Scan Studie

Welche Risiken zeigt die MIT Brain Scan Studie im Kontext der KI-Nutzung auf?

Die Studie zeigt eine Abnahme der Hirnaktivität in Bereichen für Gedächtnis und Aufmerksamkeit sowie einen Verlust an Eigenverantwortung bei häufigem Einsatz von KI-Tools wie ChatGPT.

Wie können Unternehmen kognitive Risiken bei Mitarbeitenden erkennen?

Typische Anzeichen sind sinkende Eigeninitiative, oberflächliche Argumentationen und kreative Monotonie. Diese können durch Feedbackgespräche oder gezielte Datenanalysen identifiziert werden.

Welche Rolle spielt HR bei der Prävention kognitiver Risiken durch KI?

HR sollte Trainings zur KI-Kompetenz etablieren, Verantwortlichkeiten klar definieren und Leistungsbewertungen um Kriterien wie kritisches Denken und Eigenleistung erweitern.

Wie können Daten genutzt werden, um Übernutzung von KI zu erkennen?

Durch Pulsbefragungen, Self-Assessments und Textanalysen (z. B. GPT-Nutzungsanteil oder Argumentationstiefe) lassen sich Muster erkennen, die auf kognitive Stagnation hindeuten.

Was versteht man unter 'Ownership-Verlust' bei KI-Nutzung?

Damit ist gemeint, dass Mitarbeitende sich weniger als Urheber ihrer Arbeit fühlen, wenn sie stark auf KI-Tools zurückgreifen – was Motivation und Verantwortungsbewusstsein senken kann.

Welche ethischen Fragen ergeben sich durch KI-Einsatz im Unternehmen?

Es geht um Urheberschaft, Transparenzpflichten gegenüber Kund:innen sowie Haftungsfragen bei KI-generierten Inhalten. Unternehmen sollten klare Richtlinien entwickeln.

Wie lässt sich kreative Eigenleistung im KI-Zeitalter bewerten?

Durch Kriterien wie originäre Lösungsansätze, die Fähigkeit zur kritischen Bewertung von KI-Vorschlägen und reflektierter Umgang mit digitalen Tools im Performance Management.

Was wird in Teil 3 der Artikelserie thematisiert?

Teil 3 zeigt, wie Unternehmen strategisch eine „Human-AI-Balance“ gestalten können, die sowohl Effizienz als auch kognitive Gesundheit langfristig fördert.

Neueste Artikel

Teil 3: Human-AI-Balance als HR-Strategie

Wege zu kognitiver Nachhaltigkeit in der Organisation Human-AI-Balance als strategische Aufgabe: Die richtige Gewichtung zwischen Denkaufwand und KI-Unterstützung entscheidet über kognitive Nachhaltigkeit im Unternehmen. 1. Human-AI-Balance: Begriff, Ziel und...

mehr lesen

Impressum