Wenn der Prophet nervös wird

von | Juli 30, 2025 | Kant kommentiert

Prof. Dr. Ortfried „Otti“ Kant
Prof. O. Kant ist Kolumnist auf KI-im-Personalwesen.de

Sam Altman zwischen Allmachtsvision und Ohnmachtsgeständnis
Eine kantianische Miniatur zur KI-Gegenwart

I. Prolog im Datennebel

Sam Altman, CEO von OpenAI, hat wieder einmal geredet. Diesmal nicht auf dem Weltwirtschaftsforum, sondern im Podcast von Theo Von – einer Figur, die so weit vom Ethikdiskurs entfernt ist wie ein GPU-Cluster vom Kreidetafelunterricht. Und doch war es vielleicht gerade diese absurde Kulisse, die es Altman ermöglichte, tiefer blicken zu lassen, als es ihm vor Senatsausschüssen gelingt.

Er spricht über seine neugeborenen Sohn – und was diesem verwehrt bleiben wird.

„Mein Kind wird niemals schlauer sein als eine KI. Das wird nie passieren.“
„Wird er aufs College gehen? Wahrscheinlich nicht.“

Was hier durchscheint, ist keine bloße Bildungsprognose. Es ist die Exmatrikulation des Humanismus. Wenn der Vater der KI der eigenen Nachkommenschaft die kognitive Obsoleszenz diagnostiziert, dann wird klar: Wir stehen nicht vor einem technologischen Fortschritt. Wir stehen vor einem anthropologischen Umbruch.

Ein einzelnes Kind steht vor einem gigantischen, turmartigen Rechenzentrum in einer postapokalyptischen Landschaft. Die Szenerie wirkt surreal und dystopisch – symbolisiert das Machtgefälle zwischen Mensch und künstlicher Intelligenz.
Wird mein Kind jemals klüger sein als eine KI?“ – Sam Altmans Dystopie: Das Menschliche im Schatten des Maschinellen.

II. Die Erde als Wärmesenke des Fortschritts

Altman berichtet stolz von einem Rechenzentrum in Texas, das ein Gigawatt verbraucht. Fünftausend Menschen bauen daran. Es sieht, so sagt er, aus wie das „Motherboard eines Computers“.

Man könnte das als Infrastruktur feiern – oder als architektonische Drohung lesen: Der Planet wird zur Hardware. Was bleibt vom Humanum, wenn es nur noch ein Host ist?

Dabei lässt Altman tief blicken:

„Ich bin der Typ im Raum, ich habe ein paar Vermutungen… aber wir wissen es nicht.“

Ein Satz, der wie eine Bescheidenheitsfloskel klingt – aber als Offenbarung gelesen werden muss: Der CEO der mächtigsten KI-Firma gesteht ein, dass er den Kontrollverlust spürt. Und damit ungewollt das größte Governance-Problem unserer Zeit benennt: Die Kombination aus exponentieller Gestaltungsmacht und epistemischer Ahnungslosigkeit.

III. Die Delegation des Selbst

Altman beschreibt KI-Agenten, die nicht nur antworten, sondern handeln: buchen, bestellen, forschen. Eine Welt, in der Entscheidungen nicht mehr getroffen, sondern vorausberechnet werden. Und in der die Persönlichkeit eines Freundes „im System landet“, ohne je eingespeist worden zu sein.

Man fragt sich: Wer braucht da noch Gehirnimplantate, wenn wir längst algorithmisch durchleuchtet sind?

„Unsere Gespräche mit ChatGPT haben keinen rechtlichen Schutz.“

Ein Satz, der in seiner Lakonie kaum zu überbieten ist. Zwischenmenschliche Kommunikation wird privat reguliert, digitaler Dialog jedoch als AGB-kontaminierte Datenquelle missverstanden. Während Therapeut:innen und Anwält:innen Schweigepflichten unterliegen, gilt für KI-Systeme: Mit allem, was du sagst, kann und wird trainiert werden.

IV. Und die Gesellschaft?

Was in Altman’s Erzählung auffällig fehlt: jede Form demokratischer Gegenmacht. Keine Rede von Regulierung. Keine Rede von Ethikräten, Wissenschaft, Gewerkschaften, zivilgesellschaftlicher Mitsprache. Die Zukunft erscheint als leere Fläche, die von Rechenzentren bepflanzt wird.

„Ich glaube, ein Großteil der Welt wird in 20 Jahren mit Rechenzentren bedeckt sein.“

Wenn man keine Gesellschaft mehr sieht, sieht man auch keine Verantwortung.

Dabei gäbe es Alternativen. Man könnte Künstliche Intelligenz als öffentliche Infrastruktur denken – auditierbar, reguliert, sozial rückgebunden. Man könnte Datenräume schaffen, die nicht ausbeuten, sondern schützen. Und man könnte endlich damit aufhören, Verantwortung als ein optionales Modul im Produktportfolio zu behandeln.

V. Imperativ für eine andere Zukunft

Wenn selbst der Hohepriester der KI sagt, er habe Angst – dann sollten wir hinhören. Nicht aus Panik. Sondern aus Pflicht.

Denn:
Handle stets so, dass du Macht nur dort entfesselst, wo du auch Kontrolle und Verantwortung institutionalisieren kannst.

Oder kantianischer:
Nutze KI nie bloß als Mittel – sondern stets auch als Anlass zur Selbstverantwortung.

Nachsatz für Führungskräfte:
Digitale Souveränität ist keine technische Frage. Sie ist eine politische – und eine moralische. Wer heute Change-Prozesse plant, sollte zuerst fragen, welche Menschenbilder er mitimplementiert. Alles andere ist Featuredenken in einer Welt, die längst nach Prinzipien ruft.

Neueste Artikel & Insights über den Einsatz von KI im Personalwesen

Impressum & Datenschutz