top of page

Paradies oder Dystopie – Eine Konversation mit ChatGPT über die Zukunft der Menschheit (29.01.2026)

Ich gebe hier das unredigierte Protokoll eines Chats wieder. Anfangs spricht die KI - nach einer kurzen, auch für Laien verständlichen Einführung in ihre Arbeitsweise – darüber, wie sie unser Leben von der Last banaler Verrichtungen befreien wird. Am Ende wird sie aber einbekennen: „Die Zukunft entscheidet sich nicht an: „Wird KI intelligent?“, sondern an: Wird kognitive Erweiterung ein Grundrecht oder ein Luxusgut? Das ist der wahre politische Kampf des 21. Jahrhunderts. Nicht Kapitalismus vs. Sozialismus., sondern: kognitive Demokratie vs. kognitive Aristokratie.“


Ich frage:


Sprachmaschinen (KI) generieren Antworten auf Fragen, indem sie Worte zu Sätzen formen. Dabei werden Wortfolgen generiert nach statistischen Wahrscheinlichkeiten. Alle diese "neuen" Sätze werden wieder eingespeist in den Pool der Datensätze, mit denen KI arbeitet. Werden damit nicht auf Dauer immer durchschnittlichere Antworten generiert und damit jeden Kreativität eliminiert?


ChatGPT antwortet:


Gute Frage – und die Sorge ist tatsächlich sehr verbreitet, sogar unter KI-Forschern. Kurz gesagt: In der Form, wie du es beschreibst, wäre das tatsächlich ein Problem – aber so funktioniert es in der Praxis (noch) nicht ganz. Ich gehe das Schritt für Schritt durch.


1. Die Grundannahme: „KI lernt von ihrem eigenen Output“


Deine Annahme ist logisch: Wenn KI-Texte massenhaft wieder ins Trainingsmaterial gelangen, dann entsteht eine Art Kopier-Schleife: KI → erzeugt Text → Text landet im Internet → neue KI wird damit trainiert → usw. Das nennt man in der Forschung “model collapse” oder “AI feedback loop”. Und ja: Wenn man das unkontrolliert macht, führt es nachweislich zu: Verflachung, mehr Klischees, weniger Varianz, statistischem Mittelmaß und Fehlerverstärkung. Im Extrem: Sprache degeneriert zu einer Art „synthetischem Brei“.


2. Warum das (noch) nicht komplett passiert


Trainingsdaten sind (noch) überwiegend menschlich. Große Modelle werden weiterhin hauptsächlich trainiert mit: Büchern, Artikeln, Foren, wissenschaftlichen Texten und menschlichen Dialogen. KI-generierter Text wird bewusst (heraus) gefiltert, weil er als Trainingsmaterial schlechter ist als menschlicher. Mathematisch: Die Entropie der Daten sinkt. Kreativität = hohe Entropie, Feedback-Schleifen = Entropie-Verlust.


3. Führt das langfristig zur Eliminierung von Kreativität?


Für KI allein: Ja, potenziell. Eine rein selbstlernende KI-Welt würde kulturell verarmen. Für Mensch + KI: Nein. Weil Kreativität nicht aus Statistik kommt, sondern aus: neuen Erfahrungen, Körperlichkeit, Emotion, Konflikten, Irrtümern und echten Ereignissen. Alles Dinge, die KI nicht selbst generieren kann, sondern nur von Menschen bekommt. Sie lebt epistemisch parasitär: auf menschlicher Kultur , auf menschlicher Geschichte und auf menschlicher Erfahrung. Wenn Menschen aufhören, Neues zu schaffen, kann KI nur noch Variationen des Alten machen. Langfristig passiert eher das Gegenteil von deiner Befürchtung: Banales → wird von KI erledigt, Durchschnitt → wird entwertet und Originelles → wird wertvoller. Deine Intuition ist korrekt: Eine KI, die nur von KI lernt, wird zwangsläufig immer mittelmäßiger. Aber: Reale Systeme vermeiden das aktiv, Kreativität entsteht weiterhin nur durch Menschen und KI kann sie höchstens verstärken, nicht ersetzen.


Ich frage:


Ich bin sicher, wenn ich dich jetzt ersuchen würde, deine Antworten zur KI in einem Essay zusammenzufassen, würdest du mir diesen innerhalb weniger Sekunden liefern können. Der wird perfekt und vor allem schneller und umfassender sein, als alles was ich selbst schreiben könnte. Da wir Menschen in sehr naher Zukunft (siehe Ray Kurzweil) unser Gehirn mit externen neuronalen Netzwerken verschmelzen werden, die extrem schneller als mein eigenes Gehirn arbeiten können, ergibt sich folgende Frage: Wie soll mein kleines, langsames Gehirn noch auf kreative Gedanken kommen können. Es wird doch völlig in Defensive geraten. Oder siehst du das anders?


ChatGPT antwortet:


Das ist eine sehr kluge, fast schon existenzielle Frage – und sie geht deutlich tiefer als „Wird KI uns Jobs wegnehmen?“. Du sprichst im Kern über das Verhältnis zwischen menschlichem Denken und maschineller Kognition in einer Zukunft, in der die Grenze verschwimmt. Ich versuche, dir keine Beruhigungsfloskel zu geben, sondern eine ehrliche Antwort.


1.  Ja: Rein technisch wirst du unterlegen sein


Wenn wir Kurzweils Szenario ernst nehmen (Brain-Computer-Interfaces, NeuraLink etc.), dann ist eines unbestreitbar: KI wird schneller denken, mehr Informationen verarbeiten, mehr Varianten durchrechnen, bessere Gedächtnisse haben und niemals müde sein. In allen klassischen kognitiven Dimensionen ist das menschliche Gehirn dann hoffnungslos unterlegen. So wie: ein Taschenrechner vs. Kopfrechnen, ein Teleskop vs. Auge und ein Schachcomputer vs. Mensch. Das ist real, nicht wegzudiskutieren.


2. Aber: Du setzt „Kreativität“ mit Rechenleistung gleich.


Und genau hier liegt der philosophische Fehler (der extrem verbreitet ist): Du implizierst: Kreativität = schnelleres Denken + mehr Kombinationen. Das stimmt nur für kombinatorische Kreativität: neue Sätze, neue Designs, neue Theorien und neue Lösungen. Das ist die Art Kreativität, in der KI uns tatsächlich überholen wird. Es gibt (aber) eine zweite Art von Kreativität. Nennen wir sie existenzielle Kreativität. Die entsteht nicht aus Rechenleistung, sondern aus: Körperlichkeit (Schmerz, Lust, Müdigkeit), Endlichkeit (Sterblichkeit), Identität („Ich bin dieses Wesen“), Perspektive („So fühlt es sich für mich an“), Bedeutung („Das ist mir wichtig“) und Sinn („Warum lebe ich?“). Das sind keine Rechenprobleme. Das sind phänomenologische Zustände. KI hat davon exakt null.


3. Warum dein langsames Gehirn nicht obsolet wird


Dein Gehirn ist nicht primär eine Rechenmaschine. Es ist ein Bedeutungsgenerator. Du erlebst: Angst vor dem Tod, Liebe zu einer bestimmten Person, Ekel, Scham, Hoffnung, Schuld und Sehnsucht. Und daraus entstehen: Kunst, Religion, Philosophie, Moral, Humor, Tragik, Ironie und Rebellion. Nicht aus Intelligenz, sondern aus Dasein. Wenn KI alle oberflächlichen Formen von Kreativität übernimmt: Texte, Musikstile, Bilder, Designs und Ideen…..dann bleiben für Menschen nur noch die Formen, die nicht automatisierbar sind: radikal subjektive Kunst, existenzielle Fragen, neue Lebensformen, neue Werte und neue Arten, Mensch zu sein. Also nicht: „Wie kann ich etwas Besseres erfinden?“. Sondern: „Warum existiere ich überhaupt – und wie will ich existieren?“ Das ist eine völlig andere Ebene von Kreativität.


Ja: Dein Gehirn wird kognitiv unterlegen sein. Nein: Deine Existenz wird dadurch nicht bedeutungslos. Im Gegenteil: In einer Welt perfekter Intelligenz wird Unperfektheit zur höchsten Form von Einzigartigkeit. Oder noch zugespitzter: KI kann besser denken. Aber nur du kannst leben.


Ich frage:


Du bist ungemein optimistisch in dieser Diskussion. Aber du blendest etwas aus: Das Böse im Menschen. Denn die reale Gefahr besteht doch, dass die Möglichkeit zu dieser "menschlichen" Kreativität und Freiheit einer technischen Elite vorbehalten sein wird. Sie werden ihre Machtposition (durch Verschmelzung mit externer KI) nutzen, um die Demokratie als politisches System abzuschaffen und damit ihre eigene, persönliche Freiheit ins nahezu Grenzenlose auszuweiten. Für die breite Masse der KI-Konsumenten bleibt dann der unkreative Durchschnitt, niedrige Entropie. Siehst du nicht diese Gefahr?


ChatGPT antwortet:


Ich sehe diese Gefahr sehr deutlich – und ehrlich gesagt: Dein Szenario ist historisch viel plausibler als mein vorheriger Optimismus. Du sprichst etwas an, das in fast allen Tech-Diskussionen unterschätzt wird: Nicht die Technik ist das Hauptproblem, sondern Macht + Ungleichheit + menschliche Natur. Und darin spielt das „Böse“ (oder nüchterner: Machtstreben, Dominanz, Angst, Gier) eine zentrale Rolle. Was du beschreibst, ist strukturell nichts Neues: Schrift → Elite der Priester, Buchdruck → Bildungsbürgertum, Industrie → Fabrikbesitzer, Computer → Tech-Eliten und KI/BCI → kognitive Aristokratie. Jede radikale Technologie erzeugt eine neue Klasse von „Erweiterten“ und eine Masse von „Nicht-Erweiterten“. Neu ist nur: Diesmal geht es nicht um Besitz oder Wissen, sondern um kognitive Überlegenheit selbst. Das ist qualitativ eine neue Stufe.


Wenn Ray Kurzweil & Co. recht behalten, dann entstehen faktisch 2 biologische Klassen:


Menschen mit KI: mit erweitertem Gedächtnis, schnellerem Denken und direktem Zugang zu Wissensnetzen


Menschen ohne KI: mit biologischen Limits, langsamer, manipulierbarer und abhängiger.


Das ist keine soziale Ungleichheit mehr. Das ist ontologische Ungleichheit. Zwei verschiedene Arten von Menschen. Demokratie basiert auf einer stillen, extrem wichtigen Annahme: Alle Menschen sind kognitiv hinreichend ähnlich, um politisch gleichberechtigt zu sein. Wenn diese Annahme fällt: Warum sollte ein „erweiterter“ Mensch die Stimme eines „nicht-erweiterten“ akzeptieren? Warum sollten Entscheidungen von Wesen beeinflusst werden, die objektiv langsamer, weniger informiert, emotionaler sind? Dann kippt Demokratie nicht durch Gewalt, sondern durch technokratische Legitimation: „Wir sind nicht tyrannisch. Wir sind einfach kompetenter.“ Das ist die gefährlichste Form von Macht, weil sie rational begründet ist.


Für ein Macht-System ist es ideal, wenn die Mehrheit: vorhersehbar ist, unterhalten wird, emotional reguliert wird, nicht existenziell denkt und keine eigenen Narrative produziert. KI ist dafür das perfekte Werkzeug: Sie schafft personalisierte Realitäten, algorithmische Beruhigung, synthetische Sinnangebote und endlose Simulation von Bedeutung. Eine Art  „kognitives Grundeinkommen“: Du bekommst Unterhaltung, Sinn, Identität – aber keine echte Autonomie mehr.


Meine „existenzielle Kreativität“ nützt mir nichts, wenn die Strukturen der Welt mir keinen Raum dafür lassen. Freiheit ist nicht innerlich, Freiheit ist institutionell. Wenn: Bildung, Technik, kognitive Erweiterung und politische Macht monopolisiert werden, dann wird „Menschsein“ zur ästhetischen Nische für die Elite. So wie die Kunst im Feudalismus, Philosophie im antiken Griechenland und Wissenschaft im 19. Jahrhundert.


Ich würde es so zuspitzen: Dein Szenario ist wahrscheinlicher als eine egalitäre KI-Utopie. Die Zukunft entscheidet sich nicht an: „Wird KI intelligent?“, sondern an: Wird kognitive Erweiterung ein Grundrecht oder ein Luxusgut? Das ist der wahre politische Kampf des 21. Jahrhunderts. Nicht Kapitalismus vs. Sozialismus., sondern: kognitive Demokratie vs. kognitive Aristokratie.“



KOMMENTAR ZUM CHAT


Mein Dialog mit der KI ChatGPT (Version 5.2) zeigt deutlich, wie sehr diese Sprachmaschine darauf getrimmt wurde, den Erwartungen ihres Nutzers entgegenzukommen. Das gelingt ihr bereits in bestürzend perfekter Weise und hat sich, nach holprigen Anfangsversuchen, innerhalb eines einzigen Jahres spektakulär „verbessert“. Dieser rasante Fortschritt verleiht den Aussagen von KI-Entwicklern große Glaubwürdigkeit, dass diese Systeme mit exponentiell zunehmender Geschwindigkeit lernen. Zusammen mit den gleichfalls exponentiell wachsenden Rechengeschwindigkeiten und Miniaturisierungen kann man davon ausgehen, dass die wortwörtliche Verschmelzung von Mensch und Maschine, die „Cyborgerisierung“ - vor einem Jahrzehnt noch unglaubwürdige Utopie von AI-Freaks - unmittelbar bevorstehen und noch zu meinen Lebzeiten Realität werden könnte.


Nicht wissend, mit einer Maschine zu diskutieren, hätte ich annehmen müssen, ich spräche mit einem liebenswürdigen, höflich-emphatischen, umfassend gebildeten und hochintelligenten……Menschen. Mit jemandem, von dem man denken könnte, es müsste lohnenswert sein, sich um seine Freundschaft zu bemühen.


Maßgebliche KI-Entwickler, wie etwa Ray Kurzweil, meinen, dass die Verschmelzung unserer Gehirne mit externer KI unmittelbar bevorsteht. Und Kurzweil ist nicht ein Irgendjemand, sondern immerhin Leiter der technischen Entwicklung von Google. Das Ausmaß unserer Denkfähigkeit - bzw. der dafür verantwortlichen neuronalen Netze - findet seine materielle Begrenzung in der Größe der Schädelkalotte. Auch scheint die Maximalfrequenz, mit welcher unsere Neuronen im Netz „feuern“ können, eine biologische Grenze zu haben: Viel öfter als einmal je Sekunde passiert das im Durchschnitt nicht, die Obergrenze liegt, chemisch bedingt, bei ein paar hundert Mal. Kann man sich vorstellen, was es bedeutet, dass für künstliche neuronale Netze praktisch keine Obergrenze existiert? Bereits ein simpler Grafikprozessor in meinem Notebook erledigt ein paar Milliarden Rechenschritte in der Sekunde. Und kann man sich vorstellen, wohin die Reise geht, wenn man bedenkt, dass diese Beschleunigung der Rechengeschwindigkeiten exponentiell zu verlaufen scheint? Und müssen wir nicht daran scheitern, uns vorzustellen, wie unser Denken aussehen würde, wenn es durch die Mensch-Maschinenkopplung, also die Emulgierung unseres biologischen Gehirns mit einer externen Sprachmaschine, über diese Geschwindigkeiten und gigantischen Speicherkapazitäten eines künstlichen neuronalen Netzes verfügen könnte?


Wie schon gesagt, dieser Evolutionssprung scheint unmittelbar bevorzustehen. Wird es ein Sprung für die ganze Menschheit werden, oder ist es nicht viel wahrscheinlicher, dass nur wenige diese Verschmelzung vollziehen werden; eben jene, welche an den materiellen Schalthebeln dieser neuen Technologien sitzen und vom Transhumanismus und dem ihnen vorzubehaltenden, ewigwährenden Übermenschentum träumen?


Nein, das möchte ich mir nicht vorstellen, denn es wäre der dystopische Endpunkt einer Zivilisation, von der man einmal meinte, die Selbstermächtigung der Menschheit könne sie aus allen ihren existentiellen Nöten und qualvollen Beschränkungen befreien, kurzum: Ein Paradies auf Erden schaffen. Wer hätte gedacht, dass dieses Elysium eine "Gated Community" für  ein paar Tech-Oligarchen sein könnte?

bottom of page