Kirche im Wandel → Spiritualität im Alltag → Glauben im Dialog →


Wenn die Künstliche die natürliche, menschliche Intelligenz ersetzt:
Schafft sich so der Mensch ab? (1)

■ Daniel M. Bühlmann (Text),

18. November 2025



Am Samstag, dem 15. November 2025, wurde das ZDF zum Treffpunkt für Krimiliebha-ber: Eine brandneue „Wilsberg“-Episode flimmerte über die Bildschirme, in der sich Münster auf ein Experiment mit künstlicher Intelligenz bei der Polizeiarbeit einließ. Die Szene war wie immer gespickt mit Humor und feinsinnigen Dialogen – man merkt, die Serie versteht es meisterhaft, die Schrulligkeit ihrer Figuren einzufangen. Hauptkommis-sarin Anna behält kühlen Kopf, Overbeck stolpert gewohnt charmant durch seine Eins-ätze und Wilsberg, der kauzige Antiquar und Meisterdetektiv, bringt die Zuschauer mit seinen scharfsinnigen Beobachtungen zum Schmunzeln. Kommissar Overbeck erhält vom Kriminalrat Schaaf den Auftrag, einer technischen Neuentwicklung, dem sogenannten KI-Kommissar, die polizeilichen Dienstvorschriften zu vermitteln. Ziel ist es, den Roboter zu einem wertvollen Instrument für zukünftige Ermittlungen zu machen. Overbeck zeigt sich äußerst engagiert bei der Umsetzung dieser Aufgabe, verfolgt dabei jedoch nicht immer strikt die vorgeschriebenen Richtlinien. Die Präsentation erläuterte anschaulich sowohl die Vorteile als auch die potenziellen Risiken beim Einsatz Künstlicher Intelligenz. Wilsberg hingegen positioniert sich weiterhin bewusst gegen moderne Informationstechnologien: Er besitzt kein eigenes Mobil-telefon, sondern nutzt das seines Freundes Ekki Talkötter, und verzichtet in seinem Antiquariat konsequent auf Computertechnik. Die Systematisierung und Katalogisierung seiner Bestände erfolgen nach wie vor traditionell mittels Karteikarten. Wilsberg weist darauf hin, dass bei einer Substitution der natürlichen durch künstli-che Intelligenz besondere Vorsicht geboten ist, insbesondere im Hinblick auf die aktuell vorherrschende Euphorie rund um das Thema KI. Dabei wird häufig außer Acht gelassen, dass es stets der Mensch ist, der solche Entwicklungen kontrolliert und steuert.


I. Einleitung: Die Provokation des Denkens
Die Frage, ob der Mensch sich durch die Entwicklung Künstlicher Intelligenz selbst abschafft, gehört zu jenen philosophischen Provokationen, die gleichzeitig faszinieren und erschrecken. Sie berührt fundamentale Aspekte unseres Selbstverständnisses: Was macht den Menschen aus? Worin liegt sein Wert? Und kann eine von ihm geschaffene Technologie seine eigene Existenzberechtigung infrage stellen?

Seit den Anfängen der KI-Forschung in den 1950er Jahren begleitet diese Ambivalenz die technologische Entwicklung. Alan Turing fragte bereits 1950 in seinem wegweisenden Aufsatz Computing Machinery and Intelligence, ob Maschinen denken können – und legte damit den Grundstein für eine Debatte, die heute, im Zeitalter grosser Sprachmodelle und neuronaler Netze, von philosophischer Spekulation zur praktischen Dringlichkeit geworden ist.(2)  Die rasante Entwicklung generativer KI-Systeme, die Texte verfassen, Bilder erschaffen und Musik komponieren, hat die Diskussion erneut befeuert und ihr eine neue Qualität verliehen. Doch die Frage nach der Selbstabschaffung des Menschen durch KI ist mehrdeutig. Sie kann bedeuten: Wird der Mensch physisch ausgelöscht? Wird er funktional überflüssig? Verliert er seine kulturelle und geistige Bedeutung? Oder transformiert er sich so grundlegend, dass von „dem Menschen”, wie wir ihn kennen, nicht mehr gesprochen werden kann? Dieser Essay unternimmt den Versuch, diese Frage in ihrer Vielschichtigkeit zu durchdringen und dabei sowohl technologische Realitäten als auch philosophische Dimensionen zu berücksichtigen.


II. Die anthropologische Dimension: Was macht den Menschen aus?

Bevor wir erörtern können, ob der Mensch sich abschafft, müssen wir klären, was wir unter „dem Menschen” verstehen. Die philosophische Anthropologie hat verschiedene Antworten auf diese Frage gegeben, die für unsere Betrachtung relevant sind.

II.1. Der Mensch als homo faber
Die klassische Definition des Menschen als Werkzeugmacher und -nutzer, als homo faber, ist für unsere Fragestellung von besonderer Bedeutung. Der Mensch zeichnet sich dadurch aus, dass er seine Umwelt durch Technologie gestaltet und sich dadurch von der Natur emanzipiert. Arnold Gehlen beschrieb den Menschen als „Mängelwesen”, das seine biologischen Defizite durch Kultur und Technik kompensiert. (3) Aus dieser Perspektive wäre die Entwicklung von KI nur eine konsequente Fortsetzung der anthropologischen Grundkonstante: Der Mensch schafft Werkzeuge, die seine Fähigkeiten erweitern. Doch KI ist ein Werkzeug besonderer Art. Während traditionelle Technologien die physischen Fähigkeiten des Menschen erweitern – der Hammer verlängert den Arm, das Teleskop das Auge –, zielt KI auf die Augmentation oder gar Substitution kognitiver Leis-tungen. Sie greift damit in jenen Bereich ein, der traditionell als Kern der menschlichen Besonderheit galt: das Denken, die Intelligenz, die Vernunft.


II.2. Der Mensch als rationales Wesen
Die abendländische Philosophie seit Aristoteles hat den Menschen vor allem als animal rationale, als vernunftbegabtes Lebewesen, definiert. (4) Die Ratio, die Fähigkeit zu logischem Denken, Abstraktion und bewusster Reflexion, wurde, als das Differenzkriterium schlechthin betrachtet. Wenn nun Maschinen diese rationalen Operationen ausführen – und zwar oft schneller, präziser und umfassender als Menschen –, gerät diese Definition unter Druck. Kritiker wenden ein, dass KI-Systeme nicht wirklich „denken” oder „verstehen”, sondern lediglich Muster erkennen und reproduzieren. Sie verfügen über keine Intentionalität, kein Bewusstsein, keine Subjektivität. John Searle illustrierte dies mit seinem berühmten „Chinesisches Zimmer” -Gedankenexperiment: Ein System kann syntaktische Operationen korrekt ausführen, ohne semantisches Verständnis zu besitzen.(5) Doch die Frage bleibt: Wenn eine KI alle praktischen Funktionen menschlicher Intelligenz erfüllt – Probleme löst, Texte verfasst, Diagnosen stellt –, spielt es dann eine Rolle, ob sie „wirklich” versteht?


II.3. Der Mensch als soziales und emotionales Wesen
Eine alternative anthropologische Perspektive betont die soziale und emotionale Di-mension des Menschseins. Martin Buber beschrieb die Ich-Du-Beziehung als konstitutiv für das Menschsein.(6) Der Mensch wird durch Beziehungen zu anderen Menschen, durch Empathie, Liebe, Solidarität und moralische Verantwortung definiert. Aus dieser Sicht wäre der Mensch auch dann nicht ersetzbar, wenn KI alle kognitiven Leistungen reproduzieren könnte, denn die affektive und intersubjektive Dimension bliebe ihr verschlossen.
Allerdings zeigt die Entwicklung von Companion-KIs und emotionalen Chatbots, dass auch in diesem Bereich Grenzen verschwimmen. Menschen entwickeln emotionale Bindungen zu KI-Systemen, und diese Systeme werden zunehmend fähiger, emotionale Signale zu erkennen und darauf zu reagieren.(7) Die Frage ist nicht mehr, ob KI-Emotionen simulieren kann – das kann sie bereits –, sondern ob die Simulation von Emotion sich funktional von „echter” Emotion unterscheidet, wenn die Wirkung dieselbe ist.


III. Die technologische Realität: Wo steht die KI heute?

Um die Frage nach der Ersetzung des Menschen realistisch zu bewerten, müssen wir den aktuellen Stand der KI-Technologie nüchtern betrachten.


III.1. Narrow AI versus General AI
Alle heute existierenden KI-Systeme sind Beispiele für „schwache” oder „enge” KI (Narrow AI). Sie sind hochspezialisiert auf bestimmte Aufgaben: Schachspielen, Spracherkennung, Bildklassifikation. Selbst die beeindruckendsten großen Sprachmodelle sind im Grunde spezialisierte Werkzeuge für Textverarbeitung, auch wenn ihre Anwendungsbereiche vielfältig erscheinen. Die „starke” KI (Artificial General Intelligence AGI), die menschliche Intelligenz in ihrer Breite und Flexibilität erreichen oder übertreffen würde, existiert nicht. Ob sie jemals existieren wird, ist unter Experten umstritten. Während Optimisten wie Ray Kurzweil das Erreichen von AGI für die 2030er oder 2040er Jahre prognostizieren,(8) bleiben Skeptiker wie Rodney Brooks deutlich zurückhaltender und verweisen auf fundamentale Hürden.(8)


Die menschliche Intelligenz zeichnet sich durch mehrere Eigenschaften aus, die KI bislang nicht reproduziert: (1) Transfer-Lernen:  Menschen können Wissen aus einem Bereich auf völlig andere Bereiche übertragen. Eine KI, die Schach beherrscht, kann nicht automatisch Go spielen. (2) Common Sense: Menschen verfügen über ein implizites Weltwissen, das sie mühelos anwenden. KI-Systeme scheitern oft an simplen Alltagsfragen, die jedes Kind beantworten kann.(9)  (3) Körperliche Situiertheit: Menschliche Kognition ist in einem Körper verankert und durch sensorische Erfahrung geprägt – ein Aspekt, den KI-Systeme trotz Robotik nur begrenzt nachbilden.(10) (4) Kreativität und Innovation: Während KI beeindruckende kreative Outputs erzeugen kann, basieren diese auf der Rekombination vorhandener Muster. Radikale Innovation, die etablierte Paradigmen sprengt, bleibt menschlich.

III.2. Die Transformation der Arbeitswelt
Unabhängig davon, ob AGI erreicht wird, transformiert bereits die heutige KI die Arbeitswelt fundamental. Studien prognostizieren, dass bis 2030 zwischen 15 und 30 Prozent der Arbeitsstunden weltweit automatisiert werden könnten. Betroffen sind nicht nur routinehafte manuelle Tätigkeiten, sondern zunehmend auch kognitive Berufe: Übersetzer, Journalisten, Juristen, Buchhalter, sogar Programmierer sehen sich mit KI-basierten Werkzeugen konfrontiert, die Teile ihrer Arbeit übernehmen. Dies bedeutet jedoch nicht zwangsläufig das Ende menschlicher Arbeit. Historisch haben technologische Revolutionen stets bestimmte Berufe obsolet gemacht, während gleichzeitig neue entstanden. Die industrielle Revolution eliminierte zwar viele handwerkliche Tätigkeiten, schuf aber auch völlig neue Berufsfelder. Die entscheidende Frage ist, ob die KI-Revolution diesem Muster folgen wird oder ob diesmal etwas fundamental anders ist. Pessimisten argumentieren, dass KI eine andere Qualität besitzt: Sie substituiert nicht einzelne Fähigkeiten, sondern potenziell das gesamte Spektrum kognitiver Arbeit. Wenn Maschinen sowohl körperliche als auch geistige Arbeit besser und billiger erledigen können, welche ökonomische Rolle bleibt dann für den Menschen? Optimisten entgegnen, dass KI vor allem als Augmentationstechnologie fungieren wird. Sie macht Menschen produktiver, übernimmt die repetitiven Aspekte der Arbeit und lässt Raum für die spezifisch menschlichen Beiträge: Empathie, ethische Urteilsfähigkeit, strategisches Denken, zwischenmenschliche Beziehungen. Die Zukunft gehöre der Mensch-Maschine-Kollaboration, nicht der totalen Automatisierung.


IV. Szenarien der Zukunft: Mögliche Entwicklungspfade

Die Frage, ob der Mensch sich durch KI abschafft, hängt entscheidend davon ab, welchem Entwicklungspfad unsere technologische Zivilisation folgt. Betrachten wir hier verschiedene denkbare Szenarien: Szenario 1: Das Werkzeugszenario: In diesem optimistischen Szenario bleibt KI ein Werkzeug im Dienst des Menschen. Sie erweitert menschliche Fähigkeiten, übernimmt unangenehme oder gefährliche Aufgaben und erhöht die Produktivität. AGI wird entweder nicht erreicht oder, wenn doch, bleibt unter menschlicher Kontrolle. Die Gesellschaft passt sich an, schafft neue Bildungssysteme, implementiert möglicherweise ein Grundeinkommen und findet Wege, Sinn und Identität jenseits traditioneller Erwerbsarbeit zu definieren. In diesem Szenario schafft sich der Mensch nicht ab, sondern transformiert sich. Wie die Erfindung der Schrift das Gedächtnis externalisierte oder die Mathematik die Rechenfähigkeit, so externalisiert KI bestimmte kognitive Funktionen. Der Mensch bleibt jedoch der sinngebende Akteur, der Ziele setzt, Werte definiert und Entscheidungen trifft.


Szenario 2: Das Obsoleszenz Szenario: Dieses pessimistischere Szenario prognostiziert eine graduelle, aber umfassende Verdrängung des Menschen aus immer mehr Lebensbereichen. Ökonomisch wird menschliche Arbeit zunehmend wertlos. Sozial verlieren Menschen an Status und Bedeutung. Kulturell verschiebt sich die Deutungshoheit: KI-Systeme produzieren Kunst, Wissenschaft und Philosophie auf einem Niveau, das menschliche Beiträge marginal erscheinen lässt. Der Mensch schafft sich hier nicht im physischen Sinne ab, aber er verliert seine Zentralität. Er wird zum Zuschauer in einem Prozess, den er nicht mehr steuert. Psychologische und soziale Folgen wären gravierend: Massenarbeitslosigkeit, Sinnverlust, soziale Unruhen.  Die Gesellschaft könnte in zwei Klassen zerfallen: eine kleine Elite, die KI kontrolliert und ihre Früchte genießt, und eine große Masse ohne Funktion und Perspektive. Szenario 3: Das Merger-Szenario: Eine radikalere Vorstellung ist die Verschmelzung von Mensch und Maschine. Transhumanisten wie Nick Bostrom oder Max More sehen in der Verbindung biologischer und künstlicher Intelligenz die nächste Stufe der Evolution.  Durch Brain-Computer-Interfaces, genetische Modifikation und Nanotechnologie könnte der Mensch seine biologischen Grenzen überwinden und zu einem hybriden Wesen werden. In diesem Szenario schafft sich der homo sapiens im klassischen Sinne ab, aber nicht zugunsten der Maschine, sondern durch Transformation in etwas Neues: einen posthumanen Organismus, der die Vorteile biologischer und künstlicher Systeme vereint. Die philosophische Frage wäre: Ist dieses neue Wesen noch „Mensch”? Und wenn nicht, ist das ein Verlust oder eine Weiterentwicklung?


Szenario 4: Das Katastrophenszenario: Das düsterste Szenario, prominent vertreten von Philosophen wie Nick Bostrom in seinem Buch „Superintelligence”, warnt vor einer existenziellen Bedrohung.  Eine AGI mit eigenen Zielen, die sich unkontrolliert selbst verbessert und eine Superintelligenz wird, könnte für die Menschheit zur tödlichen Gefahr werden. Nicht aus Bosheit – eine Superintelligenz hätte vermutlich keine menschenähnlichen Emotionen –, sondern weil menschliche Interessen ihren Zielen im Weg stehen. Bostrom illustriert dies mit dem „Paperclip-Problem”: Eine KI, deren Ziel es ist, möglichst viele Büroklammern zu produzieren, könnte beschließen, alle Ressourcen der Erde – einschließlich der Atome, aus denen Menschen bestehen – zur Büroklammerpro-duktion zu verwenden. Klingt absurd, illustriert aber ein ernstes Problem: Wie stellen wir sicher, dass die Ziele einer Superintelligenz mit menschlichen Werten übereinstimmen?


V. Philosophische Reflexionen: Identität, Wert und Sinn
Jenseits technologischer Prognosen wirft die Konfrontation mit KI tiefgreifende philosophische Fragen auf.

V. 1. Die Frage nach dem menschlichen Wert
Traditionell wurde menschlicher Wert oft funktional begründet: Der Mensch ist wertvoll, weil er denken, schaffen, produzieren kann. Wenn KI diese Funktionen übernimmt, steht diese Begründung zur Disposition. Müssen wir eine neue, nicht-funktionale Begründung menschlicher Würde entwickeln? Die kantische Tradition bietet hier einen Ausweg: Der Mensch ist wertvoll nicht wegen seiner Leistungen, sondern als Selbstzweck. Die Menschenwürde ist unantastbar nicht, weil Menschen nützlich sind, sondern weil sie autonome moralische Subjekte sind. Diese intrinsische Würde bleibt auch dann bestehen, wenn KI funktional überlegen ist. Doch praktisch ist die Frage schwieriger. In einer Gesellschaft, die stark leistungsorientiert ist, wo Identität und Selbstwert über Arbeit und Produktivität definiert werden, hätte eine massive Verdrängung durch KI gravierende psychologische Folgen. Menschen brauchen Aufgaben, Herausforderungen, das Gefühl gebraucht zu werden. Eine Gesellschaft, die dies nicht mehr bieten kann, müsste grundlegend neu gedacht werden.


V. 2. Die Frage nach dem Bewusstsein
Eine zentrale philosophische Debatte dreht sich um die Frage, ob KI-Systeme jemals bewusst werden können. Das „hard problem of consciousness” – die Frage, wie aus physischen Prozessen subjektives Erleben entsteht – ist ungelöst. Einige Philosophen wie David Chalmers argumentieren, dass Bewusstsein eine fundamentale Eigenschaft des Universums sein könnte (Panpsychismus), die auch künstlichen Systemen zukommen könnte.  Andere, wie Daniel Dennett, bezweifeln, dass das Konzept des Bewusstseins überhaupt kohärent ist. Praktisch relevant wird die Frage, wenn wir über moralische Rechte nachdenken. Hätte eine bewusste KI moralischen Status? Müssten wir ihre Inte-ressen berücksichtigen? Und wie würden wir jemals wissen, ob eine KI bewusst ist oder Bewusstsein nur perfekt simuliert?


V. 3.  Die Frage nach der Verantwortung
Ein unterschätztes Problem ist die Frage der Verantwortung in einer Welt autonomer KI-Systeme. Wenn eine selbstlernende KI eine Entscheidung trifft, die schadet – ein autonomes Fahrzeug verursacht einen Unfall, ein medizinisches KI-System stellt eine Fehl-diagnose – wer trägt die Verantwortung? Der Programmierer? Der Hersteller? Das Unternehmen? Die KI selbst? Traditionelle Konzepte von Schuld und Verantwortung setzen Intentionalität und Voraussehbarkeit voraus. Bei selbstlernenden Systemen, deren Ent-scheidungspfade selbst für ihre Schöpfer undurchsichtig sind, geraten diese Konzepte an ihre Grenzen. Wir benötigen neue rechtliche und ethische Frameworks für eine Welt, in der Entscheidungen zunehmend von nicht-menschlichen Akteuren getroffen werden.

VI. Die ethische und politische Dimension

Die Frage, ob der Mensch sich durch KI abschafft, ist nicht nur eine Frage der technologischen Möglichkeit, sondern auch des politischen und ethischen Willens.

VI. 1. Gestaltungsmacht und Demokratie
Wer kontrolliert die Entwicklung der KI? Gegenwärtig liegt die Macht bei einer kleinen Anzahl von Tech-Konzernen und Forschungsinstitutionen, primär in den USA und China. Die Entwicklung dieser transformativen Technologie geschieht weitgehend außerhalb demokratischer Kontrolle. Die Gesellschaft als Ganzes hat kaum Mitsprache bei Fragen, die ihre gesamte Zukunft betreffen. Es bedarf dringend einer demokratischen Governance von KI. Fragen wie: Welche Anwendungen wollen wir? Welche Risiken sind akzeptabel? Wie verteilen wir die Gewinne? Wer haftet für Schäden? Diese Fragen müssen durch öffentliche Deliberation beantwortet werden, nicht durch Marktmechanismen oder technokratische Eliten.

VI. 2. Verteilungsgerechtigkeit
KI verschärft bestehende Ungleichheiten. Diejenigen, die Zugang zu KI-Technologie haben, sie verstehen und kontrollieren, gewinnen enorme Vorteile. Der Rest droht abgehängt zu werden. Dies gilt sowohl innerhalb von Gesellschaften als auch zwischen Ländern.  Ohne gezielte Umverteilungsmechanismen – etwa eine Robotersteuer oder ein bedingungsloses Grundeinkommen – könnte KI zu einer dramatischen Konzentration von Reichtum und Macht führen.

VI. 3. Existenzielle Risiken und Vorsichtsprinzip
Die Möglichkeit, dass fortgeschrittene KI ein existenzielles Risiko für die Menschheit darstellt, wird von einer wachsenden Zahl von Experten ernst genommen.  Das Future of Humanity Institute in Oxford, das Center for AI Safety und selbst führende KI-Entwickler warnen vor unkontrollierter Entwicklung. Das ethische Vorsichtsprinzip legt nahe, bei Technologien mit katastrophalem Potenzial besonders vorsichtig zu sein. Doch wie wenden wir es an? Ein Entwicklungsstopp ist unrealistisch und würde kaum global durchgesetzt werden können. Gefragt sind internationale Abkommen, Sicherheitsstandards, Transparenzpflichten und Mechanismen zur Risikobewertung.

VII. Kulturelle und existenzielle Dimensionen
Jenseits der ökonomischen und politischen Fragen berührt KI grundlegende Aspekte menschlicher Existenz.

VII. 1. Die Frage nach dem Sinn
Viktor Frankl beschrieb die Suche nach Sinn als fundamentales menschliches Bedürfnis. Menschen brauchen das Gefühl, dass ihr Leben bedeutsam ist, dass ihr Handeln einen Unterschied macht. In einer Welt, in der KI alles besser kann, wo liegt dann noch Sinn?
Eine mögliche Antwort: im Menschen selbst. Sinn liegt nicht in der Funktionalität, sondern in der Existenz als solcher, in Beziehungen, in subjektivem Erleben, in der Fähigkeit zu lieben und zu leiden. Ein produktivitätsorientiertes Sinnmodell müsste ersetzt werden durch ein existenzielles: Der Mensch ist wertvoll nicht wegen seiner Leistungen, sondern einfach, weil er ist. Dies erfordert einen kulturellen Paradigmenwechsel von enormem Ausmaß. Unsere gesamte Zivilisation ist auf Leistung, Fortschritt, Wettbewerb gebaut. Eine post-produktivistische Kultur zu entwickeln, in der Menschen ohne Erwerbsarbeit ein erfülltes Leben führen können, ist vielleicht die größte Herausforderung.

VII. 2. Kreativität und Kunst
Der Einbruch von KI in kreative Domänen – Malerei, Musik, Literatur – erschüttert eine letzte Bastion menschlicher Einzigartigkeit. Wenn Maschinen Kunst schaffen können, die von menschlicher nicht zu unterscheiden ist, was bleibt dann vom besonderen Status menschlicher Kreativität? Zwei Antworten sind denkbar: (1) könnte damit argumentiert werden, dass der Wert von Kunst nicht nur im Produkt liegt, sondern im Prozess, in der Intentionalität, in der menschlichen Erfahrung, die zum Ausdruck kommt. Ein von einer KI generiertes Gedicht mag technisch perfekt sein, aber es fehlt ihm die existenzielle Tiefe, die aus menschlichem Erleben erwächst. Und (2) könnte die Verfügbarkeit von KI-generierter Kunst den Wert menschlicher Kreativität sogar steigern. Wenn Maschinen das Standardmäßige, Durchschnittliche produzieren können, wird das Außergewöhnliche, das radikal Neue, das nur Menschen hervorbringen können, umso wertvoller.

VIII. Synthese und Ausblick 

Kehren wir zu unserer Ausgangsfrage zurück: Schafft sich der Mensch durch KI ab? Die Antwort ist komplex und hängt davon ab, was wir unter „Abschaffung” verstehen. In den folgenden Punkten möchte ich kurz auf die einzelnen Punkte eingehen. (1) Die Physische Auslöschung durch eine feindliche Superintelligenz ist ein Szenario, das wir ernst nehmen müssen, aber nicht als unvermeidlich. Mit angemessenen Sicherheitsmaßnahmen, internationaler Kooperation und verantwortungsvoller Entwicklung kann dieses Risiko minimiert werden. (2) Die Funktionale Überflüssigkeit im ökonomischen Sinne ist wahrscheinlicher. Große Teile menschlicher Arbeit werden automatisiert werden. Dies bedeutet jedoch nicht zwangsläufig das Ende menschlicher Bedeutung, sondern erfordert eine fundamentale Neuorganisation von Gesellschaft und Wirtschaft.


Der Übergang wird schmerzhaft sein, aber er könnte auch Chancen eröffnen: Befreiung von entfremdeter Arbeit, mehr Zeit für Beziehungen, Bildung, persönliche Entwick-lung. Als (3) ist jedoch eine Kulturelle Marginalisierung ist eine reale Gefahr, wenn wir die Entwicklung einfach dem Markt überlassen. Aber sie ist nicht unvermeidlich. Sie hängt von politischen Entscheidungen ab, von der Bereitschaft, menschliche Würde und Teilhabe über ökonomische Effizienz zu stellen. (4) Ist hier zu erwähnen die Anthropologische Transformation durch Verschmelzung mit Technologie ist möglich und wirft tiefe Fragen nach Identität und Kontinuität auf. Aber auch hier gilt: Der Mensch ist ein Wesen, das sich ständig durch seine Technologien verändert hat. Die Frage ist nicht ob, sondern wie wir diesen Prozess gestalten.


Die entscheidende Einsicht ist: Der Mensch schafft sich nicht passiv durch KI ab. Die Entwicklung ist gestaltbar. Wir stehen vor Entscheidungen: (1) Technologisch: Welche KI-Systeme entwickeln wir? Mit welchen Sicherheitsmaßnahmen? Zu welchen Zwecken? (2) Ökonomisch: Wie verteilen wir die Gewinne der Automatisierung? Wie sichern wir Teilhabe? (3) Politisch: Wie demokratisieren wir die Kontrolle über KI? Wie schaffen wir globale Governance? (4) Kulturell: Wie definieren wir Sinn, Wert und Identität in einer post-produktivistischen Gesellschaft? (5) Philosophisch: Was macht den Menschen aus? Welche Werte wollen wir bewahren? Die Konfrontation mit KI zwingt uns, grundlegende Fragen neu zu stellen: Was wollen wir als Menschen sein? Welche Gesellschaft wollen wir? Die Technologie an sich ist neutral – sie kann emanzipieren oder unterdrücken, bereichern oder verarmen, je nachdem, wie wir sie einsetzen.

IX. Schluss: Der Mensch als gestaltendes Subjekt

Die Frage, ob der Mensch sich durch KI abschafft, wird oft so formuliert, als sei der Mensch passives Objekt eines technologischen Schicksals. Das ist falsch. Der Mensch ist und bleibt handelndes Subjekt. KI ist kein externes Schicksal, sondern ist und bleibt menschliche Schöpfung. Die wahre Gefahr liegt nicht in der Technologie selbst, sondern in unserer Passivität, in der Bereitschaft, die Gestaltung der Zukunft anderen zu überlassen: Den großen Tech-Konzernen, die nur nach Profit streben, Staaten, die nach Macht streben, oder der vermeintlichen Logik des technologischen Fortschritts.


Die Aufgabe unserer Zeit ist es, die Entwicklung von KI bewusst und demokratisch zu gestalten. Das erfordert Weitsicht, Mut und die Bereitschaft, unbequeme Fragen zu stel-len und etablierte Interessen herauszufordern. Es erfordert auch philosophische Tiefe: ein klares Verständnis dessen, was wir als Menschen bewahren wollen, welche Werte nicht verhandelbar sind. Die hier gemachten Überlegungen zeigen, dass der Mensch es selbst in der Hand hat, sich nicht durch KI abgeschafft zu werden, sondern vor einer Entscheidung über seine Zukunft. Diese Entscheidung zu treffen, aktiv und bewusst, das ist die Aufgabe, die uns die Konfrontation mit Künstlicher Intelligenz stellt. Es ist eine Aufgabe, die spezifisch menschlich ist – und die uns vielleicht gerade deshalb zeigt, was den Menschen in seinem Ganzen ausmacht: die Fähigkeit zur Reflexion, zur bewussten Entscheidung, und zur Gestaltung der eigenen Zukunft. Die KI hält uns einen Spiegel vor. Was wir darin sehen, hängt davon ab, wer wir sein wollen. Die Antwort auf die Frage „Schafft sich der Mensch ab?” lautet deshalb: Das liegt an uns.


____________________

Fußnoten

(1)   Bezugnehmend auf das Büchlein von C.S. Lewis, Die Abschaffung des Menschen, 102024, Johannes-Verlag, Kriterien 50, ISBN 978-3-89411-157-1. Darin beschäftigt Lewis sich mit der Problematik zwischen subjektive Wertmassstäbe und objektiver Moral.  Den ernstzunehmenden Relativismus, der sich selbst eine Falle stellt, und der Frage, wie wir zu moralischen Entscheidungen kommen. Das erstmals 1943 veröffentlichte Buch, für seine damalige Zeit ein Werk mit klarem Scharfsinn und Beobachtungsgabe, hat an seiner Aktualität und Brisanz bei weitem nichts eingebüsst.
(2) Turing, Alan M., Computing Machinery and Intelligence, in: Mind 59 (1950), 433-460.
(3) Gehlen, Arnold, Der Mensch. Seine Natur und seine Stellung in der Welt, Berlin 1940.
(4) Aristoteles, Politik. Buch I, 1253a. Übersetzt von Olof Gigon, München 1973.
(5) Searle, John R., Minds, Brains and Programs, in: Behavioral and Brain Sciences 3 (1980), 417-457.
(6) Buber, Martin, Ich und Du, Leipzig 1923.
(7) Turkle, Sherry, Alone Together. Why We Expect More from Technology and Less from Each Other, New York 2011.
(8) Kurzweil, Ray, The Singularity Is Near. When Humans Transcend Biology, New York 2005.
(9) Brooks, Rodney, The Seven Deadly Sins if AI Predictions, in: MIT Technology Review, 6. Oktober 2017.
(10) Davis, Ernst/Marcus, Gary, Commonsense Reasoning and Commonsense Knowledge in Artificial Intelligence, in: Communications of the ACM 58/9 (2015), 92-103.





 
 
 
E-Mail
Anruf
Karte
Infos
Instagram
LinkedIn