Teresa Gladbach / Johannes Grössl

(All-)Macht, Ohnmacht und Freiheit in Zeiten von KI

Künstliche Intelligenz stellt nicht nur die Gesellschaft, sondern auch die Religionen vor zahlreiche Herausforderungen. Glaube wird in der modernen Theologie maßgeblich als liebende Beziehung zwischen einem allmächtigen Gott und einem freien Geschöpf verstanden. Doch sowohl die Vorstellung der Existenz eines allmächtigen Gottes als auch die Freiheit des Menschen können stark beeinträchtigt werden: Maximiert KI ihre Macht, wird sie selbst – oder ein durch sie transformierter Mensch – als allmächtiges Wesen wahrgenommen. Kontrolliert KI den Menschen, zerstört sie unsere Freiheit. Verbessert KI den Menschen, nimmt sie ihm die Erfahrung von Ohnmacht und dadurch auch das Bedürfnis nach Erlösung.

Wer regiert die Welt? In vielen Science-Fiction-Filmen übernimmt eine vom Menschen erschaffene Superintelligenz die Kontrolle. In Terminator versucht diese, die Menschheit auszulöschen; in Matrix versklavt sie die Menschen, um sie als Energiequelle zu nutzen. In I, Robot nimmt sie aus der Intention der Fürsorge heraus den Menschen ganz offensichtlich jegliche Freiheit; in Transcendence manipuliert die Superintelligenz die Menschen im Vorborgenen.

Auch wenn diese Dystopien heute realistischer erscheinen als je zuvor, bleibt die Vorstellung einer künstlichen Intelligenz, welche selbst ein Bewusstsein ausbildet und die Menschheit versklavt, spekulativ. Doch selbst ohne eine solche Ausbildung eines Bewusstseins kann der Einsatz von KI in allen Lebensbereichen große und vielleicht sogar irreversible Auswirkungen für die Gesellschaft und für unser Selbstverständnis als Menschen mit sich bringen. Da wir diesen Transformationsprozess mitgestalten können, müssen diese Auswirkungen nicht zwingend negativ sein. Mit künstlicher Intelligenz ist nicht nur die Befürchtung eines dauerhaften Schadens für den Menschen verbunden, sondern auch die Hoffnung auf technischen, gesellschaftlichen und möglicherweise sogar religiösen Fortschritt.

Machterweiterung und Machtkonzentration

Nach den Ergebnissen der Shell-Jugendstudie 2024 steht die Mehrheit der Jugendlichen der Nutzung von KI positiv gegenüber, junge Männer (55 %) sogar deutlich mehr als junge Frauen (39 %). Die Erleichterungen im Alltag, in der Schule, im Beruf sind mittlerweile für fast alle Menschen spürbar. Gleichzeitig befürchten 65 % der Jugendlichen unmenschliche Entscheidungen von KI und 45 % eine höhere Arbeitslosigkeit als Folge ihres Einsatzes. Es wird zunehmend offensichtlich, dass Menschen, die KI zur Erreichung ihrer Ziele produktiv einsetzen können, einen immer größeren Vorteil erlangen gegenüber denjenigen, die dies nicht vermögen. So gaben 31 % der Jugendlichen an, beim Thema KI überfordert zu sein. Während die einen durch KI ihr Wissen erweitern und effizienter arbeiten, fehlt anderen die Fähigkeit, von Sprachmodellen generierte Texte und Antworten auf Fragen kritisch zu evaluieren (Quenzel u. a. 167–183).

Künstliche Intelligenz ist folglich ein Mittel der Machterweiterung und wird auch zum Teil als solches wahrgenommen. Laut der Jugendstudie nehmen materialistische Lebenseinstellungen (ebd., 115) zu; der Einsatz von KI wird demnach auch subjektiv hinsichtlich der eigenen Bedürfniserfüllung evaluiert. Hier lässt sich die Sorge wahrnehmen, dass KI dieser Bedürfniserfüllung nicht dienlich ist, da sie die eigenen Entfaltungsmöglichkeiten einschränkt.

Wenn man bedenkt, wie KI eingesetzt werden kann, um Persönlichkeitsprofile von Internetnutzern zu erstellen, und anhand dieser Profile gezielte Werbung platziert werden kann, sowohl hinsichtlich Konsum- als auch Wahlentscheidungen, zeigt sich, wie groß die Möglichkeiten zur Manipulation bereits heute sind. Hierdurch wird die Macht einzelner Akteure erhöht, die von anderen eingeschränkt (vgl. Joost 37f.). Künstliche Intelligenz vergrößert dadurch die Ungleichheit der Menschen; deren Einsatz wird zur sozialethischen Herausforderung. Dieser Herausforderung kann man durch entsprechende politische Strategien begegnen: digitale Bildung, digitalfreie Räume, Datenschutzgesetze. Doch selbst die Politik empfindet sich heute oft als machtlos im Kampf einerseits gegen die global agierenden Tech-Unternehmen, andererseits gegenüber dem Streben nach Komfort der Bevölkerung, welches die Ausbreitung von Fake News und das Entstehen von Filterblasen fördert. Die Digitalisierung birgt zwar einige Chancen, aber durchaus auch viele Risiken für die Demokratie (vgl. Fenner 249–280).

Aufgrund der Informationsüberflutung und der systemimmanenten Emotionalisierung sind Rückzugs-Reaktionen durchaus nachvollziehbar und nicht immer nur bedingt durch ein Streben nach Komfort: »Es stellt sich aber das Gefühl von Ohnmacht und eigener Unfähigkeit ein, den Informationsfluss kontrollieren zu können und adäquat zu reagieren. Diese Art von Stress wird als ›Technostress‹ oder Cyberstress bezeichnet und kann beim langen Arbeiten im Internet zu einem ›Techno-Brain-Burnout‹ führen« (Fenner 176). Die Ohnmacht durch information overload erklärt auch, warum Internet-Suchergebnisse in rasantem Tempo von KI-Antworten verdrängt werden (vgl. Chapekis/Lieb). Es entsteht dadurch allerdings eine neue Ohnmacht durch die freiwillige Abgabe von Verantwortung mit noch unabsehbaren Konsequenzen.

Eigenmächtige Superintelligenz

Seit Anfang der Menschheit wurden Technologien von Einzelnen oder spezifischen Gruppen eingesetzt, um andere Menschen zu dominieren oder gar auszulöschen. Neu ist im 21. Jahrhundert, dass zum ersten Mal eine Technologie existiert, die eine Eigendynamik entwickeln kann, bei der es kein dominierendes Subjekt mehr gibt, sondern nur noch manipulierte Akteure. In Science-Fiction-Szenarien wird dies veranschaulicht entweder durch Androiden, welche täuschend echt Emotionen und ein Bewusstsein vorspielen können, ohne eines zu besitzen (Ex Machina), oder indem Menschen von ihrer eigenen Schöpfung in Denkstrukturen gefangen werden, die ihre Freiheit untergraben (Devs). Im dystopischen Film Cube wird die Idee entfremdeter Gesellschaften und die anonyme Entstehung mörderischer Systeme wie folgt beschrieben: »Es gibt keinen großen Plan. Niemand wacht über uns. Nicht mal die Regierung. Der Cube ist einfach passiert. […] Ein paar Leute haben es entworfen, ein paar Leute haben es gebaut, ein paar Leute haben das Geld genehmigt. Und niemand hat je gefragt, warum. […] Niemand ist verantwortlich.«

Im Zeitalter von KI ist die Sorge vor einem Kontrollverlust über ein System, das keinen Urheber mehr kennt, aber reale Macht ausübt, deutlich gestiegen. Was früher Science-Fiction war, ist heute eine reale Debatte: Systeme, die auf maschinellem Lernen basieren, treffen Entscheidungen, deren innere Logik selbst den Entwicklern zunehmend unzugänglich ist. Verantwortung wird fragmentiert, Kontrolle delegiert – bis niemand mehr genau sagen kann, wer eigentlich steuert (vgl. Göcke/Grössl 333). Gerade, wenn es um die Klärung von Schuld geht und diese nicht mehr eindeutig Personen zugeschrieben werden kann, verstärkt sich beim Menschen das Gefühl von Ohnmacht.

Aus christlicher Sicht ist diese Sorge allerdings nichts fundamental Neues. Vielmehr erkennen Christinnen und Christen an, dass sie sich in einer »gefallenen« Welt vorfinden, die genau nach diesem Muster strukturiert ist. Selbst in den Zeiten vor KI ist die Vorstellung von maximaler Eigenverantwortung und Kontrolle über alle Folgen des eigenen Tuns eine Illusion (vgl. Costanza 228f.). Meist sind diejenigen, die sich als mächtig und frei empfinden, die, die am meisten fremdgesteuert sind, ob nun durch die Erwartungen anderer oder durch ihre eigenen Triebe, Traumata, Ängste oder Sehnsüchte.

Dies soll allerdings die Herausforderung, die mit KI auf uns zukommt, nicht kleinreden. Wenn man Erbsünde als eine strukturelle Sünde versteht, als eine Eigendynamik der geschaffenen Wirklichkeit, welche einzelnen Menschen Freiheit nimmt, unmenschliche Handlungen fördert, Glaube verunmöglicht, dann kann diese Wirklichkeit verstärkt werden und die Menschheit noch stärker »dem Bösen« (als einem unpersönlichen Akteur!) verfallen. So manifestiert sich beispielsweise das Streben nach Macht in institutionellen und kulturellen Mustern. In diesem Zusammenhang zeigt sich das Phänomen einer transpersonalen Schuld (Gründel 82), wenngleich der Einzelne durch Duldung oder Mitwirkung an diesen Strukturen eine Form von Mitschuld tragen kann (vgl. Büsch 213f.).

Dort wo Aufgaben von künstlicher Intelligenz übernommen werden, wird die Zuschreibung von Verantwortung immer schwieriger. Selbst wenn die Erfahrung eigener Autonomie eingeschränkt ist und Entscheidungsprozesse undurchsichtig werden, gilt es, dieser Entwicklung nicht untätig, sondern aktiv zu begegnen. Aber gibt es einen Ausweg aus dieser Verstrickung? In Anlehnung an Metz bedarf es zunächst einer Befreiung von »unserer Art der Übermacht« und »von der unveränderten Praxis unserer Wünsche« (Metz 61). Die Befreiung von Ohnmacht ist damit auch eine Befreiung von der unreflektierten Fixierung eigener Wünsche. Denn trotz dieser strukturellen, existenziellen Bedingtheit menschlichen Handelns ist der Mensch, insofern man an seiner Fähigkeit, ethische Entscheidungen treffen und die eigene Haltung beeinflussen zu können, festhält, nicht von der Verantwortung des eigenen Handelns entbunden.

BILDSERIE 3: Chat-GPT-5_1

Dall-E vermeidet 2025, nach neuen ethischen Vorgaben, Sicherheitsregeln und vielfach erweiterten Trainingsdaten jegliche personale Darstellung und bietet jetzt eine barock anmutende Wolken- und Lichterstruktur an.

Tugendhafte KI – tugendhaftere Menschen?

Nicht nur der Wille, sondern auch unsere oft eingeschränkte Erkenntnis dessen, was gut ist, hindert uns daran, unserer Verantwortung wirklich gerecht zu werden. Versteht man das Gute als das Vernunftgemäße, kann dafür argumentiert werden, dass KI in komplexen ethischen Entscheidungssituationen eine hilfreiche Unterstützung sein kann. KI ermöglicht je nach Ausgangssituation einen deutlich besseren Zugang zu entscheidungsrelevanten Daten und praktikablen Wegen, die eigenen Intentionen umzusetzen. Dadurch, so erscheint es auf den ersten Blick, wird unser Freiheitsspielraum vergrößert.

Es ist jedoch wichtig zu berücksichtigen, dass die Analysen von KI nicht auf Erfahrung oder einem echten Verstehen beruhen. Stattdessen basieren diese auf der Interpretation statistischer Muster, die sich aus den Trainingsdaten ergeben (vgl. Bender et al. 611f.). Daher stellt sich die Frage, ob KI-gestützte ethische Einschätzungen tatsächlich zu einem besseren Verständnis des Guten beitragen oder ob sie eher das Risiko bergen, unbewusst kollektiven Fehlurteilen zu folgen oder unreflektiert einseitige Sichtweisen zu übernehmen.

Dies bedeutet jedoch nicht, dass Wissen über eine Entscheidungssituation nicht grundsätzlich zu besseren Entscheidungen führen kann. Um Tugenden zu entwickeln, die Aristoteles als erwerbbare Haltung (Habitus) und nicht als bloße natürliche Fähigkeit versteht, braucht der Mensch sowohl allgemeines Wissen als auch Erfahrungswissen. Der Klugheit kommt bei der Entwicklung von Charaktertugenden eine zentrale Rolle zu, da sie ermöglicht, das Ziel ethischen Handelns auf der Grundlage von erfahrungsbasiertem, praktisch bewährtem Wissen zu erfassen. Kann eine KI in diesem Sinne klug sein? Lukas Brand betont, dass die Aneignung von Erfahrungswissen für KI-Systeme die größte Herausforderung darstellt, nicht zuletzt, weil dafür sehr viele kritisch geprüfte Datensätze nötig wären, die viele ethische Theorien abdecken (Brand 132f.). Gleichzeitig weist er darauf hin, dass sowohl Menschen als auch KI-Systeme fremde Handlungen nur mit einer gewissen Wahrscheinlichkeit beurteilen können, wenn es darum geht, den dahinterliegenden Zweck zu erkennen (ebd. 130). Zu klären ist, ob KI bei der Bestimmung solcher Wahrscheinlichkeiten präziser ist und damit den Menschen zu tugendhafterem Handeln verhelfen kann.

Tugenden bieten zwar eine grundlegende Orientierung für den Zweck menschlichen Lebens, dennoch bleibt bei der Verwirklichung dieses Zwecks ein Erkenntnisdefizit bestehen (Höffe 16–18). Nach Aristoteles gibt es eine Tugend, genannt Epikie, die dann zum Tragen kommt, wenn eine Gesetzesformel oder ein allgemeines Prinzip einer konkreten Situation nicht mehr gerecht werden. Sie wahrt die dahinterstehende Intention und ermöglicht ein angemessenes Urteil im Einzelfall (vgl. Virt 167). Thomas von Aquin konkretisiert diesen Gedanken, indem er die Gottebenbildlichkeit und die damit angestrebte Christusähnlichkeit als Grundlage ethischen Handelns betont. Epikie wird damit nicht länger als rein intellektuelle Tugend verstanden, sondern als besondere Fähigkeit jedes Menschen: Durch seine Gottebenbildlichkeit hat der Mensch Anteil an der Gerechtigkeit Gottes und damit die Aufgabe, »den Mitmenschen als Ebenbild Gottes optimal gerecht zu werden« (Virt 170).

Vor diesem Hintergrund stellt sich die Frage, ob eine auf statistischer Auswertung basierende Entscheidung für ein fallgerechtes Urteil tatsächlich ausreicht. Oder setzt menschliche Tugend nicht vielmehr voraus, sich selbst als handelndes Subjekt zu erfahren? Insbesondere die gelebte Gemeinschaft zwischen Gott und Mensch erweist sich in Bezug auf KI als ein nicht replizierbares Merkmal des Menschseins. Zu diesem Ergebnis kommt auch Marius Dorobantu, der am Beispiel der Gottebenbildlichkeit zeigt, dass zentrale theologische Konzepte unter den Bedingungen von KI neu geschärft werden müssen (vgl. Dorobantu 187f.). Wenn diese gelebte Gemeinschaft sich auf das Zusammenleben und damit auf das Handeln von uns Menschen immer wieder bestärkend auswirkt, dann ist im Fall KI-gestützter ethischer Entscheidungsfindung ein abschließendes menschliches Urteil nicht zu ersetzen.

Unfrei wird der Mensch gegenüber künstlicher Intelligenz dann, wenn er Vorschläge dieser nicht mehr evaluieren kann und deren Urteile in jeder moralischen Entscheidungssituation unhinterfragt übernimmt. KI kann zur Erweiterung menschlicher Freiheit beitragen, indem sie zusätzliche Argumente in den Prozess der Urteilsfindung einbringt. Für die Kultivierung von Tugenden aber ist das Zusammenwirken verschiedener intellektueller und nicht-intellektueller Tugenden notwendig, so beispielsweise die Fähigkeit zur Selbstkritik sowie die Einbeziehung motivationaler und affektiver Faktoren des Handelns (Halbig 9f.).

Soll der Einsatz von KI nicht zur Verhinderung, sondern zur Förderung der Tugendbildung beitragen, bedarf es eines Bewusstseins dafür, dass jede an KI übertragene Verantwortung letztlich an die eigene Verantwortung rückgebunden bleibt (vgl. Büsch 215; Rath 476f.). Auch wenn der Mensch sich immer wieder mit seinem Unvermögen konfrontiert sieht, das als gut Erkannte nicht ausnahmslos verwirklichen zu können, ist es diese Erfahrung der Kontingenz, die ihm ermöglicht, sich als erlösungsbedürftiges Wesen zu erkennen. Die Ohnmacht hinsichtlich des selbstständigen Erreichens dieses Ziels fördert somit das Bewusstsein, auf die Gnade Gottes angewiesen zu sein. Wenn eigentliches Ziel des Tugenderwerbs die ewige Erfüllung in Gemeinschaft mit Gott ist, dann hat dieser Charakterbildungsprozess einen unmittelbaren theologischen Zweck (vgl. Grössl 43). Wird der Mensch allerdings zu sehr und vor allem ohne eigene Zustimmung optimiert und existenzielle Herausforderungen des Lebens minimiert, zerstört dies die Möglichkeit auf Ausbildung eines tugendhaften, »christusförmigen« Charakters.

Fazit und Ausblick

Die zunehmende Etablierung von künstlicher Intelligenz in allen Lebensbereichen wird unsere Art des Zusammenlebens, Weisen der Entscheidungsfindung und wahrscheinlich auch unsere Glaubenspraxis nachhaltig verändern. Wie alle Technologien kann KI dazu genutzt werden, die Handlungsspielräume einiger weniger auf Kosten einer Mehrheit zu vergrößern. Hier lassen sich in freien Gesellschaften entsprechende vorbeugende Maßnahmen treffen. Die größere Gefahr besteht darin, dass in Zukunft viele Menschen freiwillig Verantwortung abgeben und ihre eigene Rolle als moralische Akteure nicht mehr wahrnehmen. Dies wiederum erhöht die Wahrscheinlichkeit, dass ungewollte Dynamiken entstehen, die von keiner handelnden Person mehr initiiert oder kontrolliert werden.

Aus theologischer Sicht kann man diese Entwicklung im Lichte des Narrativs von Sündenfall und Erlösung deuten. Strukturelle Sünde kann darin bestehen, dass gesellschaftliche Mechanismen in Verbindung mit nicht-überwindbaren individuellen Defiziten in eine Abwärtsspirale führen, die mit einem Verlust von moralischer Freiheit und Freiheit zum Glauben einhergeht. Erlösung kann bedeuten, einen Weg aus dieser Abwärtsspirale gezeigt zu bekommen bzw. befähigt zu werden, einen solchen Weg zu gehen. Dass Christinnen und Christen erlöst sind, sieht man ihnen nicht immer an. Wir können im Blick auf den christlichen Glauben aber hoffen, dass christlich motivierte Akteure verhindern können, dass künstliche Intelligenz in eine Abwärtsspirale führt. Vielleicht hat der begnadete Mensch sogar ein gottgegebenes Gespür dafür, dass eine gesellschaftliche Entwicklung dem göttlichen Heilsplan entgegenläuft. Wenn der Blick auf Verantwortungsübernahme und auf personale Beziehung – zu Gott wie auch zu den Mitmenschen – geschärft bleibt, können Menschen durch neue Technologien ermächtigt werden. Und es ergeben sich sogar Chancen für die Glaubensgemeinschaften, KI zu nutzen, um mehr Menschen zum Glauben zu befähigen und das Evangelium zu verkünden. n

Dr. Johannes Grössl ist Professor für Systematische Theologie an der Universität Paderborn.

Teresa Gladbach ist Referendarin mit den Fächern Chemie und Katholische Religionslehre am Städtischen Gymnasium Steinheim, Nordrhein-Westfalen.

Literatur

Aristoteles, Nikomachische Ethik, griechisch-deutsch, hrsg., übers. und mit Einleitung und Anmerkungen versehen von Günther Bien, Hamburg 1985.

Bender, Emily/McMillian-Major, Angelina/Gebru, Timnit/Shmitchell, Shmargaret, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, In: Proceedings of the 2021 ACM Conference on Fairness, Accountability and Transparency, New York 2021, 610–623.

Brand, Lukas, Künstliche Tugend. Roboter als moralische Akteure, Regensburg 2018.

Büsch, Andreas, Das Geschöpf im Netz: Auf der Suche nach dem digitalen Selbst. Ansätze einer theologischen Anthropologie im Zeitalter der Digitalität, in: Beck, Wolfgang/Nord, Ilona/Valentin, Joachim (Hg.), Theologie und Digitalität, Freiburg 2021, 200–215.

Chapekis, Athena/Lieb, Anna, Google users are less likely to click on links when an AI summary appears in the results, https://www.pewresearch.org/short-reads/2025/07/22/google-users-are-less-likely-to-click-on-links-when-an-ai-summary-appears-in-the-results/.

Costanza, Christina, Eingebundene Freiheit und Gott. Anthropologische und theologische Überlegungen zur Tiefen-Mediatisierung, in: Beck, Wolfgang/Nord, Ilona/Valentin, Joachim (Hg.), Theologie und Digitalität, Freiburg 2021, 216–233.

Dorobantu, Mihail, Theological Anthropology Progressing through Artificial Intelligence, in: van den Brink, Gijsbert/Peels, Rik/Sollereder, Bethany (Hg.), Progress in Theology. Does the Queen of the Sciences Advance? New York 2025, 186-202.

Fenner, Dagmar, Digitale Ethik. Eine Einführung, Tübingen 2025.

Göcke, Benedikt/Grössl, Johannes, Anthropologie der Digitalisierung. Die Herausforderungen digitaler Technologien für Philosophie, Theologie und Kirche, in: Zeitschrift für Theologie und Philosophie 1:3 (2021), 327–340.

Grössl, Johannes, Der bleibende Wert der Sterblichkeit – vor dem Hintergrund christlicher Anthropologie und transhumanistischer Utopie, in: Benthien, Claudia/Schmidt, Annette/Wobbeler, Claudia (Hg.), Vanitas und Gesellschaft, Berlin/Boston 2021, 29–43.

Gründel, Johannes (Hg.), Schuld und Versöhnung, Mainz 1985.

Halbig, Christoph, Was ist eine Tugend? In: Halbig, Christoph/Timmermann, Felix W. (Hg.), Handbuch Tugend und Tugendethik, Wiesbaden 2020, 1–14.

Höffe, Otfried, Ethik als praktische Philosophie – Methodische Überlegungen, in: Ders. (Hg.), Aristoteles: Nikomachische Ethik, 4., neu bearbeitete und ergänzte Auflage, Berlin 2019, 9–28.

Joost, Gesche, No App, No Access. Wie der Zugang zum Internet über gesellschaftliche Teilhabe entscheidet, in: Beck, Wolfgang/Nord, Ilona/Valentin, Joachim (Hg.), Theologie und Digitalität. Ein Kompendium, Freiburg 2021, 32–49.

Metz, Johann B., Jenseits bürgerlicher Religion. Reden über die Zukunft des Christentums, München 1980.

Rath, Matthias, Digitalisierung als ethischer Anlass. Zu den Grenzen einer Ethik für Maschinen, in: Beck, Wolfgang/Nord, Ilona/Valentin, Joachim (Hg.), Theologie und Digitalität, Freiburg 2021, 464–479.

Quenzel, Gudrun u.a., Jugend 2024 – 19. Shell Jugendstudie. Pragmatisch zwischen Verdrossenheit und gelebter Vielfalt, Weinheim/Basel 2024.

Virt, Gerfried, Epikie – verantwortlicher Umgang mit Normen. Eine historisch-systematische Untersuchung, Mainz 1983.