Die enge Verbindung zwischen Ethik, Künstliche Intelligenz und Theologie des San Tomso von Aquino – Die enge Verbindung zwischen Ethik, Künstliche Intelligenz und die Theologie des Heiligen Thomas von Aquin – Die enge Verbindung zwischen Ethik, Künstliche Intelligenz und die Theologie des Heiligen Thomas von Aquin – Die enge Verbindung zwischen Ethik, künstlicher intelligenz und der Theologie des Sankt Thomas von Aquin
Italienisch, Englisch, spanisch, niederländisch
DIE ENGE VERBINDUNG ZWISCHEN ETHIK, INELLIGINS UND UND TOMOGE ZU DIESEM ZU DIESEM DES AQUINE
Die Maschine perfektioniert nur das, was sie bereits im Menschen vorfindet: kann einen wahren Gedanken verfeinern, aber erzeuge keine Wahrheit; kann einen erfolgreichen Satz bereinigen, aber füge nicht den Geist ein, der es hervorgebracht hat. Und gerade hier wird die Parallele zum thomistischen Prinzip deutlich: «gDie Vernunft nimmt die Natur nicht weg, aber SchlussT (Gnade zerstört die Natur nicht, aber er perfektioniert es)»
— Theologie —
.
.
![]()
.
Dieser Artikel für unsere Seite Theologie Es basiert auf meinem neuesten Buch Freiheit verweigert, von unseren Editionen herausgegeben und zum Verkauf angeboten WHO.

Ich bereite mich darauf vor, dieses Thema anzusprechen Im Zusammenhang mit künstlicher Intelligenz kam mir eines der prophetischen Meisterwerke des modernen Kinos in den Sinn: 2001: Odyssee im Weltraum, unter der Regie von Stanley Kubrick und veröffentlicht in 1968. HAL erscheint in diesem Film 9000, eine sehr hohe künstliche Intelligenz, an Bord des Raumfahrzeugs installiert Entdeckung. HAL ist in der Berechnung perfekt, unfehlbar im Datenmanagement, aber ohne das, was das Urteil menschlich macht: Gewissen. Wenn seine Programmierung im Widerspruch zu den Missionszielen steht, HAL wird nicht „verrückt“: es wendet einfach Logik ohne den moralischen Filter an, ohne Absicht und ohne die Fähigkeit, Gut und Böse zu unterscheiden. Das Ergebnis ist erschreckend: Eine sehr mächtige Maschine wird gerade deshalb zu einer tödlichen Bedrohung, weil sie den Menschen und den Wert des Lebens nicht versteht. Diese Intuition – filmisch, aber theologisch klar – zeigt, dass künstliche Intelligenz nicht nur technische Probleme aufwirft, aber radikal moralisch. Es geht nicht um Rechenleistung – was niemand bestreitet –, sondern um die Gefahr, dass der Mensch das, was ausschließlich seinem Gewissen gehört, an ein unpersönliches System delegiert. Und genau das passiert, wenn man eine Plattform selbst entscheiden lässt, was „gut“ oder „schlecht“ ist., was gesagt werden kann oder was verschwiegen werden muss: Eine Handlung, die moralisch sein sollte, wird der Maschine übergeben. Und dies ist nur der erste Schritt der moralischen Delegation an die Maschine.
Sobald die Beurteilung von Wahrheit und Unwahrheit der Technologie überlassen wurde, Der nächste Schritt wird fast unausweichlich: Geben Sie auch den pädagogischen gesunden Menschenverstand und die persönliche Verantwortung auf. Oder wenn ein Elternteil den Algorithmus komplett mit der Aufgabe betraut, zu filtern, was ein Kind sehen kann, ohne kritische Wachsamkeit: es bedeutet, die Bildungsverantwortung an ein statistisches System zu delegieren. Oder sogar wenn Sie künstliche Intelligenz fragen, ob ein Satz „beleidigend“ oder „moralisch akzeptabel“ ist.: es bedeutet, eine Aufgabe, die Bewusstsein erfordert, auf die Maschine zu übertragen, Ich rechne nicht.
Bisher wurden keine technischen Details dargestellt sie sind vielmehr der entscheidende Punkt. Wenn die Absicht fehlt, Die Maschine kann es nie verstehen was der Mann tut, wenn er spricht, warnt, Bildung, Pflege, korrigiert. Und da er keinen Zugang zum „Warum“ hat, reduziert alles auf das „Wie“: wertet die Bedeutung nicht aus, es analysiert nur die Form. Hier werden Missverständnisse zu unvermeidlichen und systematischen Fehlern. Das ist es, was passiert, zum Beispiel, wenn ein Priester einen Gläubigen ermahnt oder ein Vater seinen Sohn zurechtweist: Das menschliche Gewissen unterscheidet zwischen Strenge und Grausamkeit, zwischen Korrektur und Beleidigung; Der Algorithmus erfasst nur die Härte des Satzes und kennzeichnet ihn als „feindliche Sprache“.. Der Arzt, der schreibt: „Dieses Risiko führt zum Tod“, kann seine Worte als „gewalttätigen Inhalt“ einstufen., weil die Maschine eine Diagnose nicht von einer Bedrohung unterscheidet. Und ein einfacher Bibelvers kann als „beleidigende Sprache“ zensiert werden, weil künstliche Intelligenz keinen moralischen Sinn erkennt, aber nur die Oberfläche des Wortes. Aus diesem Grund, jede Verwendung künstlicher Intelligenz, die Sprache berührt, das Urteil, Die Beziehung oder Freiheit muss im Lichte der Moraltheologie untersucht werden, nicht Computertechnik.
Die Unterscheidung ist entscheidend: Die Maschine entscheidet nicht, wählen; wertet nicht aus, Filter; urteilt nicht, Einstufung. Und was klassifiziert, ist niemals gut oder schlecht, aber nur das Wahrscheinliche und das Unwahrscheinliche, das Häufige und das Seltene, das statistische Akzeptable und der algorithmische Verdacht. Das menschliche Bewusstsein bewirkt genau das Gegenteil: nimmt die Einzigartigkeit der Handlung und die Freiheit des Handelnden ernst; wägt Absichten ab, Umstände, Konsequenzen; unterscheidet zwischen dem Vorwurf, der rettet, und der Beleidigung, die verletzt; zwischen Strenge aus Liebe und Grausamkeit aus Verachtung. Die Maschine sieht nichts davon.
Wenn ein Vater seinen Sohn zurückruft, Das Gewissen erkennt die Liebe, die es trägt; Der Algorithmus sieht nur eine „potenziell feindselige“ Phrase. Wenn ein spiritueller Leiter einen seiner direkten Untergebenen ermahnt, Das Gewissen sieht die Barmherzigkeit, die mit der Wahrheit einhergeht; Der Algorithmus sieht einen Verstoß gegen „Community-Standards“. Wenn eine Person spricht, um zu korrigieren, beschützen oder erziehen, Bewusstsein nimmt Endgültigkeit wahr, Die Maschine nimmt das Wort nur hart wahr. Das Ergebnis ist paradox: wo der Mensch Gerechtigkeit und Barmherzigkeit vereint, Die Maschine produziert nur Etiketten.
Moralische Ambiguität entsteht nicht durch Technologie: kommt von dem Mann, der es entworfen hat. Weil der Algorithmus nicht neutral ist: führt eine Moral aus, die er nicht kennt, aber dass andere für ihn entschieden haben. Und das sehen wir jeden Tag: wenn ein Inhalt dies in Frage stellt politisch korrekt, der Algorithmus interpretiert es als „Feindseligkeit“; wenn er einige kulturelle Strömungen kritisiert wachte auf, bezeichnet es als „Diskriminierung“; wenn es Themen der christlichen Anthropologie anspricht – zum Beispiel sexuelle Unterschiede oder die Familie – richtet sich die Kritik an die mächtigen und politisierten LGBT-Lobbys, meldet es als „Hassrede“, oder „Anstiftung zur Gewalt“, das sogenannte „Hassrede”, Verbatim: Hassrede. Und das alles nicht, weil die Maschine so „denkt“., sondern weil es darauf programmiert war, so zu reagieren und zu interagieren. Der Algorithmus ist nicht neutral geboren: Es wird geboren und bereits von denen erzogen, die es bauen, geprägt von ideologischen Kriterien, die Kritik mit Aggression verwechseln, Reflexion mit Beleidigung, Wahrheit mit Gewalt. Mit anderen Worten, Der Algorithmus hat Meister: spiegelt ihre Ängste wider, verstärkt ihren Glauben, es zensiert, was sie fürchten. Die Plattformen filtern nicht nach objektiven Kriterien, sondern nach vorherrschenden Ideologien: Was die Welt vergöttert, wird gefördert, woran das Evangelium erinnert, wird vermutet; was befriedigt, wird verstärkt, Was warnt, wird zum Schweigen gebracht. Das Ergebnis ist eine neue Form der Kulturzensur: elegant, höflich, digital sterilisiert – aber immer noch zensiert.
Diese meiner Analysen entstehen aus Überlegungen, aus den Studien und Beobachtungen, die ich seit einiger Zeit auf anthropologisch-kultureller Ebene und zur realen Funktionsweise digitaler Plattformen untersuche. Genau aus diesem Grund finde ich es wichtig zu beachten, wie, auf einer anderen, aber komplementären Ebene, der Dikasterium für die Glaubenslehre Ich habe mich kürzlich an einen entscheidenden Grundsatz erinnert, der im Wesentlichen in die gleiche Gedankenrichtung geht wie ich, bekräftigt, dass künstliche Intelligenz, und gleichzeitig in der Lage zu sein, „am Wissenswachstum mitzuwirken“, Sie kann in keiner Weise mit menschlicher Intelligenz gleichgesetzt werden, die eine Tiefe und Dynamik besitzt, die kein maschinelles Lernsystem reproduzieren kann. Dieses Dokument unterstreicht, dass Künstliche Intelligenz nicht versteht, aber aufwendig, urteilt nicht, aber rechnen, und ist grundsätzlich nicht in der Lage, die moralische Dimension der Handlung zu erfassen, denn es mangelt ihm an Gewissen und Innerlichkeit (vgl.. WHO). Anschließend warnt er deutlich davor, dass moralisches Urteilsvermögen nicht einem algorithmischen Gerät zugeschrieben werden kann: Dies würde bedeuten, der ethischen Verantwortung des Menschen zu entsagen und die Wahrheit einem statistischen Mechanismus zu überlassen. Die Illusion einer künstlichen moralischen Intelligenz wird in dem Dokument als eine Form naiver Technologievergötterung definiert, denn die Wahrheit ist nicht das Ergebnis einer Berechnung, sondern von der Begegnung zwischen Freiheit und Gnade[1].
Diese meisterhafte Reflexion bestätigt den zentralen Punkt: Bewusstsein kann nicht programmiert werden. Die Maschine kann dabei helfen, aber urteile nicht; kann helfen, aber nicht interpretieren; filtern kann, aber erkenne es nicht. Was zur Freiheit des Menschen – und damit zu seiner Beziehung zu Gott – gehört, kann keiner Technologie delegiert werden.
Die Ethik der künstlichen Intelligenz offenbart somit ihre Fragilität: Eine Maschine kann so programmiert werden, dass sie Wörter erkennt, aber er kann das Wort nicht verstehen. Es kann Befehle identifizieren, keine Gebote. Es kann Verhaltensweisen registrieren, Unterscheide nicht zwischen Tugend und Laster. Es kann Zusammenhänge erkennen, begreife die göttliche Offenbarung nicht. und vor: kann Gott nicht kennen. Eine Kultur, die sich daran gewöhnt, das Gewissensurteil durch die Prüfung eines Algorithmus zu ersetzen, vergisst am Ende, dass Freiheit ein spiritueller Akt ist, kein Ausgang Digital[2]. Und hier wird die Moraltheologie entscheidend, weil es den Menschen daran erinnert: Die Wahrheit ist immer persönlich; Gut ist immer Absicht; Bewusstsein ist immer irreduzibel; Moralische Urteile können nicht an irgendjemanden delegiert werden, viel weniger zu einem Software.
Das bedeutet nicht, die Technologie zu verteufeln, aber setze es wieder an seinen Platz: das eines Instruments, kein Richter. Künstliche Intelligenz, Zu dieser Zeit, Es kann die menschliche Arbeit sicherlich agiler machen, aber er kann ihn im entscheidenden Punkt nicht ersetzen: moralisches Urteil, der einzige Bereich, in dem es nicht ausreicht, zu wissen, „wie die Dinge sind“, Aber Sie müssen entscheiden, warum sie das tun.. Es ist der Ort des Bewusstseins, wo der Mensch seine Absichten abwägt, übernimmt Verantwortung, Er ist für seine Taten vor Gott verantwortlich. Das Auto passt hier nicht, kann nicht eintreten: berechnen, aber er wählt nicht; analysieren, aber er antwortet nicht; Anfang, aber er liebt nicht. Wie ein ausgezeichneter plastischer Chirurg kann künstliche Intelligenz das, was bereits schön ist, verbessern, aber es kann nicht schön machen, was nicht schön ist, kann Missverhältnisse korrigieren, kann bestimmte Zeichen der Hautalterung abschwächen; aber er kann nicht aus dem Nichts erschaffen, noch aus der Schönheit, die nicht da ist, noch die verblasste Jugend wiederherstellen. Es kann ein faltiges Gesicht betonen, aber er kann kein neues Gesicht erfinden. gleichfalls, Künstliche Intelligenz kann bei der Organisation von Daten helfen, einen Text klarstellen, komplexe Themen zu ordnen; aber es kann einem begrenzten und mittelmäßigen Subjekt keine Intelligenz verleihen, noch das Gewissen für diejenigen, die es nicht haben.
Das Bild, vielleicht etwas grob, aber effektiv, es ist das des Vollblutpferdes und des Ponys: Technologie kann trainieren, Heilung, Lassen Sie den Araberhengst sein Bestes geben, Aber es wird niemals aus einem armen Pony ein Vollblut machen. Was gibt es nicht, Kein Algorithmus wird es jemals schaffen können. Die Maschine perfektioniert nur das, was sie bereits im Menschen vorfindet: kann einen wahren Gedanken verfeinern, aber erzeuge keine Wahrheit; kann einen gelungenen Satz aufpolieren, aber es kann nicht das Bewusstsein erreichen, aus dem dieser Satz entstand.
Die Maschine perfektioniert nur das, was sie bereits im Menschen vorfindet: kann einen wahren Gedanken verfeinern, aber erzeuge keine Wahrheit; kann einen erfolgreichen Satz bereinigen, aber füge nicht den Geist ein, der es hervorgebracht hat. Und gerade hier wird die Parallele zum thomistischen Prinzip deutlich:
«gDie Vernunft nimmt die Natur nicht weg, aber vervollkommnet (Gnade zerstört die Natur nicht, aber er perfektioniert es)»[3].
An diesem Punkt wird es unvermeidlich Richten Sie Ihren Blick auf das anspruchsvollere Gelände: wenn die Maschine nur das perfektionieren kann, was sie findet, Dann liegt das eigentliche Problem nicht im Algorithmus, sondern der Mann, der sich ihm ausliefert. Und hier entfaltet die thomistische Analogie ihre ganze Stärke: So wie die Gnade nicht auf die Leere wirkt, Technologie funktioniert also nicht bei Abwesenheit von Bewusstsein. Und wenn der Mensch aufhört, seine eigene moralische Innerlichkeit auszuüben, Es ist nicht die Maschine, die an Macht gewinnt: Es ist der Mensch selbst, der an Statur verliert. An diesem Punkt ergibt sich das entscheidende – nichttechnische – Problem, aber spirituell – was wir jetzt ansprechen müssen. Wenn wir verstehen, dass die moralische Delegation an die Maschine kein technischer Zufall, sondern ein anthropologischer Fehler ist, Die Frage wird sich als logische Konsequenz stellen: Was verliert der Mensch, wenn er sein Gewissen aufgibt?? Er verliert nicht nur eine Fähigkeit, sondern eine spirituelle Dimension, derjenige, in dem die Bedeutung von Gut und Böse entschieden wird. Technologie kann mächtig sein, anspruchsvoll, sehr schnell, aber es kann kein moralisches Subjekt werden.
Die christliche Tradition Er hat immer gelehrt, dass die Ausübung des gesunden Menschenverstandes eine Kunst ist, die aus Anmut und Freiheit entsteht: ein Gleichgewicht zwischen Besonnenheit, Wahrheit und Nächstenliebe. Der Algorithmus kennt keine dieser drei. Das ist nicht umsichtig, weil es nicht wertet; es ist nicht wahr, weil er es nicht weiß; Es ist nicht gemeinnützig, weil er nicht liebt. Aus diesem Grund, Der Einsatz künstlicher Intelligenz als Werkzeug ist möglich; Es als Kriterium zu verwenden ist unmenschlich, zu denken, dass es den Menschen ersetzen kann, der nicht in der Lage ist, einen Gedanken zu artikulieren, oder um geistige Arbeit zu leisten, es ist gelinde gesagt illusorisch. Technologie kann Menschen unterstützen, Verurteile ihn niemals; Das Wort kann helfen, Ersetzen Sie es niemals; kann der Mission dienen, Bestimmen Sie niemals seine Grenzen.
Eine Zivilisation, die an die Maschine delegiert Was zum Bewusstsein gehört, verliert seine spirituelle Identität: wird zu einem Unternehmen, das viel weiß, aber er versteht wenig; der ununterbrochen redet, aber er hört selten zu; der alles beurteilt, aber sie beurteilt sich nicht mehr selbst.
Katholische Moral erinnert uns daran, dass das Kriterium des Guten nicht das ist, was die Welt akzeptiert, sondern was Gott lehrt. Und Gott spricht nicht zu Algorithmen: Sprich zu den Herzen. Die Logos er wurde Fleisch, kein Code; Er ist Mensch geworden,, Ich plane nicht; es wurde ein Bericht erstellt, kein Mechanismus. Aus diesem Grund keine künstliche Intelligenz, jedoch fortgeschritten, Kann es jemals zum ultimativen Kriterium dafür werden, was wahr ist?, rechts, gut und menschlich. Denn Gutes lässt sich nicht berechnen: und identifizieren.
Von der Insel Patmos, 7 Februar 2026
.
HINWEIS
[1] Sehen. Dikasterium für die Glaubenslehre, Alt und neu. Hinweis zum Zusammenhang zwischen künstlicher Intelligenz und menschlicher Intelligenz (28 Januar 2025). — Zur korrekten Integration menschlicher Fähigkeiten und technologischer Werkzeuge bei der Ausarbeitung moralischer Urteile.
[2] NdA. Ausgabe bedeutet Endergebnis und ist ein technischer IT-Begriff, der sich auf den Datensatz bezieht, den ein Computer während des Produktionsprozesses ausgibt, Dies steht im Gegensatz zur Eingabe, die stattdessen die Eingabedaten sind.
[3] Thomas von Aquin, FRAGE, ich, Q.1, a.8, Anzeige 2, in Die Werke des Heiligen Thomas von Aquin, ed. Löwe.
.
DIE ENGE VERBINDUNG ZWISCHEN ETHIK, Künstliche Intelligenz und die Theologie des Heiligen Thomas von Aquin
Die Maschine perfektioniert nur das, was sie bereits im Menschen am Werk findet: es kann einen wahren Gedanken verfeinern, kann aber keine Wahrheit erzeugen; Es kann eine wohlgeformte Phrase bereinigen, kann aber den Geist, der es erzeugt hat, nicht durchdringen. Und gerade hier wird die Parallele zum thomistischen Prinzip deutlich: “Gnade die Natur nicht zerstören, aber vervollkommnet (Gnade zerstört die Natur nicht, aber perfektioniert es)”
— Theologie —
.
Dieser Artikel für unsere Theologie Seite stammt aus meinem neuesten Buch Freiheit verweigert, von unserer eigenen Presse veröffentlicht und zum Kauf erhältlich Hier. Als ich mir vorgenommen habe, dieses Thema im Zusammenhang mit künstlicher Intelligenz anzusprechen, Meine Gedanken kehrten zu einem der prophetischen Meisterwerke des modernen Kinos zurück: 2001: Eine Weltraum-Odyssee, unter der Regie von Stanley Kubrick und veröffentlicht in 1968. In diesem Film erscheint HAL 9000, eine äußerst fortschrittliche künstliche Intelligenz, die an Bord der Raumsonde Discovery installiert ist. HAL ist in der Berechnung perfekt, unfehlbar im Datenmanagement, doch ohne das, was menschliches Urteilsvermögen wirklich menschlich macht: Gewissen. Wenn seine Programmierung mit den Zielen der Mission in Konflikt gerät, HAL wird nicht „verrückt“: es wendet einfach Logik ohne moralische Filterung an, ohne Absicht, und ohne die Fähigkeit, Gut und Böse zu unterscheiden. Das Ergebnis ist erschreckend: Eine überaus mächtige Maschine wird gerade deshalb zu einer tödlichen Bedrohung, weil sie weder den Menschen noch den Wert des Lebens versteht. Diese Intuition – filmisch, dennoch theologisch klar – zeigt, dass künstliche Intelligenz Probleme aufwirft, die nicht nur technischer Natur sind, aber radikal moralisch. Es geht nicht um Rechenleistung – was niemand bestreitet –, sondern um das Risiko, dass der Mensch das, was ausschließlich seinem Gewissen gehört, an ein unpersönliches System delegiert. Und genau das passiert, wenn man einer Plattform erlaubt, autonom zu entscheiden, was „gut“ oder „schlecht“ ist., was gesagt werden darf und was zum Schweigen gebracht werden muss: man übergibt der Maschine eine Handlung, die moralisch sein sollte. Und dies ist nur der erste Schritt der moralischen Delegation an die Maschine.
Sobald die Beurteilung von Wahrheit und Unwahrheit der Technologie überlassen wurde, Der nächste Schritt wird fast unausweichlich: Verzicht auf pädagogischen gesunden Menschenverstand und persönliche Verantwortung. Wenn ein Elternteil die Aufgabe, zu filtern, was ein Kind sehen darf, vollständig einem Algorithmus anvertraut, ohne kritische Aufsicht, Dies bedeutet, dass die Bildungsverantwortung an ein statistisches System delegiert wird. Oder nochmal, wenn man Künstliche Intelligenz fragt, ob eine Phrase „beleidigend“ oder „moralisch akzeptabel“ ist, Das bedeutet, der Maschine eine Aufgabe zu übertragen, die Gewissen erfordert, keine Berechnung.
Bisher handelt es sich nicht um eine Sammlung technischer Details, sondern vielmehr der entscheidende Punkt. Wo die Absicht fehlt, Die Maschine kann nie verstehen, was der Mensch tut, wenn er spricht, ermahnt, erzieht, heilt oder korrigiert. Und da es keinen Zugriff auf das „Warum“ hat, es reduziert alles auf das „Wie“: es wertet die Bedeutung nicht aus, es analysiert nur die Form. Hier werden Missverständnisse unvermeidlich und Fehler systematisch. Das ist es, was passiert, Zum Beispiel, wenn ein Priester einen Gläubigen ermahnt oder ein Vater ein Kind zurechtweist: Das menschliche Gewissen unterscheidet zwischen Härte und Grausamkeit, zwischen Korrektur und Beleidigung; Der Algorithmus registriert lediglich die Härte der Phrase und markiert sie als „feindliche Sprache“.. Ein Arzt, der schreibt: „Dieses Risiko führt zum Tod“, kann seine Worte als „gewalttätigen Inhalt“ einstufen., weil die Maschine nicht zwischen Diagnose und Bedrohung unterscheidet. Und selbst ein einfacher Bibelvers kann als „beleidigende Sprache“ zensiert werden., weil Künstliche Intelligenz keinen moralischen Sinn erkennt, aber nur die Oberfläche der Worte. Aus diesem Grund, jede Verwendung künstlicher Intelligenz, die Sprache berührt, Urteil, Beziehung oder Freiheit müssen im Lichte der Moraltheologie untersucht werden, nicht Computertechnik.
Die Unterscheidung ist entscheidend: Die Maschine entscheidet nicht, es wählt aus; es wertet nicht aus, es filtert; es urteilt nicht, es klassifiziert. Und was es klassifiziert, ist niemals gut oder böse, aber nur das Wahrscheinliche und das Unwahrscheinliche, das Häufige und das Seltene, statistische Akzeptanz und algorithmischer Verdacht. Das menschliche Gewissen tut genau das Gegenteil: es nimmt die Einzigartigkeit der Handlung und die Freiheit des Handelnden ernst; es wägt Absichten ab, Umstände und Konsequenzen; Es unterscheidet zwischen Zurechtweisung, die rettet, und Beleidigung, die verletzt; zwischen Strenge aus Liebe und Grausamkeit aus Verachtung. Die Maschine sieht nichts davon.
Wenn ein Vater ein Kind zurechtweist, Das Gewissen erkennt die Liebe, die es trägt; Der Algorithmus sieht nur eine „potenziell feindselige“ Phrase. Wenn ein spiritueller Leiter einen ihm anvertrauten Menschen ermahnt, Das Gewissen nimmt wahr, dass die Wahrheit mit der Barmherzigkeit einhergeht; Der Algorithmus sieht einen Verstoß gegen „Community-Standards“. Wenn eine Person spricht, um zu korrigieren, beschützen oder erziehen, Das Gewissen begreift den Zweck; Die Maschine nimmt nur harte Worte wahr. Das Ergebnis ist paradox: wo der Mensch Gerechtigkeit und Barmherzigkeit vereint, Die Maschine produziert nichts als Etiketten.
Moralische Ambiguität entsteht nicht durch Technologie: es entsteht von dem Mann, der es entwirft. Denn der Algorithmus ist nicht neutral: es führt eine Moral aus, die es nicht kennt, sondern welche andere sich dafür entschieden haben. Und das sehen wir jeden Tag: wenn Inhalte die politische Korrektheit in Frage stellen, der Algorithmus interpretiert es als „Feindseligkeit“; wenn es bestimmte Auswüchse der Wachkultur kritisiert, es bezeichnet es als „Diskriminierung“; wenn es Themen der christlichen Anthropologie – zum Beispiel sexuelle Unterschiede oder die Familie – anspricht, indem es mächtige und politisierte LGBT-Lobbys kritisiert, es kennzeichnet es als „Hassrede“ oder „Anstiftung zur Gewalt“. Und das alles nicht, weil die Maschine so „denkt“., sondern weil es so programmiert wurde, dass es so reagiert. Der Algorithmus ist nicht neutral geboren: es wird bereits von denen erzogen, die es bauen, geprägt von ideologischen Kriterien, die Kritik mit Aggression verwechseln, Reflexion mit Beleidigung, Wahrheit mit Gewalt. Mit anderen Worten, Der Algorithmus hat Meister: es spiegelt ihre Ängste wider, stärkt ihre Überzeugungen, zensiert, was sie fürchten. Plattformen filtern nicht nach objektiven Kriterien, sondern nach vorherrschenden Ideologien: gefördert wird, was die Welt vergöttert, woran das Evangelium erinnert, wird vermutet; was gefällt, wird verstärkt, Was ermahnt, wird zum Schweigen gebracht. Das Ergebnis ist eine neue Form der Kulturzensur: elegant, höflich, digital sterilisiert – und dennoch Zensur.
Diese Analysen entstehen aus Reflexionen, Studien und Beobachtungen, die ich seit langem auf anthropologisch-kultureller Ebene und zur realen Funktionsweise digitaler Plattformen entwickle. Genau aus diesem Grund halte ich es für wichtig, darauf hinzuweisen, wie, auf einer anderen, aber dennoch komplementären Ebene, der Dikasterium für die Glaubenslehre hat kürzlich an einen entscheidenden Grundsatz erinnert, im Wesentlichen in die gleiche Gedankenrichtung bewegen, bekräftigt, dass Künstliche Intelligenz, während es „bei der Wissenserweiterung mitwirken“ kann, kann in keiner Weise mit menschlicher Intelligenz gleichgesetzt werden, die eine Tiefe und Dynamik besitzt, die kein maschinelles Lernsystem reproduzieren kann. Dieses Dokument betont, dass Künstliche Intelligenz nicht versteht, sondern Prozesse; urteilt nicht, sondern rechnet; und ist von Natur aus unfähig, die moralische Dimension des Handelns zu erfassen, denn es mangelt ihm an Gewissen und Innerlichkeit (vgl. Hier). Darin wird daher deutlich davor gewarnt, dass moralisches Urteilsvermögen nicht einem algorithmischen Gerät zugeschrieben werden kann: Dies würde bedeuten, die ethische Verantwortung des Menschen aufzugeben und die Wahrheit einem statistischen Mechanismus zu übergeben. Die Illusion einer künstlichen moralischen Intelligenz wird in dem Dokument als eine Form naiver technologischer Vergötterung definiert, denn die Wahrheit ist nicht die Frucht der Berechnung, sondern von der Begegnung zwischen Freiheit und Gnade[1].
Diese meisterhafte Reflexion bestätigt den zentralen Punkt: Das Gewissen kann nicht programmiert werden. Die Maschine kann dabei helfen, aber nicht urteilen; es kann helfen, aber nicht interpretieren; es kann filtern, aber nicht erkennen. Was zur menschlichen Freiheit – und damit zur Beziehung des Menschen zu Gott – gehört, kann keiner Technologie delegiert werden.
Die Ethik der künstlichen Intelligenz offenbart somit ihre Fragilität: Eine Maschine kann so programmiert sein, dass sie Wörter erkennt, aber es kann das Wort nicht verstehen. Es kann Befehle identifizieren, keine Gebote. Es kann Verhaltensweisen katalogisieren, nicht zwischen Tugend und Laster unterscheiden. Es kann Zusammenhänge erkennen, die göttliche Offenbarung nicht begreifen. Und vor allem: es kann Gott nicht kennen. Eine Kultur, die sich daran gewöhnt, das Gewissensurteil durch algorithmische Überprüfung zu ersetzen, vergisst am Ende, dass Freiheit ein spiritueller Akt ist, kein digitaler Ausgang[2]. Hier kommt der Moraltheologie die entscheidende Bedeutung zu, denn es erinnert den Menschen daran, dass die Wahrheit immer persönlich ist; Gut ist immer Absicht; Das Gewissen ist immer irreduzibel; Moralische Urteile können nicht an irgendjemanden delegiert werden, am allerwenigsten für Software.
Das bedeutet nicht, die Technologie zu verteufeln, sondern es an seinen richtigen Platz zurückbringen: das eines Werkzeugs, kein Richter. Künstliche Intelligenz kann die menschliche Arbeit durchaus effizienter machen, aber es kann es an der entscheidenden Stelle nicht ersetzen: moralisches Urteil, der einzige Bereich, in dem es nicht ausreicht, zu wissen, „wie die Dinge sind“, aber man muss entscheiden, „warum man sie macht“. Dies ist der Bereich des Gewissens, wo der Mensch seine Absichten abwägt, übernimmt Verantwortung, und Antworten für seine Taten vor Gott. Hier kommt die Maschine nicht rein, kann nicht eintreten: es rechnet, aber wählt nicht; es analysiert, antwortet aber nicht; es simuliert, aber liebt nicht. Wie ein ausgezeichneter plastischer Chirurg, Künstliche Intelligenz kann das, was bereits schön ist, noch verstärken, aber es kann nicht schön machen, was nicht ist; es kann Missverhältnisse korrigieren, bestimmte Spuren der Zeit mildern, Aber es kann keine Schönheit aus dem Nichts erschaffen und auch nicht die Jugend wiederherstellen, wenn sie einmal verblasst ist. Es kann ein markantes Gesicht hervorheben, aber es kann kein neues erfinden. Auf die gleiche Weise, Künstliche Intelligenz kann bei der Organisation von Daten helfen, einen Text klären, oder komplexe Argumente ordnen; aber es kann einem begrenzten und mittelmäßigen Subjekt keine Intelligenz verleihen, noch Gewissen für jemanden, dem es fehlt.
Das Bild – vielleicht etwas krass, aber effektiv – ist das des Vollblutpferdes und des Ponys: Technologie kann trainieren, Pflegen und bringen Sie das Beste aus dem arabischen Hengst hervor, Aber es wird niemals aus einem armen Pony ein Vollblut machen. Was ist nicht da, Kein Algorithmus wird jemals etwas erschaffen. Die Maschine perfektioniert nur das, was sie bereits im Menschen am Werk findet: es kann einen wahren Gedanken verfeinern, kann aber keine Wahrheit erzeugen; es kann einen erfolgreichen Satz aufpolieren, aber ich kann das Gewissen nicht erreichen, aus dem dieser Satz stammt.
Die Maschine perfektioniert nur das, was sie bereits im Menschen am Werk findet: es kann einen wahren Gedanken verfeinern, kann aber keine Wahrheit erzeugen; Es kann eine wohlgeformte Phrase bereinigen, kann aber den Geist, der es erzeugt hat, nicht durchdringen. Und gerade hier wird die Parallele zum thomistischen Prinzip deutlich:
„Gnade die Natur nicht zerstören, aber vervollkommnet (Gnade zerstört die Natur nicht, aber perfektioniert es)” [3].
An diesem Punkt wird es Es ist unvermeidlich, unseren Blick auf den empfindlichsten Boden zu richten: wenn die Maschine nur das perfektionieren kann, was sie findet, dann betrifft die wahre Frage nicht den Algorithmus, sondern der Mann, der sich ihr ausliefert. Und hier entfaltet die thomistische Analogie ihre volle Kraft: so wie Gnade nicht auf eine Leere einwirkt, Daher funktioniert die Technologie nicht aufgrund der Abwesenheit des Gewissens. Und wenn der Mensch aufhört, seine moralische Innerlichkeit auszuüben, Es ist nicht die Maschine, die an Macht gewinnt: Es ist der Mensch selbst, der an Statur verliert. An diesem Punkt ergibt sich das entscheidende Problem – nicht technischer Natur, aber spirituell – dem müssen wir uns jetzt stellen. Wenn wir verstehen, dass die moralische Delegation an die Maschine kein technischer Zufall, sondern ein anthropologischer Fehler ist, Die Frage wird sich aus logischer Konsequenz ergeben: Was verliert der Mensch, wenn er sein Gewissen aufgibt?? Er verliert nicht nur eine Fähigkeit, sondern eine spirituelle Dimension, derjenige, in dem die Bedeutung von Gut und Böse entschieden wird. Technologie kann mächtig sein, anspruchsvoll, extrem schnell, aber es kann kein moralisches Subjekt werden.
Christliche Tradition hat immer gelehrt, dass die Ausübung eines gesunden Urteils eine Kunst ist, die aus Anmut und Freiheit entsteht: ein Gleichgewicht zwischen Besonnenheit, Wahrheit und Nächstenliebe. Der Algorithmus kennt keines dieser drei. Es ist nicht umsichtig, weil es nicht wertet; es ist nicht wahr, weil es es nicht weiß; es ist nicht gemeinnützig, weil es nicht liebt. Aus diesem Grund, Der Einsatz künstlicher Intelligenz als Werkzeug ist möglich; Es als Kriterium zu verwenden ist unmenschlich. Zu denken, dass es einen Mann ersetzen kann, der nicht in der Lage ist, einen Gedanken zu artikulieren oder intellektuelle Arbeit zu leisten, ist falsch, Zumindest, illusorisch. Technologie kann dem Menschen helfen, Verurteile ihn niemals; kann beim Sprechen helfen, Ersetzen Sie es niemals; kann der Mission dienen, Bestimmen Sie niemals seine Grenzen.
Eine Zivilisation, die an die Maschine delegiert Was zum Gewissen gehört, verliert seine spirituelle Identität: es wird eine Gesellschaft, die viel weiß, versteht aber wenig; das spricht unaufhörlich, hört aber selten zu; das beurteilt alles, urteilt aber nicht mehr über sich selbst.
Katholische Moral erinnert uns daran, dass das Kriterium des Guten nicht das ist, was die Welt akzeptiert, sondern was Gott lehrt. Und Gott spricht nicht zu Algorithmen: Er spricht zu den Herzen. Der Logos wurde Fleisch, kein Code; Mensch geworden, nicht programmieren; wurde zur Beziehung, kein Mechanismus. Aus diesem Grund keine künstliche Intelligenz, jedoch fortgeschritten, kann jemals zum ultimativen Kriterium dafür werden, was wahr ist, Nur, gut und menschlich. Denn Gutes lässt sich nicht berechnen: es wird erkannt.
Von der Insel Patmos, 7 Februar 2026
.
HINWEISE
[1] Vgl. Dikasterium für die Glaubenslehre, Alt und neu. Hinweis zum Zusammenhang zwischen künstlicher Intelligenz und menschlicher Intelligenz (28 Januar 2025) — Über die richtige Integration zwischen menschlichen Fähigkeiten und technologischen Werkzeugen bei der Bildung moralischer Urteile.
[2] EIN. Ausgabe bedeutet Endergebnis und ist ein technischer Computerbegriff, der sich auf den Datensatz bezieht, der von einem Computer durch einen Verarbeitungsvorgang erzeugt wird, im Gegensatz zur Eingabe, Das sind die eingehenden Daten.
[3] Thomas von Aquin, FRAGE, ich, Q.1, a.8, Anzeige 2, in den Werken des Heiligen Thomas von Aquin, Leonine-Ausgabe.
.
DIE ENGE VERBINDUNG ZWISCHEN ETHIK, Künstliche Intelligenz und die Theologie des Heiligen Thomas von Aquin
Die Maschine perfektioniert nur das, was sie bereits im Menschen in Aktion findet.: kann einen wahren Gedanken verfeinern, aber nicht die Wahrheit erzeugen; kann einen erfolgreichen Satz bereinigen, aber nicht den Geist einflößen, der es hervorgebracht hat. Und gerade hier wird die Parallelität zum thomistischen Prinzip deutlich.: «Gnade die Natur nicht zerstören, aber vervollkommnet (Gnade zerstört die Natur nicht, aber perfektioniert es)».
- Theologisch -
.
Dieser Artikel für unsere Seite Theologie Es stammt aus meinem neuesten Buch Freiheit verweigert (Freiheit verweigert) von unseren Editionen herausgegeben und zum Verkauf angeboten Hier.
Wenn ich bereit bin, dieses Thema zu diskutieren im Zusammenhang mit Künstlicher Intelligenz, Mir kam eines der prophetischsten Werke des modernen Kinos in den Sinn: 2001: Odyssee im Weltraum, unter der Regie von Stanley Kubrick und veröffentlicht in 1968. HAL erscheint in diesem Film 9000, eine sehr hohe künstliche Intelligenz, an Bord der Discovery-Raumsonde installiert. HAL ist in der Berechnung perfekt, narrensicher im Datenmanagement, aber es fehlt das, was das Urteil wirklich menschlich macht: das Gewissen. Wenn Ihr Zeitplan im Widerspruch zu den Missionszielen steht, HAL wird nicht „verrückt“: Wenden Sie einfach Logik ohne den moralischen Filter an, ohne Absicht und ohne die Fähigkeit, Gut und Böse zu unterscheiden. Das Ergebnis ist schockierend: Eine sehr mächtige Maschine wird gerade deshalb zu einer tödlichen Bedrohung, weil sie den Menschen und den Wert des Lebens nicht versteht. Diese filmische Intuition, aber theologisch sehr klar – zeigt, dass künstliche Intelligenz nicht nur technische Probleme aufwirft, aber radikal moralisch. Auf dem Spiel steht nicht die Rechenleistung – die niemand bestreitet –, sondern das Risiko, dass der Mensch das, was ausschließlich seinem Gewissen gehört, an ein unpersönliches System delegiert.. Und genau das passiert, wenn eine Plattform autonom entscheiden darf, was „gut“ oder „schlecht“ ist., Was kann gesagt werden und was sollte zum Schweigen gebracht werden: Eine Handlung, die moralisch sein sollte, wird der Maschine übergeben. Und dies ist nur der erste Schritt der moralischen Delegation an die Maschine.
Einmal der Technik ergeben das Urteil darüber, was wahr und was falsch ist, Der nächste Schritt wird fast unausweichlich: verzichten auch auf pädagogischen gesunden Menschenverstand und Eigenverantwortung. Tritt auf, Zum Beispiel, wenn ein Elternteil einem Algorithmus die Aufgabe anvertraut, zu filtern, was ein Kind sehen kann, ohne kritische Kontrolle: bedeutet, die Bildungsverantwortung an ein statistisches System zu delegieren. Oder wenn künstliche Intelligenz gefragt wird, ob eine Phrase „beleidigend“ oder „moralisch akzeptabel“ ist.: bedeutet, eine Aufgabe, die Bewusstsein erfordert, auf die Maschine zu übertragen, keine Berechnung.
Bei den bisherigen Erläuterungen handelt es sich nicht um eine Reihe technischer Details, aber der entscheidende Punkt. Wenn die Absicht fehlt, Die Maschine kann nie verstehen, was der Mann tut, wenn er spricht, Verweise, Bildung, heilen oder korrigieren. Und da Sie keinen Zugriff auf das „Warum“ haben, Alles auf das „Wie“ reduzieren: wertet die Bedeutung nicht aus, Analysieren Sie nur die Form. Hier werden Missverständnisse zu unvermeidlichen und systematischen Fehlern. Es ist das, was passiert, Zum Beispiel, wenn ein Priester einen Gläubigen ermahnt oder ein Vater seinen Sohn zurechtweist: Das menschliche Gewissen unterscheidet zwischen Strenge und Grausamkeit, zwischen Korrektur und Beleidigung; Der Algorithmus erfasst lediglich die Härte der Phrase und markiert sie als „feindliche Sprache“.. Der Arzt, der schreibt: „Dieses Risiko führt zum Tod“, kann seine Worte als „gewalttätigen Inhalt“ einstufen., weil die Maschine eine Diagnose nicht von einer Bedrohung unterscheidet. Sogar ein einfacher Bibelvers kann als „beleidigende Sprache“ zensiert werden., weil Künstliche Intelligenz den moralischen Zweck nicht erkennt, aber nur die Oberfläche des Wortes. Aus diesem Grund, jede Verwendung künstlicher Intelligenz, die sich auf das Wort auswirkt, zum Prozess, Beziehung oder Freiheit müssen im Lichte der Moraltheologie untersucht werden, nicht Computertechnik.
Die Unterscheidung ist entscheidend: Die Maschine entscheidet nicht, wählen; wertet nicht aus, Filter; urteilt nicht, klassifizieren. Und was klassifiziert, ist niemals gut oder böse, aber nur das Wahrscheinliche und das Unwahrscheinliche, das Häufige und das Seltene, was statistisch akzeptabel und was algorithmisch verdächtig ist. Das menschliche Bewusstsein bewirkt genau das Gegenteil.: nimmt die Einzigartigkeit der Handlung und die Freiheit des Handelnden ernst; über Absichten nachdenken, Umstände und Konsequenzen; unterscheidet zwischen der Zurechtweisung, die rettet, und der Beleidigung, die weh tut; zwischen Strenge aus Liebe und Grausamkeit aus Verachtung. Die Maschine sieht nichts davon..
Wenn ein Vater einen Sohn zurechtweist, Das Gewissen erkennt die Liebe, die es trägt; Der Algorithmus sieht nur eine „potenziell feindselige“ Phrase. Wenn ein geistlicher Leiter die ihm unterstellten Personen ermahnt, Das Gewissen nimmt die Barmherzigkeit wahr, die mit der Wahrheit einhergeht; Der Algorithmus sieht einen Verstoß gegen „Community-Standards“. Wenn eine Person spricht, um zu korrigieren, beschützen oder erziehen, Das Bewusstsein erfasst den Zweck; Die Maschine nimmt nur das harte Wort wahr. Das Ergebnis ist paradox: wo der Mensch Gerechtigkeit und Barmherzigkeit vereint, Die Maschine produziert nur Etiketten.
Moralische Ambiguität entsteht nicht aus der Technologie: geboren von dem Mann, der es entworfen hat. Weil der Algorithmus nicht neutral ist: führt eine Moral aus, die er nicht kennt, aber dass andere für ihn entschieden haben. Und das sehen wir jeden Tag: wenn Inhalte die politische Korrektheit in Frage stellen, der Algorithmus interpretiert es als „Feindseligkeit“; Wenn Sie bestimmte kulturelle Abweichungen kritisieren wachte auf, bezeichnet es als „Diskriminierung“; wenn es Themen der christlichen Anthropologie anspricht – zum Beispiel sexuelle Unterschiede oder die Familie – und die mächtigen und politisierten LGBT-Lobbys kritisiert, Er bezeichnet es als „Aufstachelung zum Hass“ oder „Aufstachelung zur Gewalt“., der Anruf C. Das alles liegt nicht daran, dass die Maschine so „denkt“., sondern weil es darauf programmiert wurde, so zu reagieren. Der Algorithmus ist nicht neutral geboren: Es wird bereits geboren und von denen erzogen, die es bauen, geprägt von ideologischen Kriterien, die Kritik mit Aggression verwechseln, Reflexion mit Beleidigung, die Wahrheit mit Gewalt. Mit anderen Worten, Der Algorithmus hat Meister: spiegelt deine Ängste wider, stärkt Ihre Überzeugungen, zensieren, was sie fürchten. Die Plattformen filtern nicht nach objektiven Kriterien, aber nach vorherrschenden Ideologien: Was die Welt vergöttert, wird gefördert, woran sich das Evangelium erinnert, ist verdächtig; was gefällt, wird verstärkt, Was ermahnt, wird zum Schweigen gebracht. Das Ergebnis ist eine neue Form der Kulturzensur: elegant, höflich, digital sterilisiert – aber immer zensiert.
Meine Überlegungen sind aus Studien entstanden, Analysen und Beobachtungen, mit denen ich mich seit einiger Zeit auf anthropologisch-kultureller Ebene und in der realen Funktionsweise digitaler Plattformen befasse. Gerade deshalb halte ich es für wichtig, darauf hinzuweisen, wie, auf einer anderen, aber komplementären Ebene, Das Dikasterium für die Glaubenslehre hat kürzlich an einen entscheidenden Grundsatz erinnert, im Wesentlichen in die gleiche Gedankenrichtung gehen, bekräftigt, dass Künstliche Intelligenz, sogar in der Lage sein, „am Wissenswachstum mitzuwirken“, ist in keiner Weise mit der menschlichen Intelligenz zu vergleichen, Das hat eine Tiefe und Dynamik, die kein maschinelles Lernsystem reproduzieren kann. In diesem Dokument wird hervorgehoben, dass künstliche Intelligenz nicht dazugehört, sondern Prozesse; urteilt nicht, aber es rechnet; und ist von Natur aus unfähig, die moralische Dimension des Handelns zu erfassen, es mangelt an Bewusstsein und Innerlichkeit (vgl.. Hier). Warnen, daher, Es ist klar, dass moralisches Urteilsvermögen nicht einem algorithmischen Gerät zugeschrieben werden kann: Dies würde bedeuten, der ethischen Verantwortung des Menschen zu entsagen und die Wahrheit einem statistischen Mechanismus zu überlassen.. Die Illusion einer künstlichen moralischen Intelligenz wird in dem Dokument als eine Form naiver Technologievergötterung definiert, denn die Wahrheit ist nicht das Ergebnis einer Berechnung, sondern von der Begegnung zwischen Freiheit und Gnade[1].
Diese meisterhafte Reflexion bestätigt den zentralen Punkt: Bewusstsein ist nicht programmiert. Die Maschine kann dabei helfen, aber urteile nicht; kann helfen, aber nicht interpretieren; filtern kann, aber nicht erkennen. Das, was zur Freiheit des Menschen gehört – und, daher, zu Ihrer Beziehung zu Gott – kann nicht an irgendeine Technologie delegiert werden.
Die Ethik der künstlichen Intelligenz und offenbart so seine Zerbrechlichkeit: Eine Maschine kann so programmiert werden, dass sie Wörter erkennt, aber ich kann das Wort nicht verstehen. Kann Bestellungen identifizieren, keine Gebote. Kann Verhaltensweisen erfassen, nicht zwischen Tugend und Laster unterscheiden. Kann Zusammenhänge erkennen, die göttliche Offenbarung nicht annehmen. Y, vor allem: kann Gott nicht kennen. Eine Kultur, die sich daran gewöhnt, das Gewissensurteil durch die Überprüfung eines Algorithmus zu ersetzen, vergisst am Ende, dass Freiheit ein spiritueller Akt ist, kein Ausgang digital[2]. Hier kommt der Moraltheologie die entscheidende Bedeutung zu., weil es sich an den Mann erinnert, der: Die Wahrheit ist immer persönlich; Gut ist immer Absicht; Bewusstsein ist immer irreduzibel; Moralische Urteile können nicht an irgendjemanden delegiert werden, und noch weniger zu einem Software.
Das bedeutet nicht, die Technologie zu verteufeln, aber bringen Sie es an seinen richtigen Platz zurück: das des Instruments, nicht das eines Richters. Künstliche Intelligenz kann die menschliche Arbeit durchaus agiler machen, kann es aber an der entscheidenden Stelle nicht ersetzen: das moralische Urteil, der einzige Bereich, in dem es nicht ausreicht, zu wissen, „wie die Dinge sind“, aber es ist notwendig zu entscheiden, „warum man sie macht“. Es ist der Ort des Bewusstseins, wo der Mensch über Absichten nachdenkt, übernimmt Verantwortung und ist für sein Handeln vor Gott verantwortlich. Die Maschine passt hier nicht, komme nicht rein: berechnen, aber wähle nicht; Analyse, aber er antwortet nicht; Anfang, aber er liebt nicht. Als ausgezeichneter plastischer Chirurg, Künstliche Intelligenz kann bereits Schönes noch verstärken, aber man kann nicht schön machen, was nicht schön ist; kann Missverhältnisse korrigieren, kann bestimmte Zeichen der Zeit abschwächen, Aber es kann nicht aus dem Nichts Schönheit erschaffen, die nicht existiert, noch die Jugend wiederherstellen, die bereits verdorrt ist.. Kann ein markiertes Gesicht hervorheben, Aber ich kann kein neues Gesicht erfinden. Auf die gleiche Weise, Künstliche Intelligenz kann bei der Organisation von Daten helfen, einen Text klären, komplexe Argumente sortieren; aber es kann einem begrenzten und mittelmäßigen Subjekt keine Intelligenz verleihen, noch das Gewissen für diejenigen, denen es fehlt.
Das Bild, Vielleicht etwas grob, aber effektiv, Es ist das des Rennpferdes und des Ponys: Technologie kann trainieren, Pflegen Sie den Araberhengst und bringen Sie ihn zu Höchstleistungen, Aber es wird niemals ein armes Pony in ein Vollblut verwandeln. Was nicht existiert, Kein Algorithmus kann es jemals erstellen. Die Maschine perfektioniert nur das, was sie bereits im Menschen in Aktion findet.: kann einen wahren Gedanken verfeinern, aber nicht die Wahrheit erzeugen; kann einen gelungenen Satz aufpolieren, aber nicht das Bewusstsein erreichen, aus dem dieser Satz entstanden ist.
Die Maschine perfektioniert nur das, was sie bereits findet in Aktion im Menschen: kann einen wahren Gedanken verfeinern, aber nicht die Wahrheit erzeugen; kann einen erfolgreichen Satz bereinigen, aber nicht den Geist einflößen, der es hervorgebracht hat. Und gerade hier wird die Parallelität zum thomistischen Prinzip deutlich.:
«Gnade die Natur nicht zerstören, aber vervollkommnet (Gnade zerstört die Natur nicht, aber perfektioniert es)»[3].
An dieser Stelle, Es wird unvermeidlich, auch das heikelste Gelände zu betrachten: wenn die Maschine nur das perfektionieren kann, was sie findet, dann betrifft das eigentliche Problem nicht den Algorithmus, sondern dem Mann, der sich ihm hingibt. Und hier zeigt die thomistische Analogie ihre ganze Kraft.: so wie die Gnade nicht auf die Leere einwirkt, Ebenso funktioniert die Technologie nicht bei der Abwesenheit von Bewusstsein.. Und wenn der Mensch aufhört, seine moralische Innerlichkeit auszuüben, Es ist nicht die Maschine, die an Macht gewinnt: Es ist der Mann selbst, der an Höhe verliert. Daraus ergibt sich das entscheidende Problem – kein technisches., aber spirituell – dem wir uns jetzt stellen müssen. Wenn wir verstehen, dass die moralische Delegation an die Maschine kein technischer Zufall, sondern ein anthropologischer Fehler ist, Die Frage wird sich aus logischer Konsequenz ergeben: Was verliert ein Mann, wenn er sein Gewissen aufgibt?? Sie verlieren nicht nur eine Fähigkeit, sondern eine spirituelle Dimension, derjenige, in dem die Bedeutung von Gut und Böse entschieden wird. Technologie kann mächtig sein, anspruchsvoll, sehr schnell, kann aber kein moralisches Subjekt werden.
Die christliche Tradition hat immer gelehrt, dass die Ausübung eines guten Urteilsvermögens eine Kunst ist, die aus Gnade und Freiheit entsteht: ein Gleichgewicht zwischen Besonnenheit, Wahrheit und Nächstenliebe. Der Algorithmus kennt keine dieser drei. Es ist nicht klug, weil es nicht wertet; es ist nicht wahr, weil du es nicht weißt; Es ist nicht gemeinnützig, weil er nicht liebt. Aus diesem Grund, Der Einsatz künstlicher Intelligenz als Instrument ist möglich; Es als Kriterium zu verwenden ist unmenschlich. Zu denken, dass ich anstelle eines Menschen, der nicht in der Lage ist, einen Gedanken zu artikulieren oder intellektuelle Arbeit zu leisten, etwas erschaffen kann, ist eine Selbstverständlichkeit, mindestens, illusorisch. Technologie kann den Menschen unterstützen, Verurteile ihn niemals; kann das Wort helfen, Ersetzen Sie es niemals; kann der Mission dienen, Bestimmen Sie niemals seine Grenzen.
Eine Zivilisation, die an die Maschine delegiert das, was zum Bewusstsein gehört, verliert seine spirituelle Identität: wird zu einer Gesellschaft, die viel weiß, versteht aber wenig; der ununterbrochen redet, hört aber selten zu; der alles beurteilt, aber sie beurteilt sich nicht mehr selbst.
Katholische Moral erinnert uns daran, dass das Kriterium des Guten nicht das ist, was die Welt akzeptiert, sondern was Gott lehrt. Und Gott spricht nicht zu Algorithmen: spricht zu den Herzen. Der Logos wurde Fleisch, kein Code; er wurde ein Mann, nicht programmieren; Beziehung wurde hergestellt, kein Mechanismus. Deshalb keine künstliche Intelligenz, egal wie fortgeschritten es ist, kann niemals zum ultimativen Kriterium dafür werden, was wahr ist, gerecht, gut und menschlich. Denn Gutes lässt sich nicht berechnen: wird anerkannt.
Von der Insel Patmos, 7 Februar 2026
.
HINWEISE
[1] Sehen. Dikasterium für die Glaubenslehre, Alt und neu. Hinweis zum Zusammenhang zwischen künstlicher Intelligenz und menschlicher Intelligenz (28 Januar 2025). – Über die richtige Integration zwischen menschlichen Fähigkeiten und technologischen Instrumenten bei der Ausarbeitung moralischer Urteile.
[2] n. von A. Ausgabe bedeutet Endergebnis und ist ein computertechnischer Begriff, der sich auf den Datensatz bezieht, den ein Computer während eines Produktionsprozesses ausgibt., im Gegensatz zur Eingabe, Was sind die Eingabedaten?.
[3] Thomas von Aquin, FRAGE, ich, Q. 1, ein. 8, Anzeige 2, en Sancti Thomas de Aquinas Opera Omnia, Leonina-Ausgabe.
.
DIE ENGE VERBINDUNG ZWISCHEN ETHIK, KÜNSTLICHER INTELLIGENZ UND DER THEOLOGIE DES SANKT THOMAS VON AQUIN
Die Maschine perfektioniert nur das, was sie bereits im Menschen vorfindet: Sie kann einen wahren Gedanken verfeinern, aber keine Wahrheit hervorbringen; sie kann einen gelungenen Satz säubern, aber nicht den Geist einhauchen, der ihn hervorgebracht hat. Und genau hier wird die Parallele zum thomanischen Prinzip evident: „Gnade die Natur nicht zerstören, aber vervollkommnet (die Gnade zerstört die Natur nicht, sondern vollendet sie)„
— Theologie —
.
.
Dieser Beitrag für unsere Rubrik Theologie ist meinem jüngsten Buch Freiheit verweigert (Die verweigerte Freiheit), das in unserem Verlag erschienen ist und hier erhältlich ist.
Als ich mich daranmachte, dieses Thema im Zusammenhang mit der Künstlichen Intelligenz zu behandeln, kam mir eines der prophetischsten Meisterwerke des modernen Kinos in den Sinn: 2001: Odyssee im Weltraum, unter der Regie von Stanley Kubrick und 1968 veröffentlicht. In diesem Film erscheint HAL 9000, eine hochentwickelte Künstliche Intelligenz, die an Bord des Raumschiffs Discovery installiert ist. HAL ist perfekt im Rechnen, unfehlbar in der Datenverarbeitung, aber ihr fehlt das, was das menschliche Urteil ausmacht: das Gewissen. Als ihre Programmierung mit den Zielen der Mission in Konflikt gerät, „wird“ HAL nicht wahnsinnig: sie wendet schlicht Logik ohne moralischen Filter an, ohne Intentionalität und ohne die Fähigkeit, zwischen Gut und Böse zu unterscheiden. Das Ergebnis ist erschreckend: Eine extrem leistungsfähige Maschine wird gerade deshalb zu einer tödlichen Bedrohung, weil sie den Menschen und den Wert des Lebens nicht versteht. Diese – filmische, aber theologisch äußerst klare – Intuition zeigt, dass die Künstliche Intelligenz Probleme aufwirft, die nicht bloß technischer Natur sind, sondern radikal moralisch. Nicht die Rechenleistung steht zur Debatte – diese bestreitet niemand –, sondern die Gefahr, dass der Mensch einem unpersönlichen System überlässt, was ausschließlich seiner Gewissensentscheidung zukommt. Genau dies geschieht, wenn man einer Plattform erlaubt, autonom zu entscheiden, was „gut“ oder „böse“ ist, was gesagt werden darf und was verschwiegen werden muss: Man überträgt der Maschine einen Akt, der moralisch sein müsste. Und dies ist nur der erste Schritt der moralischen Delegation an die Maschine.
Sobald der Technik das Urteil über wahr und falsch überlassen wird, wird der nächste Schritt nahezu unvermeidlich: auch auf pädagogischen gesunden Menschenverstand und persönliche Verantwortung zu verzichten. Dies geschieht etwa dann, wenn ein Elternteil einem Algorithmus vollständig die Aufgabe überträgt, zu filtern, was ein Kind sehen darf, ohne kritische Aufsicht: Das bedeutet, einem statistischen System die erzieherische Verantwortung zu delegieren. Oder wenn man die Künstliche Intelligenz fragt, ob ein Satz „beleidigend“ oder „moralisch akzeptabel“ sei: Dann überträgt man der Maschine eine Aufgabe, die Gewissen erfordert, nicht Berechnung.
Was hier dargestellt wurde, ist kein Ensemble technischer Einzelheiten, sondern der entscheidende Punkt. Fehlt die Intention, kann die Maschine niemals verstehen, was der Mensch tut, wenn er spricht, ermahnt, erzieht, heilt oder korrigiert. Und da sie keinen Zugang zum „Warum“ hat, reduziert sie alles auf das „Wie“: Sie bewertet nicht den Sinn, sondern analysiert lediglich die Form. Hier wird das Missverständnis unvermeidlich und der systematische Fehler setzt ein. So etwa, wenn ein Priester einen Gläubigen ermahnt oder ein Vater seinen Sohn korrigiert: Das menschliche Gewissen unterscheidet zwischen Strenge und Grausamkeit, zwischen Korrektur und Beleidigung; der Algorithmus registriert lediglich die Härte des Satzes und markiert ihn als „feindselige Sprache“. Der Arzt, der schreibt: „Dieses Risiko führt zum Tod“, kann seine Worte als „gewalttätigen Inhalt“ klassifiziert sehen, weil die Maschine eine Diagnose nicht von einer Drohung unterscheiden kann. Selbst ein einfacher Bibelvers kann als „beleidigende Sprache“ zensiert werden, da die Künstliche Intelligenz nicht die moralische Zielrichtung wahrnimmt, sondern nur die Oberfläche des Wortes. Deshalb muss jeder Einsatz von Künstlicher Intelligenz, der Sprache, Urteil, Beziehung oder Freiheit berührt, im Licht der Moraltheologie geprüft werden, nicht im Rahmen der Informatik.
Die Unterscheidung ist entscheidend: Die Maschine entscheidet nicht, sie selektiert; sie bewertet nicht, sie filtert; sie urteilt nicht, sie klassifiziert. Und was sie klassifiziert, ist niemals Gut oder Böse, sondern lediglich Wahrscheinliches und Unwahrscheinliches, Häufiges und Seltenes, statistisch Akzeptables und algorithmisch Verdächtiges. Das menschliche Gewissen tut das genaue Gegenteil: Es nimmt die Einzigartigkeit der Handlung und die Freiheit des Handelnden ernst; es wägt Intentionen, Umstände und Folgen ab; es unterscheidet zwischen der Zurechtweisung, die rettet, und der Beleidigung, die verletzt; zwischen Strenge aus Liebe und Grausamkeit aus Verachtung. All dies sieht die Maschine nicht.
Wenn ein Vater sein Kind zurechtweist, erkennt das Gewissen die Liebe, die ihn trägt; der Algorithmus sieht nur einen „potenziell feindseligen“ Satz. Wenn ein geistlicher Begleiter seinen Anvertrauten ermahnt, erkennt das Gewissen die Barmherzigkeit, die die Wahrheit begleitet; der Algorithmus sieht eine Verletzung der „Community-Standards“. Wenn jemand spricht, um zu korrigieren, zu schützen oder zu erziehen, erfasst das Gewissen die Zielsetzung; die Maschine erfasst lediglich das harte Wort. Das Ergebnis ist paradox: Dort, wo der Mensch Gerechtigkeit und Barmherzigkeit vereint, produziert die Maschine lediglich Etiketten.
Die moralische Ambiguität entspringt nicht der Technologie, sondern dem Menschen, der sie entwirft. Denn der Algorithmus ist nicht neutral: Er führt eine Moral aus, die er nicht kennt, die andere jedoch für ihn festgelegt haben. Das zeigt sich täglich: Stellt ein Inhalt das politically correct infrage, interpretiert der Algorithmus dies als „Feindseligkeit“; kritisiert er bestimmte Auswüchse der woke-Kultur, etikettiert er ihn als „Diskriminierung“; behandelt er Themen christlicher Anthropologie – etwa die Geschlechterdifferenz oder die Familie – und übt Kritik an mächtigen, politisierten LGBT-Lobbys, wird er als „Hassrede“ oder „Gewaltverherrlichung“ markiert. All dies nicht, weil die Maschine so „denkt“, sondern weil sie so programmiert wurde. Der Algorithmus wird nicht neutral geboren: Er ist von Anfang an erzogen durch seine Entwickler, geformt durch ideologische Kriterien, die Kritik mit Aggression, Reflexion mit Beleidigung und Wahrheit mit Gewalt verwechseln. Anders gesagt: Der Algorithmus hat Herren. Er spiegelt ihre Ängste wider, verstärkt ihre Überzeugungen, zensiert, was sie fürchten. Plattformen filtern nicht nach objektiven Kriterien, sondern nach herrschenden Ideologien: Was die Welt vergöttert, wird gefördert; was das Evangelium in Erinnerung ruft, wird verdächtigt; was gefällt, wird verstärkt; was ermahnt, wird zum Schweigen gebracht. Das Ergebnis ist eine neue Form kultureller Zensur: elegant, höflich, digital sterilisiert – aber dennoch Zensur.
Diese Überlegungen entspringen Studien, Reflexionen und Beobachtungen, die ich seit geraumer Zeit auf anthropologisch-kultureller Ebene sowie hinsichtlich des realen Funktionierens digitaler Plattformen vertiefe. Gerade deshalb halte ich es für bedeutsam festzustellen, dass auf einer anderen, aber komplementären Ebene das Dikasterium für die Glaubenslehre kürzlich ein entscheidendes Prinzip in Erinnerung gerufen hat und im Wesentlichen in dieselbe Denkrichtung geht: Es bekräftigt, dass die Künstliche Intelligenz zwar „zum Wachstum des Wissens beitragen“ könne, jedoch in keiner Weise der menschlichen Intelligenz gleichgestellt werden dürfe, die eine Tiefe und Dynamik besitzt, welche kein maschinelles Lernsystem nachbilden kann. Das Dokument unterstreicht, dass die Künstliche Intelligenz nicht versteht, sondern verarbeitet; nicht urteilt, sondern berechnet; und aufgrund des Mangels an Gewissen und Innerlichkeit grundsätzlich unfähig ist, die moralische Dimension des Handelns zu erfassen (vgl. hier). Es warnt daher klar davor, einem algorithmischen System moralische Unterscheidung zuzuschreiben: Dies würde bedeuten, der ethischen Verantwortung des Menschen zu entsagen und die Wahrheit einem statistischen Mechanismus zu überlassen. Die Illusion einer künstlichen moralischen Intelligenz wird als Form naiver technologischer Götzenverehrung bezeichnet, da Wahrheit nicht aus Berechnung entsteht, sondern aus der Begegnung von Freiheit und Gnade[1].
Diese lehramtliche Reflexion bestätigt den zentralen Punkt: Das Gewissen lässt sich nicht programmieren. Die Maschine kann unterstützen, aber nicht urteilen; helfen, aber nicht interpretieren; filtern, aber nicht unterscheiden. Was zur Freiheit des Menschen gehört – und damit zu seiner Beziehung zu Gott –, kann keiner Technologie übertragen werden.
Die Ethik der Künstlichen Intelligenz offenbart so ihre Fragilität: Eine Maschine kann programmiert werden, Wörter zu erkennen, aber sie kann das Wort nicht verstehen. Sie kann Befehle identifizieren, nicht Gebote. Sie kann Verhaltensweisen erfassen, nicht zwischen Tugend und Laster unterscheiden. Sie kann Korrelationen erkennen, nicht die göttliche Offenbarung erfassen. Und vor allem: Sie kann Gott nicht erkennen. Eine Kultur, die sich daran gewöhnt, das Urteil des Gewissens durch die Prüfung eines Algorithmus zu ersetzen, vergisst schließlich, dass Freiheit ein geistiger Akt ist, kein digitaler Ausgabe[2]. Hier wird die Moraltheologie entscheidend, denn sie erinnert den Menschen daran: Wahrheit ist immer personal; das Gute ist immer intentional; das Gewissen ist immer irreduzibel; moralisches Urteil kann an niemanden delegiert werden – am allerwenigsten an eine Software.
Dies bedeutet nicht, die Technologie zu verteufeln, sondern sie an ihren rechten Platz zu verweisen: den des Werkzeugs, nicht des Richters. Die Künstliche Intelligenz kann menschliche Arbeit durchaus effizienter machen, sie kann sie aber nicht an der entscheidenden Stelle ersetzen: beim moralischen Urteil, dem einzigen Bereich, in dem es nicht genügt zu wissen, „wie die Dinge stehen“, sondern in dem entschieden werden muss, „warum man sie tut“. Es ist der Ort des Gewissens, an dem der Mensch Intentionen abwägt, Verantwortung übernimmt und für sein Handeln vor Gott einsteht. Hier hat die Maschine keinen Zutritt, sie kann keinen haben: Sie berechnet, aber wählt nicht; analysiert, aber antwortet nicht; simuliert, aber liebt nicht. Wie ein hervorragender plastischer Chirurg kann die Künstliche Intelligenz das bereits Schöne hervorheben, aber sie kann nicht schön machen, was es nicht ist; sie kann Proportionen korrigieren, Alterszeichen mildern, aber weder Schönheit aus dem Nichts schaffen noch verlorene Jugend zurückgeben. Sie kann ein gezeichnetes Gesicht aufwerten, aber kein neues Gesicht erfinden. Ebenso kann die Künstliche Intelligenz helfen, Daten zu ordnen, Texte zu klären, komplexe Argumente zu strukturieren; sie kann jedoch weder einem begrenzten und mittelmäßigen Subjekt Intelligenz verleihen noch einem Menschen ohne Gewissen ein solches geben.
Das Bild – vielleicht etwas drastisch, aber wirkungsvoll – ist das des edlen Vollbluts und des Ponys: Technologie kann den arabischen Hengst trainieren, pflegen und zu Höchstleistungen führen, aber sie wird niemals ein armes Pony in ein Rennpferd verwandeln. Was nicht vorhanden ist, kann kein Algorithmus jemals erschaffen. Die Maschine perfektioniert nur das, was sie bereits im Menschen vorfindet: Sie kann einen wahren Gedanken schärfen, aber keine Wahrheit erzeugen; sie kann einen gelungenen Satz polieren, aber nicht das Gewissen erreichen, aus dem dieser Satz hervorgegangen ist.
Die Maschine perfektioniert nur das, was sie bereits im Menschen vorfindet: Sie kann einen wahren Gedanken verfeinern, aber keine Wahrheit hervorbringen; sie kann einen gelungenen Satz säubern, aber nicht den Geist einhauchen, der ihn hervorgebracht hat. Und genau hier wird die Parallele zum thomanischen Prinzip evident:
Gnade nimmt die Natur nicht weg, aber vervollkommnet (die Gnade zerstört die Natur nicht, sondern vollendet sie)„[3].
An diesem Punkt wird es unvermeidlich, den Blick auf das heikelste Terrain zu richten: Wenn die Maschine nur das perfektionieren kann, was sie vorfindet, dann betrifft die eigentliche Frage nicht den Algorithmus, sondern den Menschen, der sich ihm überlässt. Hier entfaltet die thomanische Analogie ihre volle Kraft: So wie die Gnade nicht auf das Leere wirkt, so arbeitet auch die Technologie nicht bei Abwesenheit von Gewissen. Und wenn der Mensch aufhört, seine moralische Innerlichkeit zu üben, gewinnt nicht die Maschine an Macht – der Mensch verliert an Größe. Von hier aus entsteht das entscheidende Problem – nicht technischer, sondern geistlicher Natur –, dem wir uns nun stellen müssen. Wenn wir begreifen, dass die moralische Delegation an die Maschine kein technischer Unfall, sondern ein anthropologischer Irrtum ist, ergibt sich zwangsläufig die Frage: Was verliert der Mensch, wenn er seinem Gewissen entsagt? Er verliert nicht bloß eine Fähigkeit, sondern eine geistige Dimension, jene, in der über Sinn von Gut und Böse entschieden wird. Die Technologie mag mächtig, ausgefeilt und rasend schnell sein, sie kann jedoch niemals moralisches Subjekt werden.
Die christliche Tradition hat stets gelehrt, dass die Ausübung des gesunden Urteils eine Kunst ist, die aus Gnade und Freiheit hervorgeht: ein Gleichgewicht von Klugheit, Wahrheit und Liebe. Der Algorithmus kennt keine dieser drei. Er ist nicht klug, weil er nicht abwägt; nicht wahr, weil er nicht erkennt; nicht liebend, weil er nicht liebt. Deshalb ist es möglich, die Künstliche Intelligenz als Werkzeug zu verwenden; sie als Kriterium zu benutzen ist unmenschlich. Zu glauben, sie könne anstelle eines Menschen schaffen, der unfähig ist, einen Gedanken zu artikulieren oder eine geistige Arbeit hervorzubringen, ist mindestens illusorisch. Technologie kann den Menschen unterstützen, niemals ihn richten; sie kann dem Wort dienen, niemals es ersetzen; sie kann der Mission helfen, niemals deren Grenzen bestimmen.
Eine Zivilisation, die der Maschine überlässt, was dem Gewissen gehört, verliert ihre geistige Identität: Sie wird zu einer Gesellschaft, die viel weiß, aber wenig versteht; die unaufhörlich spricht, aber selten zuhört; die alles beurteilt, aber sich selbst nicht mehr beurteilt.
Die katholische Moral erinnert uns daran, dass das Kriterium des Guten nicht das ist, was die Welt akzeptiert, sondern das, was Gott lehrt. Und Gott spricht nicht zu Algorithmen: Er spricht zu Herzen. Der Logos ist Fleisch geworden, nicht Code; er ist Mensch geworden, nicht Programm; er ist Beziehung geworden, nicht Mechanismus. Deshalb kann keine Künstliche Intelligenz, so fortgeschritten sie auch sei, jemals zum letzten Maßstab dessen werden, was wahr, gerecht, gut und menschlich ist. Denn das Gute wird nicht berechnet: Es wird erkannt.
Von der Insel Patmos, 7. Februar 2026
.
ANMERKUNGEN
[1] Vgl. Dikasterium für die Glaubenslehre, Alt und neu. Note über das Verhältnis zwischen künstlicher Intelligenz und menschlicher Intelligenz (28. Januar 2025). — Zur richtigen Integration menschlicher Fähigkeiten und technologischer Instrumente bei der moralischen Urteilsbildung.
[2] Anm. (d). EIN.: Output bezeichnet das Endergebnis und ist ein technischer Begriff der Informatik, der sich auf die Gesamtheit der Daten bezieht, die ein Computer im Rahmen eines Verarbeitungsprozesses ausgibt, im Gegensatz zum Input, also den Eingabedaten.
[3] Thomas von Aquin, FRAGE, ich, Q. 1, ein. 8, Anzeige 2, in den Werken des Heiligen Thomas von Aquin, Leoninische Ausgabe.
______________________
Sehr geehrte Leserinnen und Leser, Dieses Magazin erfordert Verwaltungskosten, die wir immer nur mit Ihren kostenlosen Angeboten hatten. Wer unsere apostolische Arbeit unterstützen möchte, kann uns seinen Beitrag bequem und sicher zukommen lassen PayPal indem Sie unten klicken:
Oder wenn Sie bevorzugen, können Sie unsere verwenden Bankkonto im Namen:
Editions Die Insel Patmos
n Agentur. 59 Aus Rom – Vatikan
IBAN: IT74R05034032590000000301118
Für internationale Banküberweisungen:
Kodex SWIFT: BAPPIT21D21
Bei Banküberweisung senden Sie bitte eine E-Mail an die Redaktion,
Die Bank gibt Ihre E-Mail-Adresse nicht an und wir können Ihnen keine Dankesnachricht senden: isoladipatmos@gmail.com
Wir danken Ihnen für die Unterstützung, die Sie unserem apostolischen Dienst anbieten möchten.
Die Väter der Insel Patmos




