Le lien étroit entre l’éthique, intelligence artificielle et théologie de San Tomso d'Aquino – Le lien étroit entre l’éthique, Intelligence artificielle et théologie de saint Thomas d'Aquin – Le lien étroit entre l’éthique, intelligence artificielle et théologie de saint Thomas d'Aquin – Le lien étroit entre l’éthique, intelligence artificielle et théologie de saint Thomas d'Aquin
italien, Anglais, espagnol, Néerlandais
LO STRETTO LEGAME TRA ETICA, INTELLIGENZA ARTIFICIALE E TEOLOGIA DI SAN TOMMASO D’AQUINO
La macchina perfeziona solo ciò che trova già in atto nell’uomo: peut affiner une vraie pensée, mais ne génère pas de vérité; peut nettoyer une phrase réussie, ma non infondere lo spirito che l’ha generata. Ed è proprio qui che diventa evidente il parallelismo con il principio tomista: «gratia non tollit naturam, sed perficit (la grazia non distrugge la natura, ma la perfeziona)»
— Théologique —
.

Auteur
Ariel S. Levi Gualdo
.
![]()
.
Questo articolo per la nostra pagina di théologique è tratto dal mio ultimo libro Liberté refusée, edito dalle nostre edizioni e in vendita Qui.

Accingendomi a trattare questa tematica legata all’Intelligenza Artificiale mi è tornato alla mente uno dei capolavori profetici del cinema moderno: 2001: Space Odyssey, diretto da Stanley Kubrick e distribuito nel 1968. In quel film compare HAL 9000, un’intelligenza artificiale di altissimo livello, installata a bordo della nave spaziale Discovery. HAL è perfetta nel calcolo, infallibile nella gestione dei dati, ma priva di ciò che rende umano il giudizio: conscience. Quando la sua programmazione entra in conflitto con gli obiettivi della missione, HAL non “impazzisce”: semplicemente applica la logica senza il filtro morale, senza l’intenzionalità e senza la capacità di discernere il bene dal male. Il risultato è spaventoso: una macchina potentissima diventa una minaccia mortale proprio perché non comprende l’uomo né il valore della vita. Questa intuizione — cinematografica ma teologicamente lucidissima — mostra che l’intelligenza artificiale solleva problemi che non sono meramente tecnici, ma radicalmente morali. Non è in gioco la potenza di calcolo — che nessuno contesta — bensì il rischio che l’uomo deleghi a un sistema impersonale ciò che appartiene esclusivamente alla sua coscienza. Ed è proprio ciò che accade quando si lascia che una piattaforma decida autonomamente ciò che è “buono” o “cattivo”, ciò che può essere detto o ciò che deve essere taciuto: si consegna alla macchina un atto che dovrebbe essere morale. E questo è solo il primo passo della delega morale alla macchina.
Una volta ceduto alla tecnologia il giudizio sul vero e sul falso, il passo successivo diventa quasi inevitabile: rinunciare anche al buonsenso educativo e alla responsabilità personale. Oppu-re quando un genitore affida completamente all’algoritmo il compito di filtrare ciò che un figlio può vedere, senza vigilanza critica: significa delegare a un sistema statistico la responsabilità educativa. O ancora quando si chiede all’Intelligenza Artificiale se una frase è “offensiva” o “moralmente accettabile”: significa trasferire alla macchina un compito che richiede coscienza, non calcolo.
Quanto sin qui illustrato non è un insieme di dettagli tecnici sono piuttosto il punto decisivo. Se manca l’intenzione, la macchina non può mai comprendere Quel l’uomo sta facendo quando parla, met en garde contre, educa, soins, corregge. E poiché non può accedere al “perché”, riduce tutto al “come”: non valuta il senso, analizza solo la forma. È qui che l’equivoco diventa inevitabile e l’errore sistematico. È ciò che avviene, par exemple, quando un sacerdote ammonisce un fedele o un padre corregge un figlio: la coscienza umana distingue tra severità e crudeltà, tra correzione e offesa; l’algoritmo registra solo la durezza della frase e la segnala come “linguaggio ostile”. Il medico che scrive «questo rischio porta alla morte» può vedere le sue parole classificate come “contenuto violento”, perché la macchina non distingue una diagnosi da una minaccia. E un semplice versetto biblico può essere censurato come “linguaggio offensivo” perché l’Intelligenza Artificiale non percepisce la finalità morale, ma solo la superficie della parola. À cause de ce, qualunque uso dell’Intelligenza Artificiale che tocchi la parola, le jugement, la relazione o la libertà deve essere esaminato alla luce della teologia morale, non dell’ingegneria informatica.
La distinzione è decisiva: la macchina non decide, seleziona; non valuta, filtra; non giudica, classifica. E ciò che classifica non è mai il bene o il male, ma solo il probabile e l’improbabile, il frequente e il raro, l’accettabile statistico e il sospetto algoritmico. La coscienza umana fa l’esatto contrario: prende sul serio l’unicità dell’atto e la libertà dell’agente; pesa intenzioni, circostanze, conseguenze; distingue tra il rimprovero che salva e l’offesa che ferisce; tra la severità per amore e la crudeltà per disprezzo. La macchina non vede nulla di tutto questo.
Quando un padre richiama un figlio, la coscienza riconosce l’amore che lo sostiene; l’algoritmo vede solo una frase “potenzialmente ostile”. Quando un direttore spirituale ammonisce un suo diretto, la coscienza vede la misericordia che accompagna la verità; l’algoritmo vede una violazione degli “standard della community”. Quando una persona parla per correggere, proteggere o educare, la coscienza percepisce la finalità, la macchina percepisce solo la parola dura. Il risultato è paradossale: laddove l’uomo unisce giustizia e misericordia, la macchina produce soltanto etichette.
L’ambiguità morale non nasce dalla tecnologia: nasce dall’uomo che la progetta. Perché l’algoritmo non è neutrale: esegue una morale che non conosce, ma che altri hanno deciso per lui. E questo lo vediamo ogni giorno: se un contenuto mette in discussione il politiquement correct, l’algoritmo lo interpreta come “ostilità”; se critica alcune derive della cultura woke, lo etichetta come “discriminazione”; se affronta temi di antropologia cristiana — per esempio la differenza sessuale o la famiglia — rivolgendo critiche alle potenti e politicizzate lobby LGBT, lo segnala come “incitamento all’odio”, o “incitamento alla violenza”, il cosiddetto “hate speech”, au sens propre: discorso d’odio. Il tutto non perché la macchina “pensi” così, ma perché è stata programmata a reagire e interagire così. L’algoritmo non nasce neutrale: nasce già educato da chi lo costruisce, modellato da criteri ideologici che confondono la critica con l’aggressione, la riflessione con l’offesa, la verità con la violenza. En d'autres termes, l’algoritmo ha dei padroni: riflette le loro paure, amplifica le loro convinzioni, censura ciò che essi temono. Le piattaforme non filtrano in base a criteri oggettivi ma secondo ideologie dominanti: ciò che il mondo idolatra è promosso, ciò che il Vangelo richiama è sospettato; ciò che appaga viene amplificato, ciò che ammonisce viene silenziato. Il risultato è una nuova forma di censura culturale: élégant, poli, sterilizzata digitalmente — ma sempre censura.
Queste mie analisi nascono dalle riflessioni, dagli studi e dalle osservazioni che da tempo sto approfondendo sul piano antropologico-culturale e sul funzionamento reale delle piattaforme digitali. È proprio per questo che trovo significativo notare come, su un piano diverso ma complementare, la Dicastero per la Dottrina della Fede abbia recentemente richiamato un principio decisivo andando in sostanza nella mia stessa direzione di pensiero, ribadendo che l’Intelligenza Artificiale, pur potendo «cooperare alla crescita della conoscenza», non può essere in alcun modo equiparata all’intelligenza umana che possiede una profondità e una dinamica che nessun sistema di apprendimento automatico può replicare. Questo documento sottolinea che l’Intelligenza Artificiale non comprende, ma elabora, non giudica, ma calcola, ed è intrinsecamente incapace di cogliere la dimensione morale dell’azione, poiché priva di coscienza e interiorità (cf.. Qui). Quindi ammonisce con chiarezza che non si può attribuire a un dispositivo algoritmico il discernimento morale: farlo significherebbe abdicare alla responsabilità etica dell’uomo e consegnare la verità a un meccanismo statistico. L’illusione di una intelligenza morale artificiale è definita dal documento come una forma di ingenua idolatria tecnologica, perché la verità non è frutto del calcolo, ma dell’incontro tra libertà e grazia[1].
Questa riflessione magisteriale conferma il punto centrale: la coscienza non si programma. La macchina può assistere, ma non giudicare; può aiutare, ma non interpretare; può filtrare, ma non discernere. Ciò che appartiene alla libertà dell’uomo — e dunque alla sua relazione con Dio — non può essere delegato ad alcuna tecnologia.
L’etica dell’intelligenza artificiale rivela così la sua fragilità: una macchina può essere programmata per riconoscere parole, ma non può comprendere la Parola. Può identificare comandi, non comandamenti. Può censire comportamenti, non distinguere tra virtù e vizio. Può rilevare correlazioni, non cogliere la rivelazione divina. et au-dessus: non può conoscere Dio. Una cultura che si abitua a sostituire il giudizio della coscienza con il vaglio di un algoritmo finisce per dimenticare che la libertà è un atto spirituale, pas un output numérique[2]. Ed è qui che la teologia morale diventa decisiva, perché ricorda all’uomo che: la verità è sempre personale; il bene è sempre intenzionale; la coscienza è sempre irriducibile; il giudizio morale non può essere delegato a nessuno, tanto meno a un logiciel.
Questo non significa demonizzare la tecnologia, ma rimetterla al suo posto: quello di strumento, non di giudice. Intelligence artificielle, donc, può certamente rendere più agile il lavoro umano, ma non può sostituirlo nel punto decisivo: il giudizio morale, l’unico ambito in cui non basta sapere “come stanno le cose”, ma bisogna decidere “perché farle”. È il luogo della coscienza, dove l’uomo pesa le intenzioni, assume responsabilità, risponde del proprio agire davanti a Dio. Qui la macchina non entra, non può entrare: calcola, ma non sceglie; analizza, ma non risponde; simula, ma non ama. Come un eccellente chirurgo plastico l’Intelligenza Artificiale può valorizzare ciò che è già bello, ma non può rendere bello ciò che non è tale, può correggere sproporzioni, può attenuare certi segni del tempo; ma non può creare dal nulla né la bellezza che non c’è, né restituire la giovinezza ormai sfiorita. Può valorizzare un volto segnato, ma non può inventare un volto nuovo. également, l’Intelligenza Artificiale può aiutare a organizzare i dati, a chiarire un testo, a mettere in ordine argomenti complessi; ma non può dare intelligenza a un soggetto limitato e mediocre, né coscienza a chi non ce l’ha.
L’immagine, forse un po’ cruda ma efficace, è quella del cavallo di razza e del pony: la tecnologia può allenare, guérir, far rendere al massimo lo stallone arabo, ma non trasformerà mai un povero pony in un purosangue. Quello che non c’è, nessun algoritmo potrà mai crearlo. La macchina perfeziona solo ciò che trova già in atto nell’uomo: peut affiner une vraie pensée, mais ne génère pas de vérité; può lucidare una frase riuscita, ma non può raggiungere la coscienza da cui quella frase è scaturita.
La macchina perfeziona solo ciò che trova già in atto nell’uomo: peut affiner une vraie pensée, mais ne génère pas de vérité; peut nettoyer une phrase réussie, ma non infondere lo spirito che l’ha generata. Ed è proprio qui che diventa evidente il parallelismo con il principio tomista:
«gratia non tollit naturam, mais perfects (la grazia non distrugge la natura, ma la perfeziona)»[3].
A questo punto diventa inevitabile volgere lo sguardo verso il terreno più delicato: se la macchina può perfezionare solo ciò che trova, allora la vera questione non riguarda l’algoritmo, ma l’uomo che gli si consegna. Ed è qui che l’analogia tomista dispiega tutta la sua forza: come la grazia non opera sul vuoto, così la tecnologia non lavora sull’assenza di coscienza. E quando l’uomo smette di esercitare la propria interiorità morale, non è la macchina a guadagnare potere: è l’uomo stesso a perdere statura. Da questo punto nasce il problema decisivo — non tecnico, ma spirituale — che dobbiamo ora affrontare. Se comprendiamo che la delega morale alla macchina non è un incidente tecnico ma un errore antropologico, la domanda sorgerà per logica conseguenza: che cosa perde l’uomo quando abdica alla propria coscienza? Non perde soltanto un’abilità, ma una dimensione spirituale, quella in cui si decide il senso del bene e del male. La tecnologia può essere potente, sofisticata, rapidissima, ma non può diventare soggetto morale.
La tradition chrétienne ha sempre insegnato che l’esercizio del buonsenso è un’arte che nasce dalla grazia e dalla libertà: un equilibrio tra prudenza, verità e carità. L’algoritmo non conosce alcuna di queste tre. Non è prudente, perché non valuta; ce n'est pas vrai, perché non conosce; non è caritatevole, perché non ama. À cause de ce, usare l’Intelligenza Artificiale come strumento è possibile; usarla come criterio è disumano, pensare che possa creare al posto dell’uomo incapace ad articolare un pensiero, o a produrre un lavoro intellettuale, a dir poco è illusorio. La tecnologia può assistere l’uomo, mai giudicarlo; può aiutare la parola, mai sostituirla; può servire la missione, mai determinarne i confini.
Una civiltà che delega alla macchina ciò che appartiene alla coscienza perde la propria identità spirituale: diventa una società che sa molto, ma comprende poco; che parla continuamente, ma ascolta raramente; che giudica tutto, ma non giudica più se stessa.
La morale cattolica ci ricorda che il criterio del bene non è ciò che il mondo accetta, ma ciò che Dio insegna. E Dio non parla agli algoritmi: parla ai cuori. le Logos si è fatto carne, non codice; Il est devenu l'homme, non programma; si è fatto relazione, non meccanismo. Per questo nessuna intelligenza artificiale, per quanto avanzata, potrà mai diventare criterio ultimo di ciò che è vero, droit, buono e umano. Perché il bene non si calcola: si identifica.
De Isola Patmos, 7 février 2026
.
REMARQUE
[1] Voir. Dicastero per la Dottrina della Fede, Ancien et nouveau. Nota sul rapporto tra intelligenza artificiale e intelligenza umana (28 janvier 2025). — Sulla corretta integrazione tra capacità umana e strumenti tecnologici nell’elaborazione del giudizio morale.
[2] S.d.A. Output significa risultato finale ed è un termine tecnico-informatico che si riferisce all’insieme di dati che un computer emette attraverso processo produttivo, ciò in contrapposizione all’input, che sono invece i dati in ingresso.
[3] Thomas d'Aquin, Somme théologique, je, q.1, a.8, un d 2, dans Sancti Thomae de Aquino Opera Omnia, éd. Leonina.
.
THE CLOSE LINK BETWEEN ETHICS, ARTIFICIAL INTELLIGENCE AND THE THEOLOGY OF SAINT THOMAS AQUINAS
The machine perfects only what it already finds at work in man: it may refine a true thought, but cannot generate truth; it may clean a well-formed phrase, but cannot infuse the spirit that generated it. And it is precisely here that the parallel with the Thomistic principle becomes evident: “La grâce ne détruit pas la nature, mais perfects (grace does not destroy nature, but perfects it)”
— Théologique —

Auteur
Ariel S. Levi Gualdo
.
This article for our théologique page is taken from my latest book Liberté refusée, published by our own press and available for purchase ici. As I set out to address this theme concerning Artificial Intelligence, my mind returned to one of the prophetic masterpieces of modern cinema: 2001: A Space Odyssey, directed by Stanley Kubrick and released in 1968. In that film appears HAL 9000, an extremely advanced artificial intelligence installed aboard the spacecraft Discovery. HAL is perfect in calculation, infallible in data management, yet devoid of what makes human judgement truly human: conscience. When its programming comes into conflict with the objectives of the mission, HAL does not “go mad”: it simply applies logic without moral filtering, without intentionality, and without the capacity to discern good from evil. The result is terrifying: a supremely powerful machine becomes a mortal threat precisely because it neither understands man nor the value of life. This intuition — cinematic, yet theologically lucid — shows that artificial intelligence raises issues that are not merely technical, but radically moral. What is at stake is not computational power — which no one disputes — but the risk that man may delegate to an impersonal system what belongs exclusively to his conscience. And this is precisely what happens when one allows a platform to decide autonomously what is “good” or “bad”, what may be said and what must be silenced: one hands over to the machine an act that ought to be moral. And this is only the first step in the moral delegation to the machine.
Once judgement over truth and falsehood has been ceded to technology, the next step becomes almost inevitable: renouncing educational common sense and personal responsibility as well. When a parent entirely entrusts to an algorithm the task of filtering what a child may see, without critical supervision, this means delegating educational responsibility to a statistical system. Or again, when one asks Artificial Intelligence whether a phrase is “offensive” or “morally acceptable”, this means transferring to the machine a task that requires conscience, not calculation.
What has been outlined so far is not a collection of technical details, but rather the decisive point. Where intention is lacking, the machine can never understand what man is doing when he speaks, admonishes, educates, heals or corrects. And since it cannot access the “why”, it reduces everything to the “how”: it does not evaluate meaning, it analyses only form. It is here that misunderstanding becomes inevitable and error systematic. C'est ce qui se passe, par exemple, when a priest admonishes a faithful person or a father corrects a child: the human conscience distinguishes between severity and cruelty, between correction and offence; the algorithm merely registers the harshness of the phrase and flags it as “hostile language”. A physician who writes “this risk leads to death” may see his words classified as “violent content”, because the machine does not distinguish diagnosis from threat. And even a simple biblical verse may be censored as “offensive language”, because Artificial Intelligence does not perceive moral purpose, but only the surface of words. Pour cette raison, any use of Artificial Intelligence that touches speech, judgement, relationship or freedom must be examined in the light of moral theology, not computer engineering.
The distinction is decisive: the machine does not decide, it selects; it does not evaluate, it filters; it does not judge, it classifies. And what it classifies is never good or evil, but only the probable and the improbable, the frequent and the rare, statistical acceptability and algorithmic suspicion. Human conscience does the exact opposite: it takes seriously the uniqueness of the act and the freedom of the agent; it weighs intentions, circumstances and consequences; it distinguishes between rebuke that saves and offence that wounds; between severity born of love and cruelty born of contempt. The machine sees none of this.
When a father reproves a child, conscience recognises the love that sustains it; the algorithm sees only a “potentially hostile” phrase. When a spiritual director admonishes one entrusted to him, conscience perceives mercy accompanying truth; the algorithm sees a violation of “community standards”. When a person speaks in order to correct, protect or educate, conscience grasps the purpose; the machine perceives only harsh words. The result is paradoxical: where man unites justice and mercy, the machine produces nothing but labels.
Moral ambiguity does not arise from technology: it arises from the man who designs it. For the algorithm is not neutral: it executes a morality it does not know, but which others have decided for it. And we see this every day: if content challenges political correctness, the algorithm interprets it as “hostility”; if it criticises certain excesses of woke culture, it labels it “discrimination”; if it addresses themes of Christian anthropology — for example sexual difference or the family — by criticising powerful and politicised LGBT lobbies, it flags it as “hate speech” or “incitement to violence”. All this not because the machine “thinks” this way, but because it has been programmed to react this way. The algorithm is not born neutral: it is already educated by those who build it, shaped by ideological criteria that confuse criticism with aggression, reflection with offence, truth with violence. In other words, the algorithm has masters: it reflects their fears, amplifies their convictions, censors what they fear. Platforms do not filter according to objective criteria but according to dominant ideologies: what the world idolises is promoted, what the Gospel recalls is suspected; what pleases is amplified, what admonishes is silenced. The result is a new form of cultural censorship: elegant, polite, digitally sterilised — yet still censorship.
These analyses arise from reflections, studies and observations that I have long been developing on the anthropological-cultural level and on the real functioning of digital platforms. It is precisely for this reason that I find it significant to note how, on a different yet complementary level, la Dicastery for the Doctrine of the Faith has recently recalled a decisive principle, essentially moving in the same direction of thought, reaffirming that Artificial Intelligence, while it may “cooperate in the growth of knowledge”, can in no way be equated with human intelligence, which possesses a depth and dynamism that no machine-learning system can replicate. This document stresses that Artificial Intelligence does not understand, but processes; does not judge, but calculates; and is intrinsically incapable of grasping the moral dimension of action, since it lacks conscience and interiority (cf. ici). It therefore clearly warns that moral discernment cannot be attributed to an algorithmic device: to do so would mean abdicating human ethical responsibility and handing truth over to a statistical mechanism. The illusion of an artificial moral intelligence is defined by the document as a form of naïve technological idolatry, because truth is not the fruit of calculation, but of the encounter between freedom and grace[1].
This magisterial reflection confirms the central point: conscience cannot be programmed. The machine may assist, but not judge; it may help, but not interpret; it may filter, but not discern. What belongs to human freedom — and thus to man’s relationship with God — cannot be delegated to any technology.
The ethics of artificial intelligence thus reveal their fragility: a machine may be programmed to recognise words, but it cannot understand the Word. It can identify commands, not commandments. It can catalogue behaviours, not distinguish between virtue and vice. It can detect correlations, not grasp divine revelation. And above all: it cannot know God. A culture that becomes accustomed to replacing the judgement of conscience with algorithmic screening ends up forgetting that freedom is a spiritual act, not a digital output[2]. It is here that moral theology becomes decisive, for it reminds man that truth is always personal; good is always intentional; conscience is always irreducible; moral judgement cannot be delegated to anyone, least of all to software.
This does not mean demonising technology, but restoring it to its proper place: that of a tool, not a judge. Artificial Intelligence may certainly make human work more efficient, but it cannot replace it at the decisive point: moral judgement, the only realm in which it is not enough to know “how things are”, but one must decide “why to do them”. This is the realm of conscience, where man weighs intentions, assumes responsibility, and answers for his actions before God. Here the machine does not enter, cannot enter: it calculates, but does not choose; it analyses, but does not answer; it simulates, but does not love. Like an excellent plastic surgeon, Artificial Intelligence may enhance what is already beautiful, but it cannot make beautiful what is not; it may correct disproportions, soften certain marks of time, but it cannot create beauty from nothing nor restore youth once it has faded. It may enhance a marked face, but it cannot invent a new one. De la même manière, Artificial Intelligence may help organise data, clarify a text, or order complex arguments; but it cannot give intelligence to a limited and mediocre subject, nor conscience to one who lacks it.
The image — perhaps somewhat stark, but effective — is that of the thoroughbred horse and the pony: technology may train, care for and bring out the best in the Arabian stallion, but it will never turn a poor pony into a thoroughbred. What is not there, no algorithm will ever create. The machine perfects only what it already finds at work in man: it may refine a true thought, but cannot generate truth; it may polish a successful phrase, but cannot reach the conscience from which that phrase arose.
The machine perfects only what it already finds at work in man: it may refine a true thought, but cannot generate truth; it may clean a well-formed phrase, but cannot infuse the spirit that generated it. And it is precisely here that the parallel with the Thomistic principle becomes evident:
"La grâce ne détruit pas la nature, mais perfects (grace does not destroy nature, but perfects it)” [3].
At this point it becomes inevitable to turn our gaze to the most delicate ground: if the machine can perfect only what it finds, then the true question does not concern the algorithm, but the man who hands himself over to it. And it is here that the Thomistic analogy displays its full force: just as grace does not act upon a void, so technology does not work upon the absence of conscience. And when man ceases to exercise his moral interiority, it is not the machine that gains power: it is man himself who loses stature. From this point arises the decisive problem — not technical, but spiritual — that we must now confront. If we understand that moral delegation to the machine is not a technical accident but an anthropological error, the question will arise by logical consequence: what does man lose when he abdicates his conscience? He does not lose merely a skill, but a spiritual dimension, the one in which the meaning of good and evil is decided. Technology may be powerful, sophisticated, extremely rapid, but it cannot become a moral subject.
Christian tradition has always taught that the exercise of sound judgement is an art born of grace and freedom: a balance between prudence, truth and charity. The algorithm knows none of these three. It is not prudent, because it does not evaluate; it is not true, because it does not know; it is not charitable, because it does not love. Pour cette raison, using Artificial Intelligence as a tool is possible; using it as a criterion is inhuman. To think that it can create in place of a man incapable of articulating a thought or producing intellectual work is, au moins, illusory. Technology may assist man, never judge him; may help speech, never replace it; may serve the mission, never determine its boundaries.
A civilisation that delegates to the machine what belongs to conscience loses its spiritual identity: it becomes a society that knows much, but understands little; that speaks incessantly, but rarely listens; that judges everything, but no longer judges itself.
Catholic morality reminds us that the criterion of good is not what the world accepts, but what God teaches. And God does not speak to algorithms: He speaks to hearts. The Logos became flesh, not code; became man, not programme; became relationship, not mechanism. For this reason no artificial intelligence, however advanced, can ever become the ultimate criterion of what is true, just, good and human. Because good is not calculated: it is recognised.
De l'île de Patmos, 7 février 2026
.
REMARQUES
[1] Cf. Dicastery for the Doctrine of the Faith, Ancien et nouveau. Note on the relationship between artificial intelligence and human intelligence (28 janvier 2025) — On the correct integration between human capacity and technological tools in the formation of moral judgement.
[2] A.N. Output means final result and is a technical computing term referring to the set of data produced by a computer through a processing operation, in contrast to input, which are the incoming data.
[3] Thomas d'Aquin, Somme théologique, je, q.1, a.8, un d 2, in Sancti Thomae de Aquino Opera Omnia, Leonine Edition.
.
EL ESTRECHO VÍNCULO ENTRE ÉTICA, INTELIGENCIA ARTIFICIAL Y LA TEOLOGÍA DE SANTO TOMÁS DE AQUINO
La máquina perfecciona solo aquello que ya encuentra en acto en el hombre: puede afinar un pensamiento verdadero, pero no generar la verdad; puede limpiar una frase lograda, pero no infundir el espíritu que la ha generado. Y es precisamente aquí donde se hace evidente el paralelismo con el principio tomista: «La grâce ne détruit pas la nature, mais perfects (la gracia no destruye la naturaleza, sino que la perfecciona)».
- Théologique -

Auteur
Ariel S. Levi Gualdo
.
Este artículo para nuestra página théologique está tomado de mi último libro Liberté refusée (La libertad negada) publicado por nuestras ediciones y disponible a la venta ici.
Al disponeme a tratar esta temática relacionada con la Inteligencia Artificial, vino a mi mente una de las obras más proféticas del cine moderno: 2001: Odisea en el espacio, dirigida por Stanley Kubrick y estrenada en 1968. En esa película aparece HAL 9000, una inteligencia artificial de altísimo nivel, instalada a bordo de la nave espacial Discovery. HAL es perfecta en el cálculo, infalible en la gestión de datos, pero carece de aquello que hace verdaderamente humano al juicio: la conciencia. Cuando su programación entra en conflicto con los objetivos de la misión, HAL no “enloquece”: simplemente aplica la lógica sin el filtro moral, sin intencionalidad y sin la capacidad de discernir el bien del mal. El resultado es estremecedor: una máquina potentísima se convierte en una amenaza mortal precisamente porque no comprende al hombre ni el valor de la vida. Esta intuición — cinematográfica, pero teológicamente clarísima — muestra que la inteligencia artificial plantea problemas que no son meramente técnicos, sino radicalmente morales. No está en juego la potencia de cálculo — que nadie discute — sino el riesgo de que el hombre delegue en un sistema impersonal aquello que pertenece exclusivamente a su conciencia. Y esto es precisamente lo que ocurre cuando se permite que una plataforma decida de manera autónoma qué es “bueno” o “malo”, qué puede decirse y qué debe ser silenciado: se entrega a la máquina un acto que debería ser moral. Y esto es solo el primer paso de la delegación moral a la máquina.
Una vez cedido a la tecnología el juicio sobre lo que es verdadero de lo que es falso, el paso siguiente se vuelve casi inevitable: renunciar también al sentido común educativo y a la responsabilidad personal. Ocurre, Par exemple, cuando un progenitor confía por completo a un algoritmo la tarea de filtrar lo que un hijo puede ver, sin una vigilancia crítica: significa delegar a un sistema estadístico la responsabilidad educativa. O cuando se pregunta a la Inteligencia Artificial si una frase es “ofensiva” o “moralmente aceptable”: significa transferir a la máquina una tarea que requiere conciencia, no cálculo.
Lo expuesto hasta ahora no constituye un conjunto de detalles técnicos, sino el punto decisivo. Si falta la intención, la máquina no puede comprender jamás qué está haciendo el hombre cuando habla, amonesta, educa, cura o corrige. Y puesto que no puede acceder al “porqué”, reduce todo al “cómo”: no evalúa el sentido, analiza solo la forma. Es aquí donde el equívoco se vuelve inevitable y el error sistemático. C'est ce qui arrive, Par exemple, cuando un sacerdote amonesta a un fiel o un padre corrige a un hijo: la conciencia humana distingue entre severidad y crueldad, entre corrección y ofensa; el algoritmo registra únicamente la dureza de la frase y la señala como “lenguaje hostil”. El médico que escribe «este riesgo conduce a la muerte» puede ver sus palabras clasificadas como “contenido violento”, porque la máquina no distingue una diagnosis de una amenaza. Incluso un simple versículo bíblico puede ser censurado como “lenguaje ofensivo”, porque la Inteligencia Artificial no percibe la finalidad moral, sino solo la superficie de la palabra. Pour cette raison, cualquier uso de la Inteligencia Artificial que afecte a la palabra, al juicio, a la relación o a la libertad debe ser examinado a la luz de la teología moral, no de la ingeniería informática.
La distinción es decisiva: la máquina no decide, selecciona; no evalúa, filtra; no juzga, clasifica. Y lo que clasifica no es nunca el bien o el mal, sino solo lo probable y lo improbable, lo frecuente y lo raro, lo aceptable estadísticamente y lo sospechoso algorítmicamente. La conciencia humana hace exactamente lo contrario: toma en serio la unicidad del acto y la libertad del agente; pondera intenciones, circunstancias y consecuencias; distingue entre la reprensión que salva y la ofensa que hiere; entre la severidad por amor y la crueldad por desprecio. La máquina no ve nada de esto.
Cuando un padre reprende a un hijo, la conciencia reconoce el amor que lo sostiene; el algoritmo ve solo una frase “potencialmente hostil”. Cuando un director espiritual amonesta a quien tiene a su cargo, la conciencia percibe la misericordia que acompaña a la verdad; el algoritmo ve una violación de los “estándares de la comunidad”. Cuando una persona habla para corregir, proteger o educar, la conciencia capta la finalidad; la máquina percibe únicamente la palabra dura. El resultado es paradójico: allí donde el hombre une justicia y misericordia, la máquina produce solo etiquetas.
La ambigüedad moral no nace de la tecnología: nace del hombre que la diseña. Porque el algoritmo no es neutral: ejecuta una moral que no conoce, pero que otros han decidido por él. Y esto lo vemos cada día: si un contenido cuestiona lo políticamente correcto, el algoritmo lo interpreta como “hostilidad”; si critica ciertas derivas de la cultura woke, lo etiqueta como “discriminación”; si aborda temas de antropología cristiana — por ejemplo la diferencia sexual o la familia — criticando a los poderosos y politizados lobbies LGBT, lo señala como “incitación al odio” o “incitación a la violencia”, el llamado c. Todo ello no porque la máquina “piense” así, sino porque ha sido programada para reaccionar de ese modo. El algoritmo no nace neutral: nace ya educado por quienes lo construyen, modelado por criterios ideológicos que confunden la crítica con la agresión, la reflexión con la ofensa, la verdad con la violencia. En otras palabras, el algoritmo tiene amos: refleja sus miedos, amplifica sus convicciones, censura lo que temen. Las plataformas no filtran según criterios objetivos, sino conforme a ideologías dominantes: lo que el mundo idolatra es promovido, lo que el Evangelio recuerda es sospechoso; lo que complace es amplificado, lo que amonesta es silenciado. El resultado es una nueva forma de censura cultural: élégant, educada, esterilizada digitalmente — pero siempre censura.
Estas reflexiones mías nacen de estudios, análisis y observaciones que desde hace tiempo vengo profundizando en el plano antropológico-cultural y en el funcionamiento real de las plataformas digitales. Precisamente por ello considero significativo señalar cómo, en un plano distinto pero complementario, el Dicasterio para la Doctrina de la Fe ha recordado recientemente un principio decisivo, yendo sustancialmente en la misma dirección de pensamiento, reafirmando que la Inteligencia Artificial, aun pudiendo «cooperar en el crecimiento del conocimiento», no puede ser equiparada de ningún modo a la inteligencia humana, que posee una profundidad y una dinámica que ningún sistema de aprendizaje automático puede replicar. Este documento subraya que la Inteligencia Artificial no comprende, sino que procesa; no juzga, sino que calcula; y es intrínsecamente incapaz de captar la dimensión moral de la acción, al carecer de conciencia e interioridad (cf.. ici). Advierte, donc, con claridad que no se puede atribuir a un dispositivo algorítmico el discernimiento moral: hacerlo significaría abdicar de la responsabilidad ética del hombre y entregar la verdad a un mecanismo estadístico. La ilusión de una inteligencia moral artificial es definida por el documento como una forma de ingenua idolatría tecnológica, porque la verdad no es fruto del cálculo, sino del encuentro entre libertad y gracia[1].
Esta reflexión magisterial confirma el punto central: la conciencia no se programa. La máquina puede asistir, pero no juzgar; puede ayudar, pero no interpretar; puede filtrar, pero no discernir. Aquello que pertenece a la libertad del hombre — y, donc, a su relación con Dios — no puede ser delegado a ninguna tecnología.
La ética de la inteligencia artificial revela así su fragilidad: una máquina puede ser programada para reconocer palabras, pero no puede comprender la Palabra. Puede identificar órdenes, no mandamientos. Puede censar comportamientos, no distinguir entre virtud y vicio. Puede detectar correlaciones, no acoger la revelación divina. Oui, sobre todo: no puede conocer a Dios. Una cultura que se acostumbra a sustituir el juicio de la conciencia por el cribado de un algoritmo termina olvidando que la libertad es un acto espiritual, no un output digital[2]. Es aquí donde la teología moral se vuelve decisiva, porque recuerda al hombre que: la verdad es siempre personal; el bien es siempre intencional; la conciencia es siempre irreductible; el juicio moral no puede ser delegado a nadie, y menos aún a un logiciel.
Esto no significa demonizar la tecnología, sino devolverla a su lugar propio: el de instrumento, no el de juez. La Inteligencia Artificial puede ciertamente hacer más ágil el trabajo humano, pero no puede sustituirlo en el punto decisivo: el juicio moral, el único ámbito en el que no basta saber “cómo están las cosas”, sino que es necesario decidir “por qué hacerlas”. Es el lugar de la conciencia, donde el hombre pondera intenciones, asume responsabilidades y responde de su obrar ante Dios. Aquí la máquina no entra, no puede entrar: calcula, pero no elige; analiza, pero no responde; simula, pero no ama. Como un excelente cirujano plástico, la Inteligencia Artificial puede realzar lo que ya es bello, pero no puede hacer bello lo que no lo es; puede corregir desproporciones, puede atenuar ciertos signos del tiempo, pero no puede crear desde la nada ni la belleza que no existe ni devolver la juventud ya marchita. Puede realzar un rostro marcado, pero no puede inventar un rostro nuevo. De la même façon, la Inteligencia Artificial puede ayudar a organizar datos, aclarar un texto, ordenar argumentos complejos; pero no puede dar inteligencia a un sujeto limitado y mediocre, ni conciencia a quien carece de ella.
La imagen, quizá un poco cruda pero eficaz, es la del caballo de raza y el poni: la tecnología puede entrenar, cuidar y hacer rendir al máximo al semental árabe, pero jamás transformará a un pobre poni en un pura sangre. Lo que no existe, ningún algoritmo podrá jamás crearlo. La máquina perfecciona solo aquello que ya encuentra en acto en el hombre: puede afinar un pensamiento verdadero, pero no generar la verdad; puede pulir una frase lograda, pero no alcanzar la conciencia de la que esa frase ha surgido.
La máquina perfecciona solo aquello que ya encuentra en acto en el hombre: puede afinar un pensamiento verdadero, pero no generar la verdad; puede limpiar una frase lograda, pero no infundir el espíritu que la ha generado. Y es precisamente aquí donde se hace evidente el paralelismo con el principio tomista:
«La grâce ne détruit pas la nature, mais perfects (la gracia no destruye la naturaleza, sino que la perfecciona)»[3].
Llegados a este punto, se vuelve inevitable dirigir la mirada al terreno más delicado: si la máquina puede perfeccionar solo aquello que encuentra, entonces la verdadera cuestión no concierne al algoritmo, sino al hombre que se entrega a él. Y es aquí donde la analogía tomista despliega toda su fuerza: así como la gracia no actúa sobre el vacío, del mismo modo la tecnología no trabaja sobre la ausencia de conciencia. Y cuando el hombre deja de ejercitar su interioridad moral, no es la máquina la que gana poder: es el propio hombre quien pierde estatura. De aquí nace el problema decisivo — no técnico, sino espiritual — que ahora debemos afrontar. Si comprendemos que la delegación moral a la máquina no es un accidente técnico sino un error antropológico, la pregunta surgirá por lógica consecuencia: ¿qué pierde el hombre cuando abdica su conciencia? No pierde solo una habilidad, sino una dimensión espiritual, aquella en la que se decide el sentido del bien y del mal. La tecnología puede ser poderosa, sofisticada, rapidísima, pero no puede convertirse en sujeto moral.
La tradición cristiana ha enseñado siempre que el ejercicio del buen juicio es un arte que nace de la gracia y de la libertad: un equilibrio entre prudencia, verdad y caridad. El algoritmo no conoce ninguna de estas tres. No es prudente, porque no evalúa; no es verdadero, porque no conoce; no es caritativo, porque no ama. Pour cette raison, usar la Inteligencia Artificial como instrumento es posible; usarla como criterio es inhumano. Pensar que pueda crear en lugar de un hombre incapaz de articular un pensamiento o de producir un trabajo intelectual es, como mínimo, ilusorio. La tecnología puede asistir al hombre, nunca juzgarlo; puede ayudar a la palabra, nunca sustituirla; puede servir a la misión, nunca determinar sus confines.
Una civilización que delega en la máquina aquello que pertenece a la conciencia pierde su identidad espiritual: se convierte en una sociedad que sabe mucho, pero comprende poco; que habla continuamente, pero escucha raramente; que juzga todo, pero ya no se juzga a sí misma.
La moral católica nos recuerda que el criterio del bien no es aquello que el mundo acepta, sino aquello que Dios enseña. Y Dios no habla a los algoritmos: habla a los corazones. El Logos se hizo carne, no código; se hizo hombre, no programa; se hizo relación, no mecanismo. Por eso ninguna inteligencia artificial, por avanzada que sea, podrá jamás convertirse en criterio último de lo que es verdadero, justo, bueno y humano. Porque el bien no se calcula: se reconoce.
De l'île de Patmos, 7 Février 2026
.
NOTAS
[1] Voir. Dicasterio para la Doctrina de la Fe, Ancien et nouveau. Nota sobre la relación entre la inteligencia artificial y la inteligencia humana (28 Janvier 2025). — Sobre la correcta integración entre la capacidad humana y los instrumentos tecnológicos en la elaboración del juicio moral.
[2] N. del A. Output significa resultado final y es un término técnico-informático que se refiere al conjunto de datos que un ordenador emite a través de un proceso productivo, en contraposición al input, que son los datos de entrada.
[3] Tomás de Aquino, Somme théologique, je, q. 1, une. 8, un d 2, en Sancti Thomae de Aquino Opera Omnia, edición Leonina.
.
DIE ENGE VERBINDUNG ZWISCHEN ETHIK, KÜNSTLICHER INTELLIGENZ UND DER THEOLOGIE DES SANKT THOMAS VON AQUIN
Die Maschine perfektioniert nur das, was sie bereits im Menschen vorfindet: Sie kann einen wahren Gedanken verfeinern, aber keine Wahrheit hervorbringen; sie kann einen gelungenen Satz säubern, aber nicht den Geist einhauchen, der ihn hervorgebracht hat. Und genau hier wird die Parallele zum thomanischen Prinzip evident: „La grâce ne détruit pas la nature, mais perfects (die Gnade zerstört die Natur nicht, sondern vollendet sie)"
— Théologique —
.

Auteur
Ariel S. Levi Gualdo
.
Dieser Beitrag für unsere Rubrik théologique ist meinem jüngsten Buch Liberté refusée (Die verweigerte Freiheit), das in unserem Verlag erschienen ist und hier erhältlich ist.
Als ich mich daranmachte, dieses Thema im Zusammenhang mit der Künstlichen Intelligenz zu behandeln, kam mir eines der prophetischsten Meisterwerke des modernen Kinos in den Sinn: 2001: Odyssee im Weltraum, unter der Regie von Stanley Kubrick und 1968 veröffentlicht. In diesem Film erscheint HAL 9000, eine hochentwickelte Künstliche Intelligenz, die an Bord des Raumschiffs Discovery installiert ist. HAL ist perfekt im Rechnen, unfehlbar in der Datenverarbeitung, aber ihr fehlt das, was das menschliche Urteil ausmacht: das Gewissen. Als ihre Programmierung mit den Zielen der Mission in Konflikt gerät, „wird“ HAL nicht wahnsinnig: sie wendet schlicht Logik ohne moralischen Filter an, ohne Intentionalität und ohne die Fähigkeit, zwischen Gut und Böse zu unterscheiden. Das Ergebnis ist erschreckend: Eine extrem leistungsfähige Maschine wird gerade deshalb zu einer tödlichen Bedrohung, weil sie den Menschen und den Wert des Lebens nicht versteht. Diese – filmische, aber theologisch äußerst klare – Intuition zeigt, dass die Künstliche Intelligenz Probleme aufwirft, die nicht bloß technischer Natur sind, sondern radikal moralisch. Nicht die Rechenleistung steht zur Debatte – diese bestreitet niemand –, sondern die Gefahr, dass der Mensch einem unpersönlichen System überlässt, was ausschließlich seiner Gewissensentscheidung zukommt. Genau dies geschieht, wenn man einer Plattform erlaubt, autonom zu entscheiden, was „gut“ oder „böse“ ist, was gesagt werden darf und was verschwiegen werden muss: Man überträgt der Maschine einen Akt, der moralisch sein müsste. Und dies ist nur der erste Schritt der moralischen Delegation an die Maschine.
Sobald der Technik das Urteil über wahr und falsch überlassen wird, wird der nächste Schritt nahezu unvermeidlich: auch auf pädagogischen gesunden Menschenverstand und persönliche Verantwortung zu verzichten. Dies geschieht etwa dann, wenn ein Elternteil einem Algorithmus vollständig die Aufgabe überträgt, zu filtern, was ein Kind sehen darf, ohne kritische Aufsicht: Das bedeutet, einem statistischen System die erzieherische Verantwortung zu delegieren. Oder wenn man die Künstliche Intelligenz fragt, ob ein Satz „beleidigend“ oder „moralisch akzeptabel“ sei: Dann überträgt man der Maschine eine Aufgabe, die Gewissen erfordert, nicht Berechnung.
Was hier dargestellt wurde, ist kein Ensemble technischer Einzelheiten, sondern der entscheidende Punkt. Fehlt die Intention, kann die Maschine niemals verstehen, was der Mensch tut, wenn er spricht, ermahnt, erzieht, heilt oder korrigiert. Und da sie keinen Zugang zum „Warum“ hat, reduziert sie alles auf das „Wie“: Sie bewertet nicht den Sinn, sondern analysiert lediglich die Form. Hier wird das Missverständnis unvermeidlich und der systematische Fehler setzt ein. So etwa, wenn ein Priester einen Gläubigen ermahnt oder ein Vater seinen Sohn korrigiert: Das menschliche Gewissen unterscheidet zwischen Strenge und Grausamkeit, zwischen Korrektur und Beleidigung; der Algorithmus registriert lediglich die Härte des Satzes und markiert ihn als „feindselige Sprache“. Der Arzt, der schreibt: „Dieses Risiko führt zum Tod“, kann seine Worte als „gewalttätigen Inhalt“ klassifiziert sehen, weil die Maschine eine Diagnose nicht von einer Drohung unterscheiden kann. Selbst ein einfacher Bibelvers kann als „beleidigende Sprache“ zensiert werden, da die Künstliche Intelligenz nicht die moralische Zielrichtung wahrnimmt, sondern nur die Oberfläche des Wortes. Deshalb muss jeder Einsatz von Künstlicher Intelligenz, der Sprache, Urteil, Beziehung oder Freiheit berührt, im Licht der Moraltheologie geprüft werden, nicht im Rahmen der Informatik.
Die Unterscheidung ist entscheidend: Die Maschine entscheidet nicht, sie selektiert; sie bewertet nicht, sie filtert; sie urteilt nicht, sie klassifiziert. Und was sie klassifiziert, ist niemals Gut oder Böse, sondern lediglich Wahrscheinliches und Unwahrscheinliches, Häufiges und Seltenes, statistisch Akzeptables und algorithmisch Verdächtiges. Das menschliche Gewissen tut das genaue Gegenteil: Es nimmt die Einzigartigkeit der Handlung und die Freiheit des Handelnden ernst; es wägt Intentionen, Umstände und Folgen ab; es unterscheidet zwischen der Zurechtweisung, die rettet, und der Beleidigung, die verletzt; zwischen Strenge aus Liebe und Grausamkeit aus Verachtung. All dies sieht die Maschine nicht.
Wenn ein Vater sein Kind zurechtweist, erkennt das Gewissen die Liebe, die ihn trägt; der Algorithmus sieht nur einen „potenziell feindseligen“ Satz. Wenn ein geistlicher Begleiter seinen Anvertrauten ermahnt, erkennt das Gewissen die Barmherzigkeit, die die Wahrheit begleitet; der Algorithmus sieht eine Verletzung der „Community-Standards“. Wenn jemand spricht, um zu korrigieren, zu schützen oder zu erziehen, erfasst das Gewissen die Zielsetzung; die Maschine erfasst lediglich das harte Wort. Das Ergebnis ist paradox: Dort, wo der Mensch Gerechtigkeit und Barmherzigkeit vereint, produziert die Maschine lediglich Etiketten.
Die moralische Ambiguität entspringt nicht der Technologie, sondern dem Menschen, der sie entwirft. Denn der Algorithmus ist nicht neutral: Er führt eine Moral aus, die er nicht kennt, die andere jedoch für ihn festgelegt haben. Das zeigt sich täglich: Stellt ein Inhalt das politically correct infrage, interpretiert der Algorithmus dies als „Feindseligkeit“; kritisiert er bestimmte Auswüchse der woke-Kultur, etikettiert er ihn als „Diskriminierung“; behandelt er Themen christlicher Anthropologie – etwa die Geschlechterdifferenz oder die Familie – und übt Kritik an mächtigen, politisierten LGBT-Lobbys, wird er als „Hassrede“ oder „Gewaltverherrlichung“ markiert. All dies nicht, weil die Maschine so „denkt“, sondern weil sie so programmiert wurde. Der Algorithmus wird nicht neutral geboren: Er ist von Anfang an erzogen durch seine Entwickler, geformt durch ideologische Kriterien, die Kritik mit Aggression, Reflexion mit Beleidigung und Wahrheit mit Gewalt verwechseln. Anders gesagt: Der Algorithmus hat Herren. Er spiegelt ihre Ängste wider, verstärkt ihre Überzeugungen, zensiert, was sie fürchten. Plattformen filtern nicht nach objektiven Kriterien, sondern nach herrschenden Ideologien: Was die Welt vergöttert, wird gefördert; was das Evangelium in Erinnerung ruft, wird verdächtigt; was gefällt, wird verstärkt; was ermahnt, wird zum Schweigen gebracht. Das Ergebnis ist eine neue Form kultureller Zensur: elegant, höflich, digital sterilisiert – aber dennoch Zensur.
Diese Überlegungen entspringen Studien, Reflexionen und Beobachtungen, die ich seit geraumer Zeit auf anthropologisch-kultureller Ebene sowie hinsichtlich des realen Funktionierens digitaler Plattformen vertiefe. Gerade deshalb halte ich es für bedeutsam festzustellen, dass auf einer anderen, aber komplementären Ebene das Dikasterium für die Glaubenslehre kürzlich ein entscheidendes Prinzip in Erinnerung gerufen hat und im Wesentlichen in dieselbe Denkrichtung geht: Es bekräftigt, dass die Künstliche Intelligenz zwar „zum Wachstum des Wissens beitragen“ könne, jedoch in keiner Weise der menschlichen Intelligenz gleichgestellt werden dürfe, die eine Tiefe und Dynamik besitzt, welche kein maschinelles Lernsystem nachbilden kann. Das Dokument unterstreicht, dass die Künstliche Intelligenz nicht versteht, sondern verarbeitet; nicht urteilt, sondern berechnet; und aufgrund des Mangels an Gewissen und Innerlichkeit grundsätzlich unfähig ist, die moralische Dimension des Handelns zu erfassen (cf. hier). Es warnt daher klar davor, einem algorithmischen System moralische Unterscheidung zuzuschreiben: Dies würde bedeuten, der ethischen Verantwortung des Menschen zu entsagen und die Wahrheit einem statistischen Mechanismus zu überlassen. Die Illusion einer künstlichen moralischen Intelligenz wird als Form naiver technologischer Götzenverehrung bezeichnet, da Wahrheit nicht aus Berechnung entsteht, sondern aus der Begegnung von Freiheit und Gnade[1].
Diese lehramtliche Reflexion bestätigt den zentralen Punkt: Das Gewissen lässt sich nicht programmieren. Die Maschine kann unterstützen, aber nicht urteilen; helfen, aber nicht interpretieren; filtern, aber nicht unterscheiden. Was zur Freiheit des Menschen gehört – und damit zu seiner Beziehung zu Gott –, kann keiner Technologie übertragen werden.
Die Ethik der Künstlichen Intelligenz offenbart so ihre Fragilität: Eine Maschine kann programmiert werden, Wörter zu erkennen, aber sie kann das Wort nicht verstehen. Sie kann Befehle identifizieren, nicht Gebote. Sie kann Verhaltensweisen erfassen, nicht zwischen Tugend und Laster unterscheiden. Sie kann Korrelationen erkennen, nicht die göttliche Offenbarung erfassen. Und vor allem: Sie kann Gott nicht erkennen. Eine Kultur, die sich daran gewöhnt, das Urteil des Gewissens durch die Prüfung eines Algorithmus zu ersetzen, vergisst schließlich, dass Freiheit ein geistiger Akt ist, kein digitaler Output[2]. Hier wird die Moraltheologie entscheidend, denn sie erinnert den Menschen daran: Wahrheit ist immer personal; das Gute ist immer intentional; das Gewissen ist immer irreduzibel; moralisches Urteil kann an niemanden delegiert werden – am allerwenigsten an eine Software.
Dies bedeutet nicht, die Technologie zu verteufeln, sondern sie an ihren rechten Platz zu verweisen: den des Werkzeugs, nicht des Richters. Die Künstliche Intelligenz kann menschliche Arbeit durchaus effizienter machen, sie kann sie aber nicht an der entscheidenden Stelle ersetzen: beim moralischen Urteil, dem einzigen Bereich, in dem es nicht genügt zu wissen, „wie die Dinge stehen“, sondern in dem entschieden werden muss, „warum man sie tut“. Es ist der Ort des Gewissens, an dem der Mensch Intentionen abwägt, Verantwortung übernimmt und für sein Handeln vor Gott einsteht. Hier hat die Maschine keinen Zutritt, sie kann keinen haben: Sie berechnet, aber wählt nicht; analysiert, aber antwortet nicht; simuliert, aber liebt nicht. Wie ein hervorragender plastischer Chirurg kann die Künstliche Intelligenz das bereits Schöne hervorheben, aber sie kann nicht schön machen, was es nicht ist; sie kann Proportionen korrigieren, Alterszeichen mildern, aber weder Schönheit aus dem Nichts schaffen noch verlorene Jugend zurückgeben. Sie kann ein gezeichnetes Gesicht aufwerten, aber kein neues Gesicht erfinden. Ebenso kann die Künstliche Intelligenz helfen, Daten zu ordnen, Texte zu klären, komplexe Argumente zu strukturieren; sie kann jedoch weder einem begrenzten und mittelmäßigen Subjekt Intelligenz verleihen noch einem Menschen ohne Gewissen ein solches geben.
Das Bild – vielleicht etwas drastisch, aber wirkungsvoll – ist das des edlen Vollbluts und des Ponys: Technologie kann den arabischen Hengst trainieren, pflegen und zu Höchstleistungen führen, aber sie wird niemals ein armes Pony in ein Rennpferd verwandeln. Was nicht vorhanden ist, kann kein Algorithmus jemals erschaffen. Die Maschine perfektioniert nur das, was sie bereits im Menschen vorfindet: Sie kann einen wahren Gedanken schärfen, aber keine Wahrheit erzeugen; sie kann einen gelungenen Satz polieren, aber nicht das Gewissen erreichen, aus dem dieser Satz hervorgegangen ist.
Die Maschine perfektioniert nur das, was sie bereits im Menschen vorfindet: Sie kann einen wahren Gedanken verfeinern, aber keine Wahrheit hervorbringen; sie kann einen gelungenen Satz säubern, aber nicht den Geist einhauchen, der ihn hervorgebracht hat. Und genau hier wird die Parallele zum thomanischen Prinzip evident:
„Gratia non tollit naturam, mais perfects (die Gnade zerstört die Natur nicht, sondern vollendet sie)"[3].
An diesem Punkt wird es unvermeidlich, den Blick auf das heikelste Terrain zu richten: Wenn die Maschine nur das perfektionieren kann, was sie vorfindet, dann betrifft die eigentliche Frage nicht den Algorithmus, sondern den Menschen, der sich ihm überlässt. Hier entfaltet die thomanische Analogie ihre volle Kraft: So wie die Gnade nicht auf das Leere wirkt, so arbeitet auch die Technologie nicht bei Abwesenheit von Gewissen. Und wenn der Mensch aufhört, seine moralische Innerlichkeit zu üben, gewinnt nicht die Maschine an Macht – der Mensch verliert an Größe. Von hier aus entsteht das entscheidende Problem – nicht technischer, sondern geistlicher Natur –, dem wir uns nun stellen müssen. Wenn wir begreifen, dass die moralische Delegation an die Maschine kein technischer Unfall, sondern ein anthropologischer Irrtum ist, ergibt sich zwangsläufig die Frage: Was verliert der Mensch, wenn er seinem Gewissen entsagt? Er verliert nicht bloß eine Fähigkeit, sondern eine geistige Dimension, ceux, in der über Sinn von Gut und Böse entschieden wird. Die Technologie mag mächtig, ausgefeilt und rasend schnell sein, sie kann jedoch niemals moralisches Subjekt werden.
Die christliche Tradition hat stets gelehrt, dass die Ausübung des gesunden Urteils eine Kunst ist, die aus Gnade und Freiheit hervorgeht: ein Gleichgewicht von Klugheit, Wahrheit und Liebe. Der Algorithmus kennt keine dieser drei. Er ist nicht klug, weil er nicht abwägt; nicht wahr, weil er nicht erkennt; nicht liebend, weil er nicht liebt. Deshalb ist es möglich, die Künstliche Intelligenz als Werkzeug zu verwenden; sie als Kriterium zu benutzen ist unmenschlich. Zu glauben, sie könne anstelle eines Menschen schaffen, der unfähig ist, einen Gedanken zu artikulieren oder eine geistige Arbeit hervorzubringen, ist mindestens illusorisch. Technologie kann den Menschen unterstützen, niemals ihn richten; sie kann dem Wort dienen, niemals es ersetzen; sie kann der Mission helfen, niemals deren Grenzen bestimmen.
Eine Zivilisation, die der Maschine überlässt, was dem Gewissen gehört, verliert ihre geistige Identität: Sie wird zu einer Gesellschaft, die viel weiß, aber wenig versteht; die unaufhörlich spricht, aber selten zuhört; die alles beurteilt, aber sich selbst nicht mehr beurteilt.
Die katholische Moral erinnert uns daran, dass das Kriterium des Guten nicht das ist, was die Welt akzeptiert, sondern das, was Gott lehrt. Und Gott spricht nicht zu Algorithmen: Er spricht zu Herzen. Der Logos ist Fleisch geworden, nicht Code; er ist Mensch geworden, nicht Programm; er ist Beziehung geworden, nicht Mechanismus. Deshalb kann keine Künstliche Intelligenz, so fortgeschritten sie auch sei, jemals zum letzten Maßstab dessen werden, was wahr, gerecht, gut und menschlich ist. Denn das Gute wird nicht berechnet: Es wird erkannt.
De l'île de Patmos, 7. Februar 2026
.
ANMERKUNGEN
[1] Vgl. Dikasterium für die Glaubenslehre, Ancien et nouveau. Note über das Verhältnis zwischen künstlicher Intelligenz und menschlicher Intelligenz (28. Janvier 2025). — Zur richtigen Integration menschlicher Fähigkeiten und technologischer Instrumente bei der moralischen Urteilsbildung.
[2] Anm. ré. UNE.: Output bezeichnet das Endergebnis und ist ein technischer Begriff der Informatik, der sich auf die Gesamtheit der Daten bezieht, die ein Computer im Rahmen eines Verarbeitungsprozesses ausgibt, im Gegensatz zum Input, also den Eingabedaten.
[3] Thomas von Aquin, Somme théologique, je, q. 1, une. 8, un d 2, in Sancti Thomae de Aquino Opera Omnia, Leoninische Ausgabe.
______________________
Chers lecteurs, ce magazine nécessite des frais de gestion auxquels nous avons toujours été confrontés uniquement avec vos offres gratuites. Ceux qui souhaitent soutenir notre travail apostolique peuvent nous envoyer leur contribution par le moyen pratique et sûr Pay Pal en cliquant ci-dessous:
Ou si vous préférez, vous pouvez utiliser notre compte bancaire au nom de:
Éditions L'île de Patmos
n Agence. 59 De Rome – Vatican
IBAN: IT74R0503403259000000301118
Pour les virements bancaires internationaux:
Code SWIFT: BAPPIT21D21
Si vous effectuez un virement bancaire, envoyez un mail à la rédaction,
la banque ne fournit pas votre e-mail et nous ne pourrons pas vous envoyer de message de remerciement: isoladipatmos@gmail.com
Nous vous remercions du soutien que vous souhaitez offrir à notre service apostolique.
Les Pères Patmos Island






