Le lien étroit entre l’éthique, intelligence artificielle et théologie de San Tomso d'Aquino – Le lien étroit entre l’éthique, Intelligence artificielle et théologie de saint Thomas d'Aquin – Le lien étroit entre l’éthique, intelligence artificielle et théologie de saint Thomas d'Aquin – Le lien étroit entre l’éthique, intelligence artificielle et théologie de saint Thomas d'Aquin
italien, Anglais, espagnol, Néerlandais
LE LIEN ÉTROIT ENTRE L’ÉTHIQUE, INELLIGINS ET ET TOMOGE À CECI À CECI DE L'AQUIN
La machine ne fait que perfectionner ce qu'elle trouve déjà en place chez l'homme: peut affiner une vraie pensée, mais ne génère pas de vérité; peut nettoyer une phrase réussie, mais n'insufflez pas l'esprit qui l'a généré. Et c'est précisément ici que le parallèle avec le principe thomiste devient évident.: «gla raison n'enlève pas la nature, mais finist (la grâce ne détruit pas la nature, mais il le perfectionne)»
— Théologique —
.

Auteur
Ariel S. Levi Gualdo
.
![]()
.
Cet article pour notre page théologique C'est basé sur mon dernier livre Liberté refusée, publié par nos éditions et en vente Qui.

Je me prépare à aborder ce sujet lié à l'Intelligence Artificielle, l'un des chefs-d'œuvre prophétiques du cinéma moderne m'est venu à l'esprit: 2001: Space Odyssey, réalisé par Stanley Kubrick et sorti en 1968. HAL apparaît dans ce film 9000, une intelligence artificielle de très haut niveau, installé à bord du vaisseau spatial Découverte. HAL est parfait en calcul, infaillible dans la gestion des données, mais dépourvu de ce qui rend le jugement humain: conscience. Quand sa programmation entre en conflit avec les objectifs de la mission, HAL ne "devient pas fou": il applique simplement la logique sans le filtre moral, sans intentionnalité et sans capacité à discerner le bien du mal. Le résultat est effrayant: une machine très puissante devient une menace mortelle précisément parce qu'elle ne comprend pas l'homme ni la valeur de la vie. Cette intuition - cinématographique mais théologiquement lucide - montre que l'intelligence artificielle pose des problèmes qui ne sont pas seulement techniques., mais radicalement moral. Ce qui est en jeu n'est pas la puissance de calcul - ce que personne ne conteste - mais plutôt le risque que l'homme délègue à un système impersonnel ce qui appartient exclusivement à sa conscience.. Et c’est exactement ce qui se produit lorsque vous laissez une plateforme décider elle-même de ce qui est « bon » ou « mauvais »., ce qui peut être dit ou ce qui doit être gardé sous silence: un acte qui devrait être moral est livré à la machine. Et ce n'est que la première étape de la délégation morale à la machine.
Une fois que le jugement sur la vérité et le mensonge a été abandonné à la technologie, la prochaine étape devient presque inévitable: renoncer également au bon sens éducatif et à la responsabilité personnelle. Ou lorsqu'un parent confie entièrement à l'algorithme le soin de filtrer ce qu'un enfant peut voir, sans vigilance critique: cela signifie déléguer la responsabilité éducative à un système statistique. Ou même lorsque l’on demande à l’Intelligence Artificielle si une phrase est « offensante » ou « moralement acceptable »: cela signifie transférer une tâche qui nécessite de la conscience à la machine, je ne calcule pas.
Ce qui a été illustré jusqu’à présent n’est pas un ensemble de détails techniques ils sont plutôt le point décisif. Si l'intention manque, la machine ne peut jamais comprendre Quel l'homme fait quand il parle, met en garde contre, éduquer, soins, corrige. Et comme il ne peut pas accéder au « pourquoi », réduit tout au "comment": n'évalue pas le sens, il analyse uniquement la forme. C'est là que l'incompréhension devient inévitable et l'erreur systématique. C'est ce qui se passe, par exemple, quand un prêtre admoneste un croyant ou qu'un père corrige un fils: la conscience humaine fait la distinction entre sévérité et cruauté, entre correction et offense; l'algorithme enregistre uniquement la dureté de la phrase et la signale comme « langage hostile ». Le médecin qui écrit « ce risque entraîne la mort » peut voir ses propos classés comme « contenu violent », parce que la machine ne fait pas la distinction entre un diagnostic et une menace. Et un simple verset biblique peut être censuré comme « langage offensant » parce que l’intelligence artificielle ne perçoit pas de but moral., mais seulement la surface du mot. À cause de ce, toute utilisation de l'Intelligence Artificielle qui touche à la parole, le jugement, la relation ou la liberté doit être examinée à la lumière de la théologie morale, pas d'ingénierie informatique.
La distinction est cruciale: la machine ne décide pas, sélectionner; n'évalue pas, filtre; ne juge pas, classification. Et ce qui classe n'est jamais bon ou mauvais, mais seulement le probable et l'improbable, le fréquent et le rare, l’acceptable statistique et la suspicion algorithmique. La conscience humaine fait exactement le contraire: prend au sérieux le caractère unique de l'acte et la liberté de l'agent; pèse les intentions, circonstances, conséquences; distingue le reproche qui sauve et l'offense qui blesse; entre sévérité par amour et cruauté par mépris. La machine ne voit rien de tout cela.
Quand un père rappelle son fils, la conscience reconnaît l'amour qui la soutient; l'algorithme ne voit qu'une phrase « potentiellement hostile ». Lorsqu'un directeur spirituel réprimande l'un de ses subordonnés directs, la conscience voit la miséricorde qui accompagne la vérité; l’algorithme voit une violation des « normes communautaires ». Quand une personne parle pour corriger, protéger ou éduquer, la conscience perçoit la finalité, la machine ne perçoit que le mot dur. Le résultat est paradoxal: où l'homme allie justice et miséricorde, la machine ne produit que des étiquettes.
L’ambiguïté morale ne vient pas de la technologie: vient de l'homme qui l'a conçu. Parce que l'algorithme n'est pas neutre: fait une morale qu'il ne connaît pas, mais que d'autres ont décidé pour lui. Et nous voyons cela tous les jours: si un contenu remet en cause le politiquement correct, l’algorithme l’interprète comme de « l’hostilité »; s'il critique certaines dérives de la culture réveillé, le qualifie de « discrimination »; s'il aborde des thèmes de l'anthropologie chrétienne - par exemple la différence sexuelle ou la famille - il adresse des critiques aux lobbies LGBT puissants et politisés, le signale comme un « discours de haine », ou « incitation à la violence », le soi-disant "discours de haine”, au sens propre: discours de haine. Tout ça, pas parce que la machine "pense" comme ça, mais parce qu'il a été programmé pour réagir et interagir comme ça. L’algorithme n’est pas né neutre: il naît déjà éduqué par ceux qui le construisent, façonné par des critères idéologiques qui confondent critique et agression, réflexion avec offense, la vérité avec la violence. En d'autres termes, l'algorithme a des maîtres: reflète leurs craintes, amplifie leurs croyances, ça censure ce qu'ils craignent. Les plateformes ne filtrent pas sur des critères objectifs mais selon les idéologies dominantes: ce que le monde idolâtre est promu, ce que rappelle l'Evangile est suspect; ce qui satisfait est amplifié, ce qui avertit est réduit au silence. Le résultat est une nouvelle forme de censure culturelle: élégant, poli, stérilisé numériquement – mais toujours censuré.
Mes analyses sont issues de réflexions, à partir des études et observations que je mène depuis un certain temps sur le plan anthropologique-culturel et sur le fonctionnement réel des plateformes numériques. C'est précisément pourquoi je trouve important de noter comment, à un niveau différent mais complémentaire, la Dicastère pour la doctrine de la foi récemment rappelé un principe décisif, allant essentiellement dans le même sens de pensée que moi, réitérant que l'intelligence artificielle, tout en étant capable de « coopérer à l’essor des connaissances », elle ne peut en aucun cas être assimilée à l’intelligence humaine qui possède une profondeur et une dynamique qu’aucun système d’apprentissage automatique ne peut reproduire. Ce document souligne que l'Intelligence Artificielle ne comprend pas, mais élaboré, ne juge pas, mais calcule, et est intrinsèquement incapable de saisir la dimension morale de l'action, puisqu'il manque de conscience et d'intériorité (cf.. Qui). Il prévient alors clairement que le discernement moral ne peut être attribué à un dispositif algorithmique.: cela reviendrait à abdiquer la responsabilité éthique de l’homme et à confier la vérité à un mécanisme statistique. L'illusion d'une intelligence morale artificielle est définie par le document comme une forme d'idolâtrie technologique naïve., parce que la vérité n'est pas le résultat d'un calcul, mais de la rencontre entre la liberté et la grâce[1].
Cette réflexion magistrale confirme le point central: la conscience ne peut pas être programmée. La machine peut aider, mais ne juge pas; peut aider, mais n'interprète pas; peut filtrer, mais je ne discerne pas. Ce qui appartient à la liberté de l'homme - et donc à sa relation avec Dieu - ne peut être délégué à aucune technologie..
L’éthique de l’intelligence artificielle révèle ainsi sa fragilité: une machine peut être programmée pour reconnaître les mots, mais il ne peut pas comprendre la Parole. Il peut identifier les commandes, pas des commandements. Il peut enregistrer des comportements, ne fais pas de distinction entre la vertu et le vice. Il peut détecter des corrélations, ne saisis pas la révélation divine. et au-dessus: je ne peux pas connaître Dieu. Une culture qui s’habitue à remplacer le jugement de conscience par l’examen minutieux d’un algorithme finit par oublier que la liberté est un acte spirituel, pas un sortir numérique[2]. Et c’est là que la théologie morale devient décisive, parce que cela rappelle à l'homme que: la vérité est toujours personnelle; le bien est toujours intentionnel; la conscience est toujours irréductible; le jugement moral ne peut être délégué à personne, encore moins à un logiciel.
Cela ne veut pas dire diaboliser la technologie, mais remets-le à sa place: celui d'un instrument, pas un juge. Intelligence artificielle, donc, cela peut certainement rendre le travail humain plus agile, mais il ne peut pas le remplacer au moment décisif: jugement moral, le seul domaine dans lequel il ne suffit pas de savoir "comment ça va", mais tu dois décider "pourquoi les faire". C'est le lieu de la conscience, où l'homme pèse ses intentions, assume la responsabilité, Il est responsable de ses actes devant Dieu. La voiture ne rentre pas ici, je ne peux pas entrer: calculer, mais il ne choisit pas; analyser, mais il ne répond pas; début, mais il n'aime pas. Tel un excellent chirurgien plasticien, l’Intelligence Artificielle peut sublimer ce qui est déjà beau, mais il ne peut pas rendre beau ce qui ne l'est pas, peut corriger les disproportions, peut atténuer certains signes du vieillissement; mais il ne peut pas créer à partir de rien ni la beauté qui n'est pas là, ni restaurer la jeunesse fanée. Il peut rehausser un visage ridé, mais il ne peut pas inventer un nouveau visage. également, L'intelligence artificielle peut aider à organiser les données, clarifier un texte, mettre de l'ordre dans des sujets complexes; mais il ne peut pas donner d'intelligence à un sujet limité et médiocre, ni conscience à ceux qui ne l'ont pas.
L'image, peut-être un peu brut mais efficace, c'est celui du cheval pur-sang et du poney: la technologie peut former, guérir, faire donner le meilleur de l'étalon arabe, mais cela ne transformera jamais un pauvre poney en pur-sang. Qu'est-ce qui n'est pas là, aucun algorithme ne pourra jamais le créer. La machine ne fait que perfectionner ce qu'elle trouve déjà en place chez l'homme: peut affiner une vraie pensée, mais ne génère pas de vérité; peut peaufiner une phrase réussie, mais il ne peut pas atteindre la conscience d'où est née cette phrase.
La machine ne fait que perfectionner ce qu'elle trouve déjà en place chez l'homme: peut affiner une vraie pensée, mais ne génère pas de vérité; peut nettoyer une phrase réussie, mais n'insufflez pas l'esprit qui l'a généré. Et c'est précisément ici que le parallèle avec le principe thomiste devient évident.:
«gla raison n'enlève pas la nature, mais perfects (la grâce ne détruit pas la nature, mais il le perfectionne)»[3].
À ce stade, cela devient inévitable tournez votre regard vers le terrain plus délicat: si la machine ne peut que perfectionner ce qu'elle trouve, alors le vrai problème ne concerne pas l'algorithme, mais l'homme qui se livre à lui. Et c’est ici que l’analogie thomiste déploie toute sa force: tout comme la grâce n'agit pas sur le vide, donc la technologie ne fonctionne pas sur l'absence de conscience. Et quand l'homme cesse d'exercer sa propre intériorité morale, ce n'est pas la machine qui gagne en puissance: c'est l'homme lui-même qui perd sa stature. De là se pose le problème décisif — non technique —, mais spirituel - dont nous devons maintenant aborder. Si l’on comprend que la délégation morale à la machine n’est pas un accident technique mais une erreur anthropologique, la question se posera comme une conséquence logique: que perd l'homme lorsqu'il abdique sa conscience? Il ne perd pas seulement une capacité, mais une dimension spirituelle, celui dans lequel se décide le sens du bien et du mal. La technologie peut être puissante, sophistiqué, très vite, mais cela ne peut pas devenir un sujet moral.
La tradition chrétienne il a toujours enseigné que l'exercice du bon sens est un art qui naît de la grâce et de la liberté: un équilibre entre prudence, vérité et charité. L'algorithme ne connaît aucun de ces trois. Ce n'est pas prudent, parce qu'il n'évalue pas; ce n'est pas vrai, parce qu'il ne sait pas; Ce n'est pas charitable, parce qu'il n'aime pas. À cause de ce, utiliser l’intelligence artificielle comme outil est possible; l'utiliser comme critère est inhumain, penser qu'il peut créer à la place de l'homme incapable d'articuler une pensée, ou pour produire une œuvre intellectuelle, c'est pour le moins illusoire. La technologie peut aider les humains, ne le juge jamais; le mot peut aider, ne le remplace jamais; peut servir la mission, ne jamais déterminer ses limites.
Une civilisation qui délègue à la machine ce qui appartient à la conscience perd son identité spirituelle: devient une entreprise qui en sait beaucoup, mais il comprend peu; qui parle continuellement, mais il écoute rarement; qui juge tout, mais elle ne se juge plus.
Moralité catholique nous rappelle que le critère du bien n'est pas ce que le monde accepte, mais ce que Dieu enseigne. Et Dieu ne parle pas aux algorithmes: parler aux coeurs. le Logos il est devenu chair, pas de code; Il est devenu l'homme, je ne prévois pas; un rapport a été fait, pas de mécanisme. Pour cette raison, pas d'intelligence artificielle, aussi avancé soit-il, cela peut-il un jour devenir le critère ultime de ce qui est vrai, droit, bon et humain. Parce que le bien ne se calcule pas: et identifier.
De Isola Patmos, 7 février 2026
.
REMARQUE
[1] Voir. Dicastère pour la doctrine de la foi, Ancien et nouveau. Note sur la relation entre intelligence artificielle et intelligence humaine (28 janvier 2025). — Sur la bonne intégration entre les capacités humaines et les outils technologiques dans l'élaboration du jugement moral.
[2] S.d.A. Sortir signifie résultat final et est un terme technico-informatique qui fait référence à l'ensemble de données qu'un ordinateur émet pendant le processus de production, ceci contrairement à l'entrée, qui sont à la place les données d'entrée.
[3] Thomas d'Aquin, Somme théologique, je, q.1, a.8, un d 2, dans Les oeuvres de saint Thomas d'Aquin, éd. Lion.
.
LE LIEN ÉTROIT ENTRE L’ÉTHIQUE, INTELLIGENCE ARTIFICIELLE ET THÉOLOGIE DE SAINT THOMAS D'AQUIN
La machine ne perfectionne que ce qu'elle trouve déjà à l'œuvre chez l'homme.: cela peut affiner une vraie pensée, mais ne peut pas générer la vérité; cela peut nettoyer une phrase bien formée, mais ne peut pas infuser l'esprit qui l'a généré. Et c'est précisément ici que le parallèle avec le principe thomiste devient évident.: “La grâce ne détruit pas la nature, mais perfects (la grâce ne détruit pas la nature, mais le perfectionne)”
— Théologique —

Auteur
Ariel S. Levi Gualdo
.
Cet article pour notre théologique page est tiré de mon dernier livre Liberté refusée, publié par notre propre presse et disponible à l'achat ici. Alors que j’entreprenais d’aborder ce thème concernant l’Intelligence Artificielle, mon esprit est revenu à l'un des chefs-d'œuvre prophétiques du cinéma moderne: 2001: Une odyssée de l'espace, réalisé par Stanley Kubrick et sorti en 1968. Dans ce film apparaît HAL 9000, une intelligence artificielle extrêmement avancée installée à bord du vaisseau spatial Discovery. HAL est parfait en calcul, infaillible dans la gestion des données, mais dépourvu de ce qui rend le jugement humain véritablement humain: conscience. Lorsque sa programmation entre en conflit avec les objectifs de la mission, HAL ne « devient pas fou »: il applique simplement la logique sans filtrage moral, sans intentionnalité, et sans la capacité de discerner le bien du mal. Le résultat est terrifiant: une machine extrêmement puissante devient une menace mortelle précisément parce qu’elle ne comprend ni l’homme ni la valeur de la vie. Cette intuition - cinématographique, mais théologiquement lucide – montre que l’intelligence artificielle soulève des questions qui ne sont pas seulement techniques, mais radicalement moral. Ce qui est en jeu n’est pas la puissance de calcul – ce que personne ne conteste – mais le risque que l’homme délègue à un système impersonnel ce qui appartient exclusivement à sa conscience.. Et c’est précisément ce qui se produit lorsqu’on permet à une plateforme de décider de manière autonome ce qui est « bon » ou « mauvais »., ce qui peut être dit et ce qui doit être réduit au silence: on remet à la machine un acte qui devrait être moral. Et ce n'est que la première étape de la délégation morale à la machine.
Une fois que le jugement sur la vérité et le mensonge a été cédé à la technologie, la prochaine étape devient presque inévitable: renoncer au bon sens éducatif et à la responsabilité personnelle également. Quand un parent confie entièrement à un algorithme le soin de filtrer ce qu'un enfant peut voir, sans surveillance critique, cela signifie déléguer la responsabilité éducative à un système statistique. Ou encore, quand on demande à l’Intelligence Artificielle si une phrase est « offensante » ou « moralement acceptable », cela signifie transférer à la machine une tâche qui demande de la conscience, pas de calcul.
Ce qui a été décrit jusqu'à présent n'est pas un ensemble de détails techniques., mais plutôt le point décisif. Là où l'intention fait défaut, la machine ne peut jamais comprendre ce que fait l'homme quand il parle, réprimande, éduque, guérit ou corrige. Et comme il ne peut pas accéder au « pourquoi », ça réduit tout au "comment": il n'évalue pas le sens, il analyse uniquement la forme. C'est ici que l'incompréhension devient inévitable et l'erreur systématique.. C'est ce qui se passe, par exemple, lorsqu'un prêtre réprimande un fidèle ou qu'un père corrige un enfant: la conscience humaine fait la distinction entre sévérité et cruauté, entre correction et offense; l'algorithme enregistre simplement la dureté de la phrase et la signale comme « langage hostile ». Un médecin qui écrit « ce risque entraîne la mort » pourra voir ses propos classés comme « contenu violent », parce que la machine ne fait pas la distinction entre diagnostic et menace. Et même un simple verset biblique peut être censuré comme étant un « langage offensant »., parce que l'Intelligence Artificielle ne perçoit pas de but moral, mais seulement la surface des mots. Pour cette raison, toute utilisation de l'Intelligence Artificielle qui touche à la parole, jugement, la relation ou la liberté doit être examinée à la lumière de la théologie morale, pas d'ingénierie informatique.
La distinction est décisive: la machine ne décide pas, il sélectionne; il n'évalue pas, il filtre; il ne juge pas, il classe. Et ce qu'il classe n'est jamais bon ou mauvais, mais seulement le probable et l'improbable, le fréquent et le rare, acceptabilité statistique et suspicion algorithmique. La conscience humaine fait exactement le contraire: il prend au sérieux le caractère unique de l'acte et la liberté de l'agent; ça pèse les intentions, circonstances et conséquences; il fait la distinction entre la réprimande qui sauve et l'offense qui blesse; entre sévérité née de l'amour et cruauté née du mépris. La machine ne voit rien de tout cela.
Quand un père réprimande un enfant, la conscience reconnaît l'amour qui la soutient; l'algorithme ne voit qu'une phrase « potentiellement hostile ». Quand un directeur spirituel réprimande celui qui lui est confié, la conscience perçoit la miséricorde qui accompagne la vérité; l’algorithme voit une violation des « normes communautaires ». Quand une personne parle pour corriger, protéger ou éduquer, la conscience saisit le but; la machine ne perçoit que les mots durs. Le résultat est paradoxal: où l'homme unit justice et miséricorde, la machine ne produit que des étiquettes.
L’ambiguïté morale ne vient pas de la technologie: il vient de l'homme qui le conçoit. Car l’algorithme n’est pas neutre: il exécute une morale qu'il ne connaît pas, mais que d'autres ont décidé pour cela. Et nous voyons cela tous les jours: si le contenu conteste le politiquement correct, l’algorithme l’interprète comme de « l’hostilité »; s'il critique certains excès de la culture éveillée, il le qualifie de « discrimination »; s'il aborde des thèmes de l'anthropologie chrétienne – par exemple la différence sexuelle ou la famille – en critiquant les lobbies LGBT puissants et politisés, il le qualifie de « discours de haine » ou d’« incitation à la violence ». Tout cela n’est pas parce que la machine « pense » de cette façon, mais parce qu'il a été programmé pour réagir de cette façon. L’algorithme n’est pas né neutre: il est déjà éduqué par ceux qui le construisent, façonné par des critères idéologiques qui confondent critique et agression, réflexion avec offense, la vérité avec la violence. Autrement dit, l'algorithme a des maîtres: cela reflète leurs peurs, amplifie leurs convictions, censure ce qu'ils craignent. Les plateformes ne filtrent pas selon des critères objectifs mais selon les idéologies dominantes: ce que le monde idolâtre est promu, ce que rappelle l'Evangile est suspect; ce qui plaît est amplifié, ce qui avertit est réduit au silence. Le résultat est une nouvelle forme de censure culturelle: élégant, poli, stérilisé numériquement – mais toujours censuré.
Ces analyses sont issues de réflexions, des études et observations que je développe depuis longtemps sur le plan anthropologique-culturel et sur le fonctionnement réel des plateformes numériques. C'est précisément pour cette raison qu'il me semble important de noter à quel point, à un niveau différent mais complémentaire, la Dicastère pour la doctrine de la foi a récemment rappelé un principe décisif, allant essentiellement dans la même direction de pensée, réaffirmant que l'intelligence artificielle, alors qu’il peut « coopérer au développement des connaissances », ne peut en aucun cas être assimilé à l’intelligence humaine, qui possède une profondeur et un dynamisme qu'aucun système d'apprentissage automatique ne peut reproduire. Ce document souligne que l'Intelligence Artificielle ne comprend pas, mais des processus; ne juge pas, mais calcule; et est intrinsèquement incapable de saisir la dimension morale de l'action, puisqu'il manque de conscience et d'intériorité (cf. ici). Il prévient donc clairement que le discernement moral ne peut être attribué à un dispositif algorithmique.: le faire reviendrait à abdiquer la responsabilité éthique humaine et à confier la vérité à un mécanisme statistique. L'illusion d'une intelligence morale artificielle est définie par le document comme une forme d'idolâtrie technologique naïve., parce que la vérité n'est pas le fruit du calcul, mais de la rencontre entre la liberté et la grâce[1].
Cette réflexion magistrale confirme le point central: la conscience ne peut pas être programmée. La machine peut aider, mais je ne juge pas; ça peut aider, mais pas interpréter; ça peut filtrer, mais je ne discerne pas. Ce qui appartient à la liberté humaine – et donc à la relation de l’homme avec Dieu – ne peut être délégué à aucune technologie..
L’éthique de l’intelligence artificielle révèle ainsi sa fragilité: une machine peut être programmée pour reconnaître les mots, mais il ne peut pas comprendre la Parole. Il peut identifier les commandes, pas des commandements. Il peut cataloguer les comportements, ne pas faire de distinction entre la vertu et le vice. Il peut détecter des corrélations, ne pas saisir la révélation divine. Et surtout: il ne peut pas connaître Dieu. Une culture qui s’habitue à remplacer le jugement de conscience par un dépistage algorithmique finit par oublier que la liberté est un acte spirituel, pas une sortie numérique[2]. C'est ici que la théologie morale devient décisive, car cela rappelle à l'homme que la vérité est toujours personnelle; le bien est toujours intentionnel; la conscience est toujours irréductible; le jugement moral ne peut être délégué à personne, encore moins aux logiciels.
Cela ne veut pas dire diaboliser la technologie, mais en le remettant à sa juste place: celui d'un outil, pas un juge. L'intelligence artificielle peut certainement rendre le travail humain plus efficace, mais il ne peut pas le remplacer au moment décisif: jugement moral, le seul domaine dans lequel il ne suffit pas de savoir « comment vont les choses », mais il faut décider « pourquoi les faire ». C'est le domaine de la conscience, où l'homme pèse ses intentions, assume la responsabilité, et répond de ses actes devant Dieu. Ici la machine n'entre pas, ne peut pas entrer: il calcule, mais ne choisit pas; il analyse, mais ne répond pas; il simule, mais n'aime pas. Comme un excellent chirurgien plasticien, L'intelligence artificielle peut améliorer ce qui est déjà beau, mais il ne peut pas rendre beau ce qui ne l'est pas; cela peut corriger les disproportions, adoucir certaines marques du temps, mais il ne peut pas créer la beauté à partir de rien ni restaurer la jeunesse une fois fanée. Cela peut rehausser un visage marqué, mais il ne peut pas en inventer un nouveau. De la même manière, L'intelligence artificielle peut aider à organiser les données, clarifier un texte, ou ordonner des arguments complexes; mais il ne peut pas donner d'intelligence à un sujet limité et médiocre, ni conscience à celui qui en manque.
L'image - peut-être un peu austère, mais efficace - est celui du cheval pur-sang et du poney: la technologie peut former, prendre soin et faire ressortir le meilleur de l'étalon arabe, mais cela ne transformera jamais un pauvre poney en pur-sang. Ce qui n'est pas là, aucun algorithme ne créera jamais. La machine ne perfectionne que ce qu'elle trouve déjà à l'œuvre chez l'homme.: cela peut affiner une vraie pensée, mais ne peut pas générer la vérité; cela peut peaufiner une phrase réussie, mais ne peut pas atteindre la conscience d'où est née cette phrase.
La machine ne perfectionne que ce qu'elle trouve déjà à l'œuvre chez l'homme.: cela peut affiner une vraie pensée, mais ne peut pas générer la vérité; cela peut nettoyer une phrase bien formée, mais ne peut pas infuser l'esprit qui l'a généré. Et c'est précisément ici que le parallèle avec le principe thomiste devient évident.:
"La grâce ne détruit pas la nature, mais perfects (la grâce ne détruit pas la nature, mais le perfectionne)” [3].
À ce stade, cela devient inévitable de tourner notre regard vers le terrain le plus délicat: si la machine ne peut perfectionner que ce qu'elle trouve, alors la vraie question ne concerne pas l'algorithme, mais l'homme qui s'y livre. Et c’est ici que l’analogie thomiste déploie toute sa force.: tout comme la grâce n'agit pas sur le vide, donc la technologie ne fonctionne pas en l'absence de conscience. Et quand l'homme cesse d'exercer son intériorité morale, ce n'est pas la machine qui gagne en puissance: c'est l'homme lui-même qui perd sa stature. De là se pose le problème décisif — non technique, mais spirituel - auquel nous devons maintenant faire face. Si l’on comprend que la délégation morale à la machine n’est pas un accident technique mais une erreur anthropologique, la question se posera par conséquence logique: que perd l'homme lorsqu'il abdique sa conscience? Il ne perd pas seulement une compétence, mais une dimension spirituelle, celui dans lequel se décide le sens du bien et du mal. La technologie peut être puissante, sophistiqué, extrêmement rapide, mais cela ne peut pas devenir un sujet moral.
tradition chrétienne a toujours enseigné que l'exercice d'un bon jugement est un art né de la grâce et de la liberté: un équilibre entre prudence, vérité et charité. L'algorithme ne connaît aucun de ces trois. Ce n'est pas prudent, parce qu'il n'évalue pas; ce n'est pas vrai, parce qu'il ne sait pas; ce n'est pas charitable, parce qu'il n'aime pas. Pour cette raison, utiliser l’intelligence artificielle comme outil est possible; l'utiliser comme critère est inhumain. Penser qu'elle peut créer à la place d'un homme incapable d'articuler une pensée ou de produire une œuvre intellectuelle est, au moins, illusoire. La technologie peut aider l'homme, ne le juge jamais; peut aider à parler, ne le remplace jamais; peut servir la mission, ne jamais déterminer ses limites.
Une civilisation qui délègue à la machine ce qui appartient à la conscience perd son identité spirituelle: cela devient une société qui sait beaucoup de choses, mais comprend peu; ça parle sans cesse, mais écoute rarement; qui juge tout, mais ne se juge plus.
Moralité catholique nous rappelle que le critère du bien n'est pas ce que le monde accepte, mais ce que Dieu enseigne. Et Dieu ne parle pas aux algorithmes: Il parle aux coeurs. Le Logos est devenu chair, pas de code; est devenu un homme, pas de programme; est devenu une relation, pas de mécanisme. Pour cette raison, pas d'intelligence artificielle, aussi avancé soit-il, peut un jour devenir le critère ultime de ce qui est vrai, juste, bon et humain. Parce que le bien ne se calcule pas: c'est reconnu.
De l'île de Patmos, 7 février 2026
.
REMARQUES
[1] Cf. Dicastère pour la doctrine de la foi, Ancien et nouveau. Note sur la relation entre intelligence artificielle et intelligence humaine (28 janvier 2025) — Sur la bonne intégration entre les capacités humaines et les outils technologiques dans la formation du jugement moral.
[2] UN. Sortie signifie résultat final et est un terme informatique technique faisant référence à l'ensemble de données produites par un ordinateur via une opération de traitement., contrairement à l'entrée, quelles sont les données entrantes.
[3] Thomas d'Aquin, Somme théologique, je, q.1, a.8, un d 2, dans les oeuvres de saint Thomas d'Aquin, Édition Léonine.
.
LE LIEN ÉTROIT ENTRE L’ÉTHIQUE, INTELLIGENCE ARTIFICIELLE ET THÉOLOGIE DE SAINT THOMAS D'AQUIN
La machine ne fait que perfectionner ce qu'elle trouve déjà en action chez l'homme.: peut aiguiser une vraie pensée, mais ne génère pas la vérité; peut nettoyer une phrase réussie, mais pas instiller l'esprit qui l'a généré. Et c’est précisément ici que le parallélisme avec le principe thomiste devient évident.: «La grâce ne détruit pas la nature, mais perfects (la grâce ne détruit pas la nature, mais le perfectionne)».
- Théologique -

Auteur
Ariel S. Levi Gualdo
.
Cet article pour notre page théologique C'est tiré de mon dernier livre Liberté refusée (Liberté refusée) publié par nos éditions et disponible à la vente ici.
Quand je serai prêt à discuter de ce sujet liés à l'Intelligence Artificielle, l'une des œuvres les plus prophétiques du cinéma moderne m'est venue à l'esprit: 2001: odyssée de l'espace, réalisé par Stanley Kubrick et sorti en 1968. HAL apparaît dans ce film 9000, une intelligence artificielle de très haut niveau, installé à bord du vaisseau spatial Discovery. HAL est parfait en calcul, infaillible dans la gestion des données, mais il lui manque ce qui rend le jugement vraiment humain: la conscience. Lorsque votre emploi du temps entre en conflit avec les objectifs de la mission, HAL ne « devient pas fou »: appliquez simplement la logique sans le filtre moral, sans intentionnalité et sans capacité à discerner le bien du mal. Le résultat est choquant: une machine très puissante devient une menace mortelle précisément parce qu'elle ne comprend pas l'homme ni la valeur de la vie. Cette intuition cinématographique, mais théologiquement très clair — montre que l'intelligence artificielle soulève des problèmes qui ne sont pas seulement techniques, mais radicalement moral. Ce qui est en jeu, ce n'est pas la puissance de calcul - ce que personne ne conteste - mais le risque que l'homme délègue à un système impersonnel ce qui appartient exclusivement à sa conscience.. Et c’est précisément ce qui se produit lorsqu’une plateforme est autorisée à décider de manière autonome de ce qui est « bon » ou « mauvais »., ce qui peut être dit et ce qu'il faut taire: un acte qui devrait être moral est confié à la machine. Et ce n'est que la première étape de la délégation morale à la machine.
Une fois abandonné à la technologie le jugement sur ce qui est vrai et ce qui est faux, la prochaine étape devient presque inévitable: renoncer également au bon sens éducatif et à la responsabilité personnelle. Se produit, Par exemple, quand un parent confie entièrement à un algorithme le soin de filtrer ce qu'un enfant peut voir, sans surveillance critique: signifie déléguer la responsabilité éducative à un système statistique. Ou lorsqu’on demande à l’intelligence artificielle si une phrase est « offensante » ou « moralement acceptable »: signifie transférer une tâche qui nécessite de la conscience à la machine, pas de calcul.
Ce qui a été expliqué jusqu'à présent ne constitue pas un ensemble de détails techniques, mais le point décisif. Si l'intention manque, la machine ne peut jamais comprendre ce que fait l'homme quand il parle, réprimandes, éduquer, guérir ou corriger. Et comme on ne peut pas accéder au « pourquoi », tout réduire au « comment »: n'évalue pas le sens, analyser uniquement la forme. C'est ici que l'incompréhension devient inévitable et l'erreur systématique. C'est ce qui arrive, Par exemple, quand un prêtre admoneste un croyant ou qu'un père corrige un fils: la conscience humaine fait la distinction entre sévérité et cruauté, entre correction et offense; L’algorithme enregistre uniquement la dureté de la phrase et la marque comme « langage hostile ».. Le médecin qui écrit « ce risque entraîne la mort » risque de voir ses propos classés comme « contenu violent », parce que la machine ne fait pas la distinction entre un diagnostic et une menace. Même un simple verset biblique peut être censuré comme étant un « langage offensant »., parce que l'Intelligence Artificielle ne perçoit pas le but moral, mais seulement la surface du mot. Pour cette raison, toute utilisation de l'intelligence artificielle qui affecte le mot, au procès, à la relation ou à la liberté doit être examiné à la lumière de la théologie morale, pas d'ingénierie informatique.
La distinction est décisive: la machine ne décide pas, sélectionner; n'évalue pas, filtre; ne juge pas, classer. Et ce qui classe n'est jamais bon ou mauvais, mais seulement le probable et l'improbable, le fréquent et le rare, ce qui est statistiquement acceptable et ce qui est algorithmiquement suspect. La conscience humaine fait exactement le contraire.: prend au sérieux le caractère unique de l'acte et la liberté de l'agent; réfléchir à mes intentions, circonstances et conséquences; fait la distinction entre la réprimande qui sauve et l'offense qui blesse; entre sévérité par amour et cruauté par mépris. La machine ne voit rien de tout cela..
Quand un père réprimande son fils, la conscience reconnaît l'amour qui la soutient; l'algorithme ne voit qu'une seule phrase « potentiellement hostile ». Quand un directeur spirituel avertit ceux dont il a la charge, la conscience perçoit la miséricorde qui accompagne la vérité; l’algorithme voit une violation des « normes communautaires ». Quand une personne parle pour corriger, protéger ou éduquer, la conscience saisit le but; la machine ne perçoit que le mot dur. Le résultat est paradoxal: où l'homme unit justice et miséricorde, la machine produit uniquement des étiquettes.
L'ambiguïté morale n'est pas née de la technologie: né de l'homme qui le conçoit. Parce que l'algorithme n'est pas neutre: exécute une moralité qu'il ne connaît pas, mais que d'autres ont décidé pour lui. Et nous voyons cela tous les jours: si le contenu remet en question le politiquement correct, l’algorithme l’interprète comme de « l’hostilité »; Si vous critiquez certaines dérives culturelles réveillé, le qualifie de « discrimination »; s'il aborde des questions d'anthropologie chrétienne – par exemple la différence sexuelle ou la famille – en critiquant les lobbies LGBT puissants et politisés, Il le qualifie d’« incitation à la haine » ou d’« incitation à la violence »., l'appel c. Tout cela n’est pas dû au fait que la machine « pense » ainsi., mais parce qu'il a été programmé pour réagir de cette façon. L’algorithme n’est pas né neutre: Il naît déjà éduqué par ceux qui le construisent, façonné par des critères idéologiques qui confondent critique et agression, réflexion avec offense, la vérité avec violence. Autrement dit, l'algorithme a des maîtres: reflète vos peurs, amplifie vos convictions, censurer ce qu'ils craignent. Les plateformes ne filtrent pas selon des critères objectifs, mais selon les idéologies dominantes: ce que le monde idolâtre est promu, ce dont l'Évangile se souvient est suspect; ce qui plaît est amplifié, ce qui avertit est réduit au silence. Le résultat est une nouvelle forme de censure culturelle: élégant, poli, stérilisé numériquement – mais toujours censuré.
Mes réflexions sont nées d'études, analyses et observations que j'approfondis depuis quelques temps au niveau anthropologique-culturel et dans le fonctionnement réel des plateformes numériques. C'est précisément pour cette raison qu'il me semble important de souligner comment, à un niveau différent mais complémentaire, Le Dicastère pour la Doctrine de la Foi a récemment rappelé un principe décisif, allant sensiblement dans le même sens de pensée, réaffirmant que l'intelligence artificielle, voire être capable de « coopérer à la croissance des connaissances », ne peut en aucun cas être comparé à l’intelligence humaine, qui a une profondeur et une dynamique qu'aucun système d'apprentissage automatique ne peut reproduire. Ce document souligne que l'Intelligence Artificielle n'inclut pas, mais des processus; ne juge pas, mais il calcule; et est intrinsèquement incapable de saisir la dimension morale de l'action, manque de conscience et d'intériorité (cf.. ici). Avertir, donc, il est clair que le discernement moral ne peut être attribué à un dispositif algorithmique: Agir ainsi reviendrait à abdiquer la responsabilité éthique de l’homme et à confier la vérité à un mécanisme statistique.. L'illusion d'une intelligence morale artificielle est définie par le document comme une forme d'idolâtrie technologique naïve., parce que la vérité n'est pas le résultat d'un calcul, mais de la rencontre entre la liberté et la grâce[1].
Cette réflexion magistrale confirme le point central: la conscience n'est pas programmée. La machine peut aider, mais ne juge pas; peut aider, mais pas interpréter; peut filtrer, mais je ne discerne pas. Ce qui appartient à la liberté de l'homme - et, donc, à votre relation avec Dieu - ne peut être délégué à aucune technologie.
L'éthique de l'intelligence artificielle révélant ainsi sa fragilité: une machine peut être programmée pour reconnaître les mots, mais je ne peux pas comprendre la Parole. Peut identifier les commandes, pas des commandements. Peut-on recenser les comportements, ne pas faire de distinction entre la vertu et le vice. Peut détecter des corrélations, ne pas accepter la révélation divine. Oui, surtout: je ne peux pas connaître Dieu. Une culture qui s’habitue à remplacer le jugement de conscience par le contrôle d’un algorithme finit par oublier que la liberté est un acte spirituel, pas un sortie numérique[2]. C'est là que la théologie morale devient décisive., parce qu'il se souvient de l'homme qui: la vérité est toujours personnelle; le bien est toujours intentionnel; la conscience est toujours irréductible; le jugement moral ne peut être délégué à personne, et encore moins à un logiciel.
Cela ne veut pas dire diaboliser la technologie, mais remets-le à sa place: celui d'instrument, pas celui de juge. L'intelligence artificielle peut certainement rendre le travail humain plus agile, mais ne peut pas le remplacer au moment décisif: le jugement moral, le seul domaine dans lequel il ne suffit pas de savoir « comment ça va », mais il faut décider « pourquoi les faire ». C'est le lieu de la conscience, où l'homme réfléchit à ses intentions, assume des responsabilités et est responsable de ses actes devant Dieu. La machine ne rentre pas ici, je ne peux pas entrer: calculer, mais ne choisis pas; analyse, mais il ne répond pas; début, mais il n'aime pas. En tant qu'excellent chirurgien plasticien, L'intelligence artificielle peut améliorer ce qui est déjà beau, mais on ne peut pas rendre beau ce qui ne l'est pas; peut corriger les disproportions, peut atténuer certains signes du temps, mais elle ne peut pas créer à partir de rien une beauté qui n'existe pas ni restaurer une jeunesse déjà flétrie.. Peut sublimer un visage marqué, mais je ne peux pas inventer un nouveau visage. De la même façon, L'intelligence artificielle peut aider à organiser les données, clarifier un texte, trier les arguments complexes; mais il ne peut pas donner d'intelligence à un sujet limité et médiocre, ni conscience à ceux qui en manquent.
L'image, peut-être un peu brut mais efficace, C'est celui du cheval de course et du poney: la technologie peut former, prendre soin et faire en sorte que l'étalon arabe performe au maximum, mais il ne transformera jamais un pauvre poney en pur-sang. Ce qui n'existe pas, aucun algorithme ne pourra jamais le créer. La machine ne fait que perfectionner ce qu'elle trouve déjà en action chez l'homme.: peut aiguiser une vraie pensée, mais ne génère pas la vérité; peut peaufiner une phrase réussie, mais n'atteignant pas la conscience d'où cette phrase est née.
La machine ne perfectionne que ce qu'elle trouve déjà en action chez l'homme: peut aiguiser une vraie pensée, mais ne génère pas la vérité; peut nettoyer une phrase réussie, mais pas instiller l'esprit qui l'a généré. Et c’est précisément ici que le parallélisme avec le principe thomiste devient évident.:
«La grâce ne détruit pas la nature, mais perfects (la grâce ne détruit pas la nature, mais le perfectionne)»[3].
À ce point, il devient inévitable de regarder les terrains les plus délicats: si la machine ne peut perfectionner que ce qu'elle trouve, alors le vrai problème ne concerne pas l'algorithme, mais à l'homme qui se donne à lui. Et c’est là que l’analogie thomiste déploie toute sa force.: tout comme la grâce n'agit pas sur le vide, De la même manière, la technologie ne fonctionne pas sur l’absence de conscience.. Et quand l'homme cesse d'exercer son intériorité morale, Ce n'est pas la machine qui gagne en puissance: C'est l'homme lui-même qui perd de la hauteur. De là se pose le problème décisif, et non technique., mais spirituel - auquel nous devons maintenant faire face. Si l’on comprend que la délégation morale à la machine n’est pas un accident technique mais une erreur anthropologique, La question se posera par conséquence logique: Que perd un homme lorsqu’il abdique sa conscience ?? Vous ne perdez pas seulement une compétence, mais une dimension spirituelle, celui dans lequel se décide le sens du bien et du mal. La technologie peut être puissante, sophistiqué, très vite, mais ne peut pas devenir un sujet moral.
La tradition chrétienne a toujours enseigné que l'exercice du bon jugement est un art né de la grâce et de la liberté: un équilibre entre prudence, vérité et charité. L'algorithme ne connaît aucun de ces trois. Ce n'est pas sage, parce qu'il n'évalue pas; ce n'est pas vrai, parce que tu ne sais pas; Ce n'est pas charitable, parce qu'il n'aime pas. Pour cette raison, utiliser l’intelligence artificielle comme instrument est possible; l'utiliser comme critère est inhumain. Penser que je peux créer à la place d'un homme incapable d'articuler une pensée ou de produire un travail intellectuel est, au moins, illusoire. La technologie peut aider l'homme, ne le juge jamais; peut aider le mot, ne le remplace jamais; peut servir la mission, ne jamais déterminer ses limites.
Une civilisation qui délègue à la machine ce qui appartient à la conscience perd son identité spirituelle: devient une société qui en sait beaucoup, mais comprend peu; qui parle continuellement, mais écoute rarement; qui juge tout, mais elle ne se juge plus.
Moralité catholique nous rappelle que le critère du bien n'est pas ce que le monde accepte, mais ce que Dieu enseigne. Et Dieu ne parle pas aux algorithmes: parle aux coeurs. Le Logos est devenu chair, pas de code; il est devenu un homme, pas de programme; la relation a été faite, pas de mécanisme. C'est pourquoi pas d'intelligence artificielle, peu importe à quel point il est avancé, ne pourra jamais devenir le critère ultime de ce qui est vrai, équitable, bon et humain. Parce que le bien ne se calcule pas: est reconnu.
De l'île de Patmos, 7 Février 2026
.
REMARQUES
[1] Voir. Dicastère pour la doctrine de la foi, Ancien et nouveau. Note sur la relation entre intelligence artificielle et intelligence humaine (28 Janvier 2025). —Sur l'intégration correcte entre les capacités humaines et les instruments technologiques dans l'élaboration du jugement moral.
[2] N. de A. Sortie signifie résultat final et est un terme technico-informatique qui fait référence à l'ensemble de données qu'un ordinateur émet au cours d'un processus de production., par opposition à la saisie, quelles sont les données d'entrée.
[3] Thomas d'Aquin, Somme théologique, je, q. 1, une. 8, un d 2, à Sancti Thomas d'Aquin Opera Omnia, Édition Léonina.
.
LE LIEN ÉTROIT ENTRE L’ÉTHIQUE, INTELLIGENCE ARTIFICIELLE ET THÉOLOGIE DE SAINT THOMAS D'AQUIN
La machine ne fait que perfectionner cela, ce qu'il trouve déjà chez les humains: Cela peut affiner une vraie pensée, mais ne produit aucune vérité; elle peut nettoyer une phrase réussie, mais je ne respire pas l'esprit, qui l'a produit. Et c’est précisément ici que le parallèle avec le principe thomien devient évident.: „La grâce ne détruit pas la nature, mais perfects (la grâce ne détruit pas la nature, mais le complète)"
— Théologique —
.

Auteur
Ariel S. Levi Gualdo
.
Cet article pour notre catégorie théologique est mon dernier livre Liberté refusée (Liberté refusée), qui a été publié par notre éditeur et disponible ici est.
Quand j'ai décidé de le faire, pour aborder ce sujet en lien avec l'intelligence artificielle, L'un des chefs-d'œuvre les plus prophétiques du cinéma moderne m'est venu à l'esprit.: 2001: Une odyssée spatiale, réalisé par Stanley Kubrick et 1968 publié. HAL apparaît dans ce film 9000, une intelligence artificielle très développée, qui est installé à bord du vaisseau spatial Discovery. HAL est parfait en arithmétique, infaillible dans le traitement des données, mais ça lui manque, ce qui constitue le jugement humain: la conscience. Lorsque leur programmation entre en conflit avec les objectifs de la mission, HAL ne « devient » pas fou: il applique simplement la logique sans filtre moral, sans intentionnalité et sans capacité, faire la distinction entre le bien et le mal. Le résultat est choquant: C'est précisément pourquoi une machine extrêmement puissante devient une menace mortelle, parce qu'elle ne comprend pas les gens et la valeur de la vie. Celui-ci – cinématographique, mais théologiquement extrêmement clair - l'intuition montre, que l'intelligence artificielle pose des problèmes, qui ne sont pas seulement d'ordre technique, mais radicalement moral. Ce n’est pas la puissance de calcul qui est en cause – personne ne le conteste –, mais le danger, que l'homme laisse à un système impersonnel, ce qui relève uniquement de sa conscience. C'est exactement ce qui se passe, si vous autorisez une plateforme, décider de manière autonome, ce qui est « bien » ou « mal »., ce qui peut être dit et ce qui doit rester silencieux: Vous transférez un acte à la machine, ce qui devrait être moral. Et ce n'est que la première étape de la délégation morale à la machine.
Dès que la technologie décidera de ce qui est vrai et faux, la prochaine étape devient presque inévitable: aussi de renoncer au bon sens éducatif et à la responsabilité personnelle. Cela se produit à ce moment-là, quand un parent délègue complètement la tâche à un algorithme, filtrer, ce qu'un enfant peut voir, sans surveillance critique: Cela signifie, déléguer la responsabilité éducative à un système statistique. Ou si vous demandez à l'intelligence artificielle, si une peine est « offensante » ou « moralement acceptable ».: Ensuite, vous confiez une tâche à la machine, ce qui demande de la conscience, pas de calcul.
Ce qui a été présenté ici, n'est pas un ensemble de détails techniques, mais le point crucial. L'intention manque, la machine ne peut jamais comprendre, ce que fait l'homme, quand il parle, réprimandé, éduque, guérit ou corrige. Et parce qu’elle n’a pas accès au « pourquoi »., elle réduit tout au "comment": Il n'évalue pas le sens, mais analyse uniquement la forme. C'est là que le malentendu devient inévitable et que l'erreur systématique s'installe.. Quelque chose comme ça, lorsqu'un prêtre réprimande un croyant ou qu'un père corrige son fils: La conscience humaine fait la distinction entre sévérité et cruauté, entre correction et insulte; l'algorithme enregistre simplement la dureté de la phrase et la marque comme « langage hostile ». Le docteur, qui écrit: "Ce risque entraîne la mort", peut voir ses propos classés comme « contenus violents »., parce que la machine ne peut pas distinguer un diagnostic d'une menace. Même un simple verset biblique peut être censuré comme étant un « langage offensant »., parce que l'intelligence artificielle ne perçoit pas le but moral, mais seulement la surface du mot. C'est pourquoi toute utilisation de l'intelligence artificielle doit, de langue, Verdict, Relation ou liberté touchée, être examiné à la lumière de la théologie morale, pas dans le contexte de l'informatique.
La distinction est cruciale: La machine ne décide pas, elle sélectionne; elle ne juge pas, elle filtre; elle ne juge pas, les classe. Et qu'est-ce qui les classe, n'est jamais bon ou mauvais, mais seulement le probable et l'improbable, Commun et rare, Statistiquement acceptable et algorithmiquement suspect. La conscience humaine fait exactement le contraire: Il prend au sérieux le caractère unique de l'action et la liberté de l'acteur.; ça pèse les intentions, circonstances et conséquences; il fait la distinction entre la réprimande, ça sauve, et l'insulte, qui a blessé; entre sévérité par amour et cruauté par mépris. La machine ne voit rien de tout cela.
Quand un père corrige son enfant, la conscience reconnaît l'amour, qui le porte; l'algorithme ne voit qu'une seule phrase « potentiellement hostile ». Quand un directeur spirituel admoneste sa personne de confiance, la conscience reconnaît la miséricorde, qui accompagne la vérité; l’algorithme voit une violation des « normes communautaires ». Quand quelqu'un parle, corriger, protéger ou éduquer, la conscience saisit l'objectif; la machine n'enregistre que le mot dur. Le résultat est paradoxal: Là, où l'homme allie justice et miséricorde, la machine ne produit que des étiquettes.
L'ambiguïté morale ne vient pas de la technologie, mais aux gens, qui les conçoit. Parce que l'algorithme n'est pas neutre: Il réalise une morale, qu'il ne sait pas, mais que d'autres lui ont fixé. C'est évident chaque jour: Un contenu remet-il en question ce qui est politiquement correct ?, l’algorithme interprète cela comme de « l’hostilité »; il critique certains excès de la culture woke, il qualifie cela de « discrimination »; Il aborde des sujets d'anthropologie chrétienne - comme les différences entre les sexes ou la famille - et critique les plus puissants., des lobbies LGBT politisés, cela est qualifié de « discours de haine » ou de « glorification de la violence ».. Rien de tout ça, parce que la machine "pense" comme ça, mais parce que c'était programmé comme ça. L’algorithme n’est pas né neutre: Il est formé dès le départ par ses développeurs, façonné par des critères idéologiques, critique avec agressivité, Confondre réflexion avec insulte et vérité avec violence. Autrement dit: L'algorithme a des maîtres. Il reflète leurs peurs, renforce leurs convictions, censuré, ce qu'ils craignent. Les plateformes ne filtrent pas selon des critères objectifs, mais selon les idéologies dominantes: Ce que le monde adore, est encouragé; ce que l'Évangile me rappelle, est soupçonné; ce que tu aimes, est renforcé; qu'est-ce qui avertit, est réduit au silence. Le résultat est une nouvelle forme de censure culturelle: élégant, poli, stérilisé numériquement – mais toujours censuré.
Ces considérations découlent d'études, Réflexions et observations, que j'approfondis depuis quelques temps sur le plan anthropologique-culturel ainsi qu'au regard du fonctionnement réel des plateformes numériques. C'est précisément pourquoi je pense qu'il est important de noter, ça sur un autre, mais à un niveau complémentaire le Dicastère pour la Doctrine de la Foi a récemment rappelé un principe crucial et va essentiellement dans le même sens de pensée: Il affirme, que l’intelligence artificielle peut « contribuer à la croissance des connaissances »., Cependant, cela ne doit en aucun cas être assimilé à l’intelligence humaine., qui a de la profondeur et du dynamisme, qu'aucun système d'apprentissage automatique ne peut reproduire. Le document souligne, que l'intelligence artificielle ne comprend pas, mais traité; ne juge pas, mais calculé; et est fondamentalement incapable en raison du manque de conscience et d'intériorité, saisir la dimension morale de l’action (cf. ici). Il met donc clairement en garde contre cela, attribuer une distinction morale à un système algorithmique: Cela signifierait, abdiquer la responsabilité éthique de l'homme et laisser la vérité à un mécanisme statistique. L’illusion de l’intelligence morale artificielle a été décrite comme une forme d’idolâtrie technologique naïve., puisque la vérité ne vient pas du calcul, mais de la rencontre entre la liberté et la grâce[1].
Cette réflexion magistrale confirme le point central: La conscience ne peut pas être programmée. La machine peut prendre en charge, mais ne juge pas; aide, mais pas interpréter; filtre, mais ne fais pas de différence. Ce qui appartient à la liberté de l'homme - et donc à sa relation avec Dieu -, ne peut être transféré à aucune technologie.
L’éthique de l’intelligence artificielle révèle ainsi sa fragilité: Une machine peut être programmée, reconnaître des mots, mais elle ne comprend pas le mot. Elle peut identifier les commandes, pas des commandements. Il peut capturer le comportement, ne fais pas de distinction entre la vertu et le vice. Elle peut voir des corrélations, ne saisis pas la révélation divine. Et surtout: Elle ne peut pas reconnaître Dieu. Une culture, qui s'y habitue, remplacer le jugement de conscience par le test d’un algorithme, finit par oublier, que la liberté est un acte spirituel, pas numérique Sortir[2]. C’est là que la théologie morale devient cruciale, parce que ça le rappelle aux gens: La vérité est toujours personnelle; le bien est toujours intentionnel; la conscience est toujours irréductible; Le jugement moral ne peut être délégué à personne – et encore moins à un seul. Logiciel.
Cela ne veut pas dire, diaboliser la technologie, mais pour les remettre à leur juste place: celui de l'outil, pas le juge. L’intelligence artificielle peut certainement rendre le travail humain plus efficace, Mais il ne peut pas le remplacer au moment crucial: en jugement moral, le seul domaine, dans lequel il ne suffit pas de savoir, "comment ça va", mais dans lequel les décisions doivent être prises, "pourquoi tu les fais". C'est le lieu de la conscience, où les gens pèsent leurs intentions, Assumer la responsabilité et défendre vos actions devant Dieu. La machine n'a pas accès ici, elle ne peut pas en avoir un: Elle calcule, mais ne choisit pas; analysé, mais ne répond pas; simulé, mais il n'aime pas. À la manière d’un grand chirurgien plasticien, l’intelligence artificielle peut sublimer ce qui est déjà beau, mais ça ne peut pas faire du beau, ce que ce n'est pas; elle peut corriger les proportions, Atténuer les signes du vieillissement, mais ni créer de la beauté à partir de rien, ni rendre une jeunesse perdue. Cela peut rehausser un visage dessiné, mais n'invente pas un nouveau visage. L’intelligence artificielle peut aussi aider, organiser les données, clarifier les textes, structurer des arguments complexes; Cependant, il ne peut pas donner d’intelligence à un sujet limité et médiocre, ni à une personne sans conscience..
L’image – peut-être un peu radicale, mais efficace – est celui du noble pur-sang et du poney: La technologie peut entraîner l'étalon arabe, maintenir et conduire à des performances optimales, mais elle ne transformera jamais un pauvre poney en cheval de course. Ce qui n'existe pas, aucun algorithme ne pourra jamais créer. La machine ne fait que perfectionner cela, ce qu'il trouve déjà chez les humains: Cela peut aiguiser une vraie pensée, mais ne produit pas la vérité; elle peut peaufiner une phrase réussie, mais n'atteint pas la conscience, d'où est issue cette phrase.
La machine ne fait que perfectionner cela, ce qu'il trouve déjà chez les humains: Cela peut affiner une vraie pensée, mais ne produit aucune vérité; elle peut nettoyer une phrase réussie, mais je ne respire pas l'esprit, qui l'a produit. Et c’est précisément ici que le parallèle avec le principe thomien devient évident.:
La grâce n'enlève pas la nature, mais perfects (la grâce ne détruit pas la nature, mais le complète)"[3].
À ce stade, cela devient inévitable, se concentrer sur les terrains les plus délicats: Si seulement la machine pouvait perfectionner ça, ce qu'elle trouve, alors la vraie question ne concerne pas l'algorithme, mais les gens, qui s'abandonne à lui. C’est là que l’analogie thomienne développe toute sa puissance.: Tout comme la grâce n'agit pas sur le vide, la technologie ne fonctionne pas en l’absence de conscience. Et quand la personne s'arrête, pratiquer son intériorité morale, Ce n’est pas la machine qui gagne en puissance – l’être humain perd de la taille. C’est là que se pose le problème crucial – et non technique, mais de nature spirituelle –, auquel nous devons maintenant faire face. Si nous comprenons, que la délégation morale à la machine n'est pas un accident technique, mais c'est une erreur anthropologique, la question se pose forcément: Que perd l’homme ?, s'il renonce à sa conscience? Il ne perd pas seulement une capacité, mais une dimension spirituelle, ceux, dans lequel le sens du bien et du mal est décidé. La technologie peut être puissante, sophistiqué et incroyablement rapide, cependant, elle ne pourra jamais devenir un sujet moral.
La tradition chrétienne a toujours enseigné, que l'exercice d'un bon jugement est un art, qui vient de la grâce et de la liberté: un équilibre de sagesse, la vérité et l'amour. L'algorithme ne reconnaît aucun de ces trois. Il n'est pas intelligent, parce qu'il ne pèse pas les choses; pas vrai, parce qu'il ne reconnaît pas; ne pas aimer, parce qu'il n'aime pas. C'est pourquoi c'est possible, utiliser l’intelligence artificielle comme outil; L’utiliser comme critère est inhumain. Croire, elle pourrait créer à la place d'une personne, qui est incompétent, articuler une pensée ou produire une œuvre intellectuelle, est pour le moins illusoire. La technologie peut aider les gens, ne le juge jamais; ça peut servir la Parole, ne le remplace jamais; elle peut aider la mission, ne déterminez jamais leurs limites.
Une civilisation, qui est laissé à la machine, ce qui appartient à la conscience, perd son identité spirituelle: Cela devient une société, qui en sait beaucoup, mais comprend peu; qui parle sans cesse, mais écoute rarement; qui juge tout, mais ne se juge plus.
La morale catholique nous le rappelle, que le critère du bien n'est pas celui-là, ce que le monde accepte, mais ça, ce que Dieu enseigne. Et Dieu ne parle pas aux algorithmes: Il parle au coeur. Le Logos est devenu chair, pas de code; il est devenu humain, pas de programme; c'est devenu une relation, pas de mécanisme. C'est pourquoi aucune intelligence artificielle ne peut, peu importe à quel point il est avancé, jamais devenir la mesure finale de cela, quoi de vrai, juste, est bon et humain. Parce que le bien ne se calcule pas: Il est reconnu.
De l'île de Patmos, 7. Février 2026
.
REMARQUES
[1] cf. Dicastère pour la doctrine de la foi, Ancien et nouveau. Note sur la relation entre intelligence artificielle et intelligence humaine (28. Janvier 2025). — Sur la bonne intégration des capacités humaines et des outils technologiques dans la formation des jugements moraux.
[2] Anm. ré. UNE.: La sortie fait référence au résultat final et est un terme technique en informatique, qui fait référence à l'intégralité des données, qu'un ordinateur génère dans le cadre d'un processus de traitement, contrairement à l'entrée, c'est-à-dire les données d'entrée.
[3] Thomas d'Aquin, Somme théologique, je, q. 1, une. 8, un d 2, dans les oeuvres de saint Thomas d'Aquin, édition léonine.
______________________
Chers lecteurs, ce magazine nécessite des frais de gestion auxquels nous avons toujours été confrontés uniquement avec vos offres gratuites. Ceux qui souhaitent soutenir notre travail apostolique peuvent nous envoyer leur contribution par le moyen pratique et sûr Pay Pal en cliquant ci-dessous:
Ou si vous préférez, vous pouvez utiliser notre compte bancaire au nom de:
Éditions L'île de Patmos
n Agence. 59 De Rome – Vatican
IBAN: IT74R0503403259000000301118
Pour les virements bancaires internationaux:
Code SWIFT: BAPPIT21D21
Si vous effectuez un virement bancaire, envoyez un mail à la rédaction,
la banque ne fournit pas votre e-mail et nous ne pourrons pas vous envoyer de message de remerciement: isoladipatmos@gmail.com
Nous vous remercions du soutien que vous souhaitez offrir à notre service apostolique.
Les Pères Patmos Island






