A estreita ligação entre a ética, inteligência artificial e teologia de São Tomso de Aquino – A estreita ligação entre a ética, Inteligência Artificial e a teologia de São Tomás de Aquino – A estreita ligação entre a ética, inteligência artificial e a teologia de São Tomás de Aquino – A estreita ligação entre a ética, inteligência artificial e a teologia de São Tomás de Aquino
italiano, inglês, espanhol, holandês
A LIGAÇÃO PRÓXIMA ENTRE ÉTICA, INÉLIGINAS E E TOMOGE PARA ISSO DO AQUINO
A máquina só aperfeiçoa o que já encontra no homem: pode refinar um pensamento verdadeiro, mas não geram verdade; pode limpar uma frase bem sucedida, mas não infunda o espírito que o gerou. E é precisamente aqui que se torna evidente o paralelo com o princípio tomista: «Ga razão não tira a natureza, mas terminart (a graça não destrói a natureza, mas ele aperfeiçoa)»
— Teológica —
.
.
![]()
.
Este artigo para nossa página Theologica É baseado no meu último livro Liberdade negada, publicado por nossas edições e à venda Who.

Estou me preparando para abordar esse assunto ligada à Inteligência Artificial, veio à mente uma das obras-primas proféticas do cinema moderno: 2001: Odisséia no Espaço, dirigido por Stanley Kubrick e lançado em 1968. HAL aparece naquele filme 9000, uma inteligência artificial de altíssimo nível, instalado a bordo da nave espacial Descoberta. HAL é perfeito em cálculo, infalível no gerenciamento de dados, mas desprovido do que torna o julgamento humano: consciência. Quando sua programação entra em conflito com os objetivos da missão, HAL não "enlouquece": simplesmente aplica a lógica sem o filtro moral, sem intencionalidade e sem capacidade de discernir o bem do mal. O resultado é assustador: uma máquina muito poderosa torna-se uma ameaça mortal precisamente porque não entende o homem nem o valor da vida. Esta intuição - cinematográfica mas teologicamente lúcida - mostra que a inteligência artificial levanta problemas que não são meramente técnicos, mas radicalmente moral. O que está em jogo não é o poder computacional - que ninguém contesta - mas sim o risco de o homem delegar a um sistema impessoal o que pertence exclusivamente à sua consciência. E é exatamente isso que acontece quando você deixa uma plataforma decidir por si mesma o que é “bom” ou “ruim”., o que pode ser dito ou o que deve ser mantido em silêncio: um ato que deveria ser moral é entregue à máquina. E este é apenas o primeiro passo da delegação moral à máquina.
Uma vez que o julgamento sobre a verdade e a falsidade tenha sido entregue à tecnologia, o próximo passo se torna quase inevitável: também desistir do bom senso educacional e da responsabilidade pessoal. Ou quando um pai confia completamente ao algoritmo a tarefa de filtrar o que uma criança pode ver, sem vigilância crítica: significa delegar a responsabilidade educacional a um sistema estatístico. Ou mesmo quando você pergunta à Inteligência Artificial se uma frase é “ofensiva” ou “moralmente aceitável”: significa transferir uma tarefa que requer consciência para a máquina, eu não calculo.
O que foi ilustrado até agora não é um conjunto de detalhes técnicos eles são antes o ponto decisivo. Se a intenção estiver faltando, a máquina nunca pode entender que o homem está fazendo quando fala, adverte, educar, tratamento, corrige. E como ele não consegue acessar o “porquê”, reduz tudo ao "como": não avalia o significado, ele apenas analisa a forma. É aqui que o mal-entendido se torna inevitável e o erro sistemático. Isso é o que acontece, por exemplo, quando um padre repreende um crente ou um pai corrige um filho: a consciência humana distingue entre severidade e crueldade, entre correção e ofensa; o algoritmo apenas registra a dureza da frase e a sinaliza como “linguagem hostil”. O médico que escreve «este risco leva à morte» pode ver as suas palavras classificadas como “conteúdo violento”, porque a máquina não distingue um diagnóstico de uma ameaça. E um simples versículo bíblico pode ser censurado como “linguagem ofensiva” porque a Inteligência Artificial não percebe o propósito moral, mas apenas a superfície da palavra. Por causa disso, qualquer uso de Inteligência Artificial que afete a fala, o julgamento, a relação ou liberdade deve ser examinada à luz da teologia moral, não engenharia da computação.
A distinção é crucial: a máquina não decide, selecione; não avalia, filtro; não julga, classificação. E o que classifica nunca é bom ou ruim, mas apenas o provável e o improvável, o frequente e o raro, o aceitável estatístico e a suspeita algorítmica. A consciência humana faz exatamente o oposto: leva a sério a singularidade do ato e a liberdade do agente; pesa intenções, circunstâncias, consequências; distingue entre a reprovação que salva e a ofensa que fere; entre a severidade por amor e a crueldade por desprezo. A máquina não vê nada disso.
Quando um pai chama um filho de volta, a consciência reconhece o amor que a sustenta; o algoritmo vê apenas uma frase “potencialmente hostil”. Quando um diretor espiritual adverte um de seus subordinados diretos, a consciência vê a misericórdia que acompanha a verdade; o algoritmo vê uma violação dos “padrões da comunidade”. Quando uma pessoa fala para corrigir, proteger ou educar, a consciência percebe a finalidade, a máquina só percebe a palavra difícil. O resultado é paradoxal: onde o homem combina justiça e misericórdia, a máquina só produz etiquetas.
A ambiguidade moral não surge da tecnologia: vem do homem que o projeta. Porque o algoritmo não é neutro: realiza uma moral que ele não conhece, mas que outros decidiram por ele. E vemos isso todos os dias: se um conteúdo questionar o politicamente correto, o algoritmo interpreta isso como “hostilidade”; se ele critica algumas tendências da cultura acordou, rotula isso de “discriminação”; se aborda temas da antropologia cristã - por exemplo, a diferença sexual ou a família - dirigindo críticas aos poderosos e politizados lobbies LGBT, relata isso como “discurso de ódio”, ou “incitação à violência”, o chamado "discurso de ódio”, Verbatim: discurso de ódio. Tudo isso não porque a máquina “pensa” assim, mas porque foi programado para reagir e interagir assim. O algoritmo não nasce neutro: já nasce educado por quem o constrói, moldado por critérios ideológicos que confundem crítica com agressão, reflexão com ofensa, verdade com violência. Em outras palavras, o algoritmo tem mestres: reflete seus medos, amplifica suas crenças, censura o que eles temem. As plataformas não filtram com base em critérios objetivos, mas de acordo com ideologias dominantes: o que o mundo idolatra é promovido, o que o Evangelho recorda é suspeito; o que satisfaz é amplificado, o que avisa é silenciado. O resultado é uma nova forma de censura cultural: Elegante, educado, esterilizado digitalmente – mas ainda censurado.
Estas minhas análises surgem de reflexões, a partir dos estudos e observações que venho investigando há algum tempo no plano antropológico-cultural e sobre o real funcionamento das plataformas digitais. É precisamente por isso que considero significativo observar como, em um nível diferente, mas complementar, a Dicastério para a Doutrina da Fé recordei recentemente um princípio decisivo, indo essencialmente na mesma direção de pensamento que eu, reiterando que a Inteligência Artificial, ao mesmo tempo em que é capaz de “cooperar no crescimento do conhecimento”, não pode de forma alguma ser equiparado à inteligência humana, que possui uma profundidade e dinâmica que nenhum sistema de aprendizado de máquina pode replicar. Este documento destaca que a Inteligência Artificial não entende, mas elaborado, não julga, mas calcule, e é intrinsecamente incapaz de compreender a dimensão moral da ação, já que lhe falta consciência e interioridade (cf.. Who). Ele então adverte claramente que o discernimento moral não pode ser atribuído a um dispositivo algorítmico: fazê-lo significaria abdicar da responsabilidade ética do homem e entregar a verdade a um mecanismo estatístico. A ilusão de uma inteligência moral artificial é definida pelo documento como uma forma de idolatria tecnológica ingênua, porque a verdade não é resultado de cálculo, mas do encontro entre liberdade e graça[1].
Esta reflexão magistral confirma o ponto central: a consciência não pode ser programada. A máquina pode ajudar, mas não julgue; pode ajudar, mas não interprete; pode filtrar, mas não discerne. O que pertence à liberdade do homem – e portanto à sua relação com Deus – não pode ser delegado a nenhuma tecnologia.
A ética da inteligência artificial revela assim a sua fragilidade: uma máquina pode ser programada para reconhecer palavras, mas ele não consegue entender a Palavra. Ele pode identificar comandos, não mandamentos. Pode registrar comportamentos, não faz distinção entre virtude e vício. Ele pode detectar correlações, não compreenda a revelação divina. e, acima de: não posso conhecer a Deus. Uma cultura que se habitua a substituir o julgamento da consciência pelo escrutínio de um algoritmo acaba por esquecer que a liberdade é um ato espiritual, não um saída digital[2]. E é aqui que a teologia moral se torna decisiva, porque lembra ao homem que: a verdade é sempre pessoal; o bem é sempre intencional; a consciência é sempre irredutível; o julgamento moral não pode ser delegado a ninguém, muito menos para um software.
Isso não significa demonizar a tecnologia, mas coloque-o de volta em seu lugar: o de um instrumento, não é um juiz. Inteligência artificial, Naquela hora, certamente pode tornar o trabalho humano mais ágil, mas ele não pode substituí-lo no ponto decisivo: julgamento moral, a única área em que não basta saber “como são as coisas”, mas você tem que decidir "por que fazer isso". É o lugar da consciência, onde o homem pesa intenções, assume a responsabilidade, Ele é responsável por suas ações diante de Deus. O carro não cabe aqui, não consigo entrar: calcular, mas ele não escolhe; analisar, mas ele não responde; começo, mas ele não ama. Como um excelente cirurgião plástico, a Inteligência Artificial pode realçar o que já é bonito, mas não pode tornar bonito o que não é belo, pode corrigir desproporções, pode atenuar certos sinais de envelhecimento; mas ele não pode criar do nada nem da beleza que não existe, nem restaurar a juventude desbotada. Pode melhorar um rosto enrugado, mas ele não pode inventar um novo rosto. Da mesma forma, Inteligência Artificial pode ajudar a organizar dados, esclarecer um texto, para colocar tópicos complexos em ordem; mas não pode dar inteligência a um sujeito limitado e medíocre, nem consciência para quem não a tem.
A imagem, talvez um pouco grosseiro, mas eficaz, é o do cavalo puro-sangue e do pônei: a tecnologia pode treinar, tratar, fazer o garanhão árabe ter o melhor desempenho, mas nunca transformará um pobre pônei em um puro-sangue. O que não está lá, nenhum algoritmo jamais será capaz de criá-lo. A máquina só aperfeiçoa o que já encontra no homem: pode refinar um pensamento verdadeiro, mas não geram verdade; pode polir uma frase bem-sucedida, mas não pode alcançar a consciência da qual surgiu aquela frase.
A máquina só aperfeiçoa o que já encontra no homem: pode refinar um pensamento verdadeiro, mas não geram verdade; pode limpar uma frase bem sucedida, mas não infunda o espírito que o gerou. E é precisamente aqui que se torna evidente o paralelo com o princípio tomista:
«Ga razão não tira a natureza, mas aperfeiçoa (a graça não destrói a natureza, mas ele aperfeiçoa)»[3].
Neste ponto torna-se inevitável volte seu olhar para o terreno mais delicado: se a máquina só puder aperfeiçoar o que encontra, então a verdadeira questão não é sobre o algoritmo, mas o homem que se entrega a ele. E é aqui que a analogia tomista revela toda a sua força: assim como a graça não funciona no vazio, então a tecnologia não funciona na ausência de consciência. E quando o homem deixa de exercer a sua interioridade moral, não é a máquina que ganha poder: é o próprio homem quem perde estatura. A partir deste ponto surge o problema decisivo - não técnico -, mas espiritual - que devemos agora abordar. Se entendermos que a delegação moral à máquina não é um acidente técnico, mas um erro antropológico, a questão surgirá como uma consequência lógica: o que o homem perde quando abdica de sua consciência? Ele não perde apenas uma habilidade, mas uma dimensão espiritual, aquele em que o significado do bem e do mal é decidido. A tecnologia pode ser poderosa, sofisticado, muito rápido, mas não pode se tornar um sujeito moral.
A tradição cristã ele sempre ensinou que o exercício do bom senso é uma arte que surge da graça e da liberdade: um equilíbrio entre prudência, verdade e caridade. O algoritmo não conhece nenhum desses três. Não é prudente, porque não avalia; não é verdade, porque ele não sabe; Não é caridade, porque ele não ama. Por causa disso, usar Inteligência Artificial como ferramenta é possível; usá-lo como critério é desumano, pensar que pode criar no lugar do homem incapaz de articular um pensamento, ou para produzir trabalho intelectual, é no mínimo ilusório. A tecnologia pode ajudar os humanos, nunca o julgue; a palavra pode ajudar, nunca substitua; pode servir a missão, nunca determine seus limites.
Uma civilização que delega à máquina o que pertence à consciência perde sua identidade espiritual: se torna uma empresa que sabe muito, mas ele entende pouco; que fala continuamente, mas ele raramente escuta; quem julga tudo, mas ela não se julga mais.
Moralidade católica nos lembra que o critério do bem não é o que o mundo aceita, mas o que Deus ensina. E Deus não fala com algoritmos: fale aos corações. O Logos ele se tornou carne, não código; Ele tornou-se homem, eu não planejo; foi feito um relatório, não mecanismo. Por esta razão, nenhuma inteligência artificial, por mais avançado que seja, pode algum dia se tornar o critério último do que é verdadeiro, certo, bom e humano. Porque o bem não pode ser calculado: e identificar.
Da ilha de Patmos, 7 fevereiro 2026
.
NOTA
[1] Ver. Dicastério para a Doutrina da Fé, Velho e novo. Nota sobre a relação entre inteligência artificial e inteligência humana (28 Janeiro 2025). — Sobre a correta integração entre capacidade humana e ferramentas tecnológicas na elaboração do julgamento moral.
[2] N.d.A. Saída significa resultado final e é um termo técnico-informático que se refere ao conjunto de dados que um computador emite durante o processo de produção, isso em contraste com a entrada, que são, em vez disso, os dados de entrada.
[3] Tomás de Aquino, PERGUNTA, eu, q.1, a.8, de Anúncios 2, dentro As Obras de São Tomás de Aquino, ed. Leonina.
.
A LIGAÇÃO PRÓXIMA ENTRE ÉTICA, INTELIGÊNCIA ARTIFICIAL E A TEOLOGIA DE SÃO TOMÁS DE AQUINO
A máquina aperfeiçoa apenas o que já encontra em ação no homem: pode refinar um pensamento verdadeiro, mas não pode gerar a verdade; pode limpar uma frase bem formada, mas não pode infundir o espírito que o gerou. E é precisamente aqui que se torna evidente o paralelo com o princípio tomista: “A graça não destrói a natureza, mas aperfeiçoa (a graça não destrói a natureza, mas aperfeiçoa)”
— Teológica —
.
Este artigo para nosso Theologica página foi retirado do meu último livro Liberdade negada, publicado por nossa própria imprensa e disponível para compra aqui. Como me propus a abordar este tema relativo à Inteligência Artificial, minha mente voltou para uma das obras-primas proféticas do cinema moderno: 2001: Uma Odisseia no Espaço, dirigido por Stanley Kubrick e lançado em 1968. Nesse filme aparece HAL 9000, uma inteligência artificial extremamente avançada instalada a bordo da espaçonave Discovery. HAL é perfeito em cálculo, infalível no gerenciamento de dados, ainda desprovido do que torna o julgamento humano verdadeiramente humano: consciência. Quando a sua programação entra em conflito com os objetivos da missão, HAL não “enlouquece”: simplesmente aplica lógica sem filtragem moral, sem intencionalidade, e sem a capacidade de discernir o bem do mal. O resultado é assustador: uma máquina extremamente poderosa torna-se uma ameaça mortal precisamente porque não entende o homem nem o valor da vida. Esta intuição - cinematográfica, mas teologicamente lúcido - mostra que a inteligência artificial levanta questões que não são meramente técnicas, mas radicalmente moral. O que está em jogo não é o poder computacional — que ninguém contesta — mas o risco de o homem delegar a um sistema impessoal o que pertence exclusivamente à sua consciência. E é precisamente isso que acontece quando se permite que uma plataforma decida autonomamente o que é “bom” ou “mau”, o que pode ser dito e o que deve ser silenciado: entrega-se à máquina um ato que deveria ser moral. E este é apenas o primeiro passo na delegação moral à máquina.
Uma vez que o julgamento sobre a verdade e a falsidade tenha sido cedido à tecnologia, o próximo passo se torna quase inevitável: renunciando também ao bom senso educacional e à responsabilidade pessoal. Quando um pai confia inteiramente a um algoritmo a tarefa de filtrar o que uma criança pode ver, sem supervisão crítica, isso significa delegar a responsabilidade educacional a um sistema estatístico. Ou novamente, quando se pergunta à Inteligência Artificial se uma frase é “ofensiva” ou “moralmente aceitável”, isso significa transferir para a máquina uma tarefa que exige consciência, não cálculo.
O que foi descrito até agora não é uma coleção de detalhes técnicos, mas sim o ponto decisivo. Onde falta intenção, a máquina nunca poderá entender o que o homem está fazendo quando fala, adverte, educa, cura ou corrige. E como não pode acessar o “porquê”, reduz tudo ao “como”: não avalia o significado, analisa apenas a forma. É aqui que o mal-entendido se torna inevitável e o erro sistemático.. Isso é o que acontece, por exemplo, quando um padre repreende uma pessoa fiel ou um pai corrige um filho: a consciência humana distingue entre severidade e crueldade, entre correção e ofensa; o algoritmo apenas registra a dureza da frase e a sinaliza como “linguagem hostil”. Um médico que escreve “esse risco leva à morte” pode ver suas palavras classificadas como “conteúdo violento”, porque a máquina não distingue diagnóstico de ameaça. E mesmo um simples versículo bíblico pode ser censurado como “linguagem ofensiva”, porque a Inteligência Artificial não percebe o propósito moral, mas apenas a superfície das palavras. Por esta razão, qualquer uso de Inteligência Artificial que afete a fala, julgamento, relacionamento ou liberdade devem ser examinados à luz da teologia moral, não engenharia da computação.
A distinção é decisiva: a máquina não decide, ele seleciona; não avalia, ele filtra; não julga, classifica. E o que classifica nunca é bom ou mau, mas apenas o provável e o improvável, o frequente e o raro, aceitabilidade estatística e suspeita algorítmica. A consciência humana faz exatamente o oposto: leva a sério a singularidade do ato e a liberdade do agente; pesa intenções, circunstâncias e consequências; distingue entre repreensão que salva e ofensa que fere; entre a severidade nascida do amor e a crueldade nascida do desprezo. A máquina não vê nada disso.
Quando um pai repreende um filho, a consciência reconhece o amor que a sustenta; o algoritmo vê apenas uma frase “potencialmente hostil”. Quando um diretor espiritual adverte alguém que lhe foi confiado, a consciência percebe a misericórdia que acompanha a verdade; o algoritmo vê uma violação dos “padrões da comunidade”. Quando uma pessoa fala para corrigir, proteger ou educar, a consciência compreende o propósito; a máquina percebe apenas palavras duras. O resultado é paradoxal: onde o homem une justiça e misericórdia, a máquina não produz nada além de etiquetas.
A ambiguidade moral não surge da tecnologia: surge do homem que o projeta. Pois o algoritmo não é neutro: executa uma moralidade que não conhece, mas que outros decidiram por isso. E vemos isso todos os dias: se o conteúdo desafiar o politicamente correto, o algoritmo interpreta isso como “hostilidade”; se critica certos excessos da cultura acordada, rotula isso de “discriminação”; se abordar temas da antropologia cristã – por exemplo, a diferença sexual ou a família – criticando lobbies LGBT poderosos e politizados, sinaliza isso como “discurso de ódio” ou “incitamento à violência”. Tudo isso não porque a máquina “pensa” assim, mas porque foi programado para reagir desta forma. O algoritmo não nasce neutro: já é educado por quem o constrói, moldado por critérios ideológicos que confundem crítica com agressão, reflexão com ofensa, verdade com violência. Em outras palavras, o algoritmo tem mestres: reflete seus medos, amplifica suas convicções, censura o que eles temem. As plataformas não filtram de acordo com critérios objetivos, mas de acordo com ideologias dominantes: o que o mundo idolatra é promovido, o que o Evangelho recorda é suspeito; o que agrada é amplificado, o que adverte é silenciado. O resultado é uma nova forma de censura cultural: elegante, educado, esterilizado digitalmente - mas ainda com censura.
Essas análises surgem de reflexões, estudos e observações que venho desenvolvendo há muito ao nível antropológico-cultural e sobre o real funcionamento das plataformas digitais. É precisamente por esta razão que considero significativo observar como, em um nível diferente, mas complementar, a Dicastério para a Doutrina da Fé recordou recentemente um princípio decisivo, essencialmente movendo-se na mesma direção do pensamento, reafirmando que a Inteligência Artificial, embora possa “cooperar no crescimento do conhecimento”, não pode de forma alguma ser equiparada à inteligência humana, que possui uma profundidade e dinamismo que nenhum sistema de aprendizado de máquina pode replicar. Este documento sublinha que a Inteligência Artificial não compreende, mas processos; não julga, mas calcula; e é intrinsecamente incapaz de compreender a dimensão moral da ação, já que lhe falta consciência e interioridade (cf. aqui). Portanto, adverte claramente que o discernimento moral não pode ser atribuído a um dispositivo algorítmico: fazê-lo significaria abdicar da responsabilidade ética humana e entregar a verdade a um mecanismo estatístico. A ilusão de uma inteligência moral artificial é definida pelo documento como uma forma de idolatria tecnológica ingênua, porque a verdade não é fruto do cálculo, mas do encontro entre liberdade e graça[1].
Esta reflexão magistral confirma o ponto central: a consciência não pode ser programada. A máquina pode ajudar, mas não julgue; isso pode ajudar, mas não interpretar; pode filtrar, mas não discernir. O que pertence à liberdade humana — e, portanto, à relação do homem com Deus — não pode ser delegado a nenhuma tecnologia.
A ética da inteligência artificial revela assim a sua fragilidade: uma máquina pode ser programada para reconhecer palavras, mas não consegue entender a Palavra. Ele pode identificar comandos, não mandamentos. Ele pode catalogar comportamentos, não distinguir entre virtude e vício. Ele pode detectar correlações, não compreender a revelação divina. E acima de tudo: não pode conhecer a Deus. Uma cultura que se acostuma a substituir o julgamento da consciência pela triagem algorítmica acaba esquecendo que a liberdade é um ato espiritual, não é uma saída digital[2]. É aqui que a teologia moral se torna decisiva, pois lembra ao homem que a verdade é sempre pessoal; o bem é sempre intencional; a consciência é sempre irredutível; o julgamento moral não pode ser delegado a ninguém, muito menos ao software.
Isso não significa demonizar a tecnologia, mas restaurá-lo ao seu devido lugar: o de uma ferramenta, não é um juiz. A Inteligência Artificial pode certamente tornar o trabalho humano mais eficiente, mas não pode substituí-lo no ponto decisivo: julgamento moral, o único domínio em que não basta saber “como as coisas são”, mas é preciso decidir “por que fazê-los”. Este é o reino da consciência, onde o homem pesa intenções, assume a responsabilidade, e responde por suas ações diante de Deus. Aqui a máquina não entra, não consigo entrar: calcula, mas não escolhe; analisa, mas não responde; simula, mas não ama. Como um excelente cirurgião plástico, A Inteligência Artificial pode melhorar o que já é bonito, mas não pode tornar bonito o que não é; pode corrigir desproporções, suavizar certas marcas do tempo, mas não pode criar beleza do nada nem restaurar a juventude depois de desbotada. Pode realçar um rosto marcado, mas não pode inventar um novo. Do mesmo jeito, Inteligência Artificial pode ajudar a organizar dados, esclarecer um texto, ou ordene argumentos complexos; mas não pode dar inteligência a um sujeito limitado e medíocre, nem consciência para quem não tem.
A imagem - talvez um tanto nítida, mas eficaz - é a do cavalo puro-sangue e do pônei: a tecnologia pode treinar, cuidar e trazer à tona o que há de melhor no garanhão árabe, mas nunca transformará um pobre pônei em um puro-sangue. O que não está lá, nenhum algoritmo jamais criará. A máquina aperfeiçoa apenas o que já encontra em ação no homem: pode refinar um pensamento verdadeiro, mas não pode gerar a verdade; pode polir uma frase de sucesso, mas não consegue alcançar a consciência de onde surgiu essa frase.
A máquina aperfeiçoa apenas o que já encontra em ação no homem: pode refinar um pensamento verdadeiro, mas não pode gerar a verdade; pode limpar uma frase bem formada, mas não pode infundir o espírito que o gerou. E é precisamente aqui que se torna evidente o paralelo com o princípio tomista:
“A graça não destrói a natureza, mas aperfeiçoa (a graça não destrói a natureza, mas aperfeiçoa)” [3].
Neste ponto torna-se inevitável voltar o olhar para o terreno mais delicado: se a máquina só pode aperfeiçoar o que encontra, então a verdadeira questão não diz respeito ao algoritmo, mas o homem que se entrega a isso. E é aqui que a analogia tomista mostra toda a sua força: assim como a graça não atua sobre o vazio, então a tecnologia não funciona na ausência de consciência. E quando o homem deixa de exercer a sua interioridade moral, não é a máquina que ganha poder: é o próprio homem quem perde estatura. A partir deste ponto surge o problema decisivo - não técnico, mas espiritual - que devemos agora confrontar. Se entendermos que a delegação moral à máquina não é um acidente técnico, mas um erro antropológico, a questão surgirá por consequência lógica: o que o homem perde quando abdica de sua consciência? Ele não perde apenas uma habilidade, mas uma dimensão espiritual, aquele em que o significado do bem e do mal é decidido. A tecnologia pode ser poderosa, sofisticado, extremamente rápido, mas não pode se tornar um sujeito moral.
Tradição cristã sempre ensinou que o exercício do bom senso é uma arte nascida da graça e da liberdade: um equilíbrio entre prudência, verdade e caridade. O algoritmo não conhece nenhum desses três. Não é prudente, porque não avalia; não é verdade, porque não sabe; não é caridade, porque não ama. Por esta razão, usar Inteligência Artificial como ferramenta é possível; usá-lo como critério é desumano. Pensar que ela pode criar no lugar de um homem incapaz de articular um pensamento ou de produzir uma obra intelectual é, pelo menos, ilusório. A tecnologia pode ajudar o homem, nunca o julgue; pode ajudar a fala, nunca substitua; pode servir a missão, nunca determine seus limites.
Uma civilização que delega à máquina o que pertence à consciência perde sua identidade espiritual: torna-se uma sociedade que sabe muito, mas entende pouco; que fala incessantemente, mas raramente ouve; que julga tudo, mas não se julga mais.
Moralidade católica nos lembra que o critério do bem não é o que o mundo aceita, mas o que Deus ensina. E Deus não fala com algoritmos: Ele fala aos corações. O Logos se tornou carne, não código; tornou-se homem, não programa; tornou-se relacionamento, não mecanismo. Por esta razão, nenhuma inteligência artificial, por mais avançado que seja, pode sempre se tornar o critério último do que é verdadeiro, apenas, bom e humano. Porque o bem não se calcula: é reconhecido.
Da Ilha de Patmos, 7 fevereiro 2026
.
NOTAS
[1] Cf. Dicastério para a Doutrina da Fé, Velho e novo. Nota sobre a relação entre inteligência artificial e inteligência humana (28 Janeiro 2025) — Sobre a correta integração entre capacidade humana e ferramentas tecnológicas na formação do julgamento moral.
[2] UM. Saída significa resultado final e é um termo técnico de computação que se refere ao conjunto de dados produzidos por um computador por meio de uma operação de processamento, em contraste com a entrada, quais são os dados recebidos.
[3] Tomás de Aquino, PERGUNTA, eu, q.1, a.8, de Anúncios 2, nas Obras de São Tomás de Aquino, Edição Leonina.
.
A LIGAÇÃO PRÓXIMA ENTRE ÉTICA, INTELIGÊNCIA ARTIFICIAL E A TEOLOGIA DE SÃO TOMÁS DE AQUINO
A máquina aperfeiçoa apenas o que já encontra em ação no homem.: pode aprimorar um pensamento verdadeiro, mas não gera a verdade; pode limpar uma frase bem sucedida, mas não incutir o espírito que o gerou. E é precisamente aqui que o paralelismo com o princípio tomista se torna evidente.: «A graça não destrói a natureza, mas aperfeiçoa (a graça não destrói a natureza, mas aperfeiçoa)».
- Teológico -
.
Este artigo para nossa página Theologica Foi retirado do meu último livro Liberdade negada (Liberdade negada) publicado por nossas edições e disponível para venda aqui.
Quando eu estiver pronto para discutir este tópico relacionado à Inteligência Artificial, uma das obras mais proféticas do cinema moderno me veio à mente: 2001: odisseia no espaço, dirigido por Stanley Kubrick e lançado em 1968. HAL aparece naquele filme 9000, uma inteligência artificial de altíssimo nível, instalado a bordo da espaçonave Discovery. HAL é perfeito em cálculo, infalível no gerenciamento de dados, mas falta aquilo que torna o julgamento verdadeiramente humano: a consciência. Quando sua programação entra em conflito com os objetivos da missão, HAL não “enlouquece”: simplesmente aplique a lógica sem o filtro moral, sem intencionalidade e sem capacidade de discernir o bem do mal. O resultado é chocante: uma máquina muito poderosa torna-se uma ameaça mortal precisamente porque não entende o homem nem o valor da vida. Esta intuição cinematográfica, mas teologicamente muito claro — mostra que a inteligência artificial levanta problemas que não são meramente técnicos, mas radicalmente moral. O que está em jogo não é o poder computacional – que ninguém contesta – mas o risco de o homem delegar a um sistema impessoal aquilo que pertence exclusivamente à sua consciência.. E é precisamente isso que acontece quando uma plataforma pode decidir autonomamente o que é “bom” ou “ruim”., o que pode ser dito e o que deve ser silenciado: um ato que deveria ser moral é entregue à máquina. E este é apenas o primeiro passo da delegação moral à máquina.
Uma vez entregue à tecnologia o julgamento sobre o que é verdadeiro e o que é falso, o próximo passo se torna quase inevitável: também renunciar ao bom senso educacional e à responsabilidade pessoal. Ocorre, Por exemplo, quando um pai confia completamente a um algoritmo a tarefa de filtrar o que uma criança pode ver, sem supervisão crítica: significa delegar a responsabilidade educacional a um sistema estatístico. Ou quando se pergunta à Inteligência Artificial se uma frase é “ofensiva” ou “moralmente aceitável”: significa transferir uma tarefa que requer consciência para a máquina, não cálculo.
O que foi explicado até agora não constitui um conjunto de detalhes técnicos, mas o ponto decisivo. Se a intenção estiver faltando, a máquina nunca consegue entender o que o homem está fazendo quando fala, repreensões, educar, cura o corrige. E como você não pode acessar o “porquê”, reduza tudo ao “como”: não avalia o significado, analise apenas a forma. É aqui que o mal-entendido se torna inevitável e o erro sistemático. É o que acontece, Por exemplo, quando um padre repreende um crente ou um pai corrige um filho: a consciência humana distingue entre severidade e crueldade, entre correção e ofensa; O algoritmo apenas registra a aspereza da frase e a marca como “linguagem hostil”.. O médico que escreve “esse risco leva à morte” pode ver suas palavras classificadas como “conteúdo violento”, porque a máquina não distingue um diagnóstico de uma ameaça. Até mesmo um simples versículo bíblico pode ser censurado como “linguagem ofensiva”., porque a Inteligência Artificial não percebe o propósito moral, mas apenas a superfície da palavra. Por esta razão, qualquer uso de Inteligência Artificial que afete a palavra, para o julgamento, ao relacionamento ou à liberdade deve ser examinado à luz da teologia moral, não engenharia da computação.
A distinção é decisiva: a máquina não decide, selecione; não avalia, filtro; não julga, classificar. E o que classifica nunca é bom ou mau, mas apenas o provável e o improvável, o frequente e o raro, o que é estatisticamente aceitável e o que é algoritmicamente suspeito. A consciência humana faz exatamente o oposto.: leva a sério a singularidade do ato e a liberdade do agente; ponderar intenções, circunstâncias e consequências; distingue entre a repreensão que salva e a ofensa que fere; entre a severidade por amor e a crueldade por desprezo. A máquina não vê nada disso..
Quando um pai repreende um filho, a consciência reconhece o amor que a sustenta; o algoritmo vê apenas uma frase “potencialmente hostil”. Quando um diretor espiritual adverte aqueles que estão sob sua responsabilidade, a consciência percebe a misericórdia que acompanha a verdade; o algoritmo vê uma violação dos “padrões da comunidade”. Quando uma pessoa fala para corrigir, proteger o educar, a consciência compreende o propósito; a máquina só percebe a palavra difícil. O resultado é paradoxal: onde o homem une justiça e misericórdia, a máquina produz apenas etiquetas.
A ambiguidade moral não nasce da tecnologia: nasceu do homem que o projetou. Porque o algoritmo não é neutro: executa uma moralidade que ele não conhece, mas que outros decidiram por ele. E vemos isso todos os dias: se o conteúdo questionar o politicamente correto, o algoritmo interpreta isso como “hostilidade”; Se você critica certas tendências culturais acordou, rotula isso de “discriminação”; se aborda questões da antropologia cristã – por exemplo, a diferença sexual ou a família – criticando os poderosos e politizados lobbies LGBT, Ele descreve isso como “incitação ao ódio” ou “incitação à violência”, a chamada c. Tudo isso não acontece porque a máquina “pensa” assim., mas porque foi programado para reagir dessa forma. O algoritmo não nasce neutro: Já nasce educado por quem o constrói, moldado por critérios ideológicos que confundem crítica com agressão, reflexão com ofensa, a verdade com violência. Em outras palavras, o algoritmo tem mestres: reflete seus medos, amplifica suas convicções, censurar o que eles temem. As plataformas não filtram segundo critérios objetivos, mas de acordo com as ideologias dominantes: o que o mundo idolatra é promovido, o que o Evangelho lembra é suspeito; o que agrada é amplificado, o que adverte é silenciado. O resultado é uma nova forma de censura cultural: Elegante, educada, esterilizado digitalmente - mas sempre censurado.
Estas minhas reflexões nascem de estudos, análises e observações que venho investigando há algum tempo no plano antropológico-cultural e no real funcionamento das plataformas digitais. Precisamente por esta razão considero significativo salientar como, em um nível diferente, mas complementar, O Dicastério para a Doutrina da Fé recordou recentemente um princípio decisivo, indo substancialmente na mesma direção do pensamento, reafirmando que a Inteligência Artificial, podendo inclusive “cooperar no crescimento do conhecimento”, não pode ser comparado de forma alguma à inteligência humana, que tem uma profundidade e dinâmica que nenhum sistema de aprendizado de máquina pode replicar. Este documento destaca que a Inteligência Artificial não inclui, mas processos; não julga, mas calcula; e é intrinsecamente incapaz de compreender a dimensão moral da ação, falta de consciência e interioridade (cf.. aqui). Avisar, portanto, claramente que o discernimento moral não pode ser atribuído a um dispositivo algorítmico: Fazer isso significaria abdicar da responsabilidade ética do homem e entregar a verdade a um mecanismo estatístico.. A ilusão de uma inteligência moral artificial é definida pelo documento como uma forma de idolatria tecnológica ingênua, porque a verdade não é resultado de cálculo, mas do encontro entre liberdade e graça[1].
Esta reflexão magistral confirma o ponto central: a consciência não está programada. A máquina pode ajudar, mas não julgue; pode ajudar, mas não interpretar; pode filtrar, mas não discernir. Aquilo que pertence à liberdade do homem – e, portanto, ao seu relacionamento com Deus - não pode ser delegado a nenhuma tecnologia.
A ética da inteligência artificial revelando assim a sua fragilidade: uma máquina pode ser programada para reconhecer palavras, mas não consigo entender a Palavra. Pode identificar pedidos, não mandamentos. Pode censor comportamentos, não distinguir entre virtude e vício. Pode detectar correlações, não aceitar a revelação divina. S, sobretudo: não posso conhecer a Deus. Uma cultura que se acostuma a substituir o julgamento da consciência pela triagem de um algoritmo acaba esquecendo que a liberdade é um ato espiritual, não é um saída digital[2]. É aqui que a teologia moral se torna decisiva., porque se lembra do homem que: a verdade é sempre pessoal; o bem é sempre intencional; a consciência é sempre irredutível; o julgamento moral não pode ser delegado a ninguém, e menos ainda para um software.
Isso não significa demonizar a tecnologia, mas devolva-o ao seu devido lugar: o de instrumento, não o de juiz. A Inteligência Artificial certamente pode tornar o trabalho humano mais ágil, mas não pode substituí-lo no ponto decisivo: o julgamento moral, a única área em que não basta saber “como são as coisas”, mas é preciso decidir “por que fazê-los”. É o lugar da consciência, onde o homem pondera intenções, assume responsabilidades e é responsável por suas ações diante de Deus. A máquina não cabe aqui, não consigo entrar: calcular, mas não escolha; análise, mas ele não responde; começo, mas ele não ama. Como um excelente cirurgião plástico, A Inteligência Artificial pode realçar o que já é bonito, mas você não pode tornar bonito o que não é bonito; pode corrigir desproporções, pode atenuar certos sinais do tempo, mas não pode criar do nada uma beleza que não existe nem restaurar a juventude que já murchou.. Pode realçar um rosto marcado, mas não posso inventar um novo rosto. Da mesma forma, Inteligência Artificial pode ajudar a organizar dados, esclarecer um texto, classificar argumentos complexos; mas não pode dar inteligência a um sujeito limitado e medíocre, nem consciência para aqueles que não têm.
A imagem, talvez um pouco grosseiro, mas eficaz, É o do cavalo de corrida e do pônei: a tecnologia pode treinar, cuidar e fazer com que o garanhão árabe tenha o máximo desempenho, mas nunca transformará um pobre pônei em um puro-sangue. O que não existe, nenhum algoritmo pode criá-lo. A máquina aperfeiçoa apenas o que já encontra em ação no homem.: pode aprimorar um pensamento verdadeiro, mas não gera a verdade; pode polir uma frase bem-sucedida, mas não alcançando a consciência da qual essa frase surgiu.
A máquina aperfeiçoa apenas o que já encontra em ação no homem: pode aprimorar um pensamento verdadeiro, mas não gera a verdade; pode limpar uma frase bem sucedida, mas não incutir o espírito que o gerou. E é precisamente aqui que o paralelismo com o princípio tomista se torna evidente.:
«A graça não destrói a natureza, mas aperfeiçoa (a graça não destrói a natureza, mas aperfeiçoa)»[3].
Neste ponto, torna-se inevitável olhar para o terreno mais delicado: se a máquina só pode aperfeiçoar o que encontra, então o verdadeiro problema não diz respeito ao algoritmo, mas para o homem que se entrega a ele. E é aqui que a analogia tomista mostra toda a sua força.: assim como a graça não atua sobre o vazio, Da mesma forma, a tecnologia não funciona na ausência de consciência.. E quando o homem deixa de exercer a sua interioridade moral, Não é a máquina que ganha poder: É o próprio homem que perde altura. A partir daqui surge o problema decisivo – não técnico., mas espiritual - que devemos agora enfrentar. Se entendermos que a delegação moral à máquina não é um acidente técnico, mas um erro antropológico, A questão surgirá por consequência lógica: O que um homem perde quando abdica da sua consciência?? Você não perde apenas uma habilidade, mas uma dimensão espiritual, aquele em que o significado do bem e do mal é decidido. A tecnologia pode ser poderosa, sofisticada, muito rápido, mas não pode se tornar um sujeito moral.
A tradição cristã sempre ensinou que o exercício do bom senso é uma arte nascida da graça e da liberdade: um equilíbrio entre prudência, verdade e caridade. O algoritmo não conhece nenhum desses três. Não é sábio, porque não avalia; não é verdade, porque você não sabe; Não é caridade, porque ele não ama. Por esta razão, usar Inteligência Artificial como instrumento é possível; usá-lo como critério é desumano. Pensar que posso criar em vez de um homem incapaz de articular um pensamento ou de produzir uma obra intelectual é, pelo menos, ilusório. A tecnologia pode ajudar o homem, nunca o julgue; pode ajudar a palavra, nunca substitua; pode servir a missão, nunca determine seus limites.
Uma civilização que delega à máquina aquilo que pertence à consciência perde sua identidade espiritual: torna-se uma sociedade que sabe muito, mas entende pouco; que fala continuamente, mas raramente ouve; quem julga tudo, mas ela não se julga mais.
Moralidade católica nos lembra que o critério do bem não é o que o mundo aceita, mas o que Deus ensina. E Deus não fala com algoritmos: fala aos corações. O Logos se tornou carne, não código; ele se tornou um homem, não programa; relacionamento foi feito, não mecanismo. É por isso que não há inteligência artificial, não importa quão avançado seja, nunca pode se tornar o critério último do que é verdadeiro, justo, bom e humano. Porque o bem não se calcula: é reconhecido.
Da Ilha de Patmos, 7 Fevereiro 2026
.
NOTAS
[1] Ver. Dicastério para a Doutrina da Fé, Velho e novo. Nota sobre a relação entre inteligência artificial e inteligência humana (28 Janeiro 2025). —Sobre a correta integração entre capacidade humana e instrumentos tecnológicos na elaboração do julgamento moral.
[2] N. de A. Saída significa resultado final e é um termo técnico-informático que se refere ao conjunto de dados que um computador emite através de um processo de produção., em oposição à entrada, quais são os dados de entrada.
[3] Tomás de Aquino, PERGUNTA, eu, q. 1, uma. 8, de Anúncios 2, en Sancti Thomas de Aquinas Opera Omnia, edición Leonina.
.
A ESTREITA LIGAÇÃO ENTRE ÉTICA, INTELIGÊNCIA ARTIFICIAL E A TEOLOGIA DE SÃO TOMÁS DE AQUINO
A máquina só aperfeiçoa isso, o que já encontra em humanos: Pode refinar um pensamento verdadeiro, mas não produza nenhuma verdade; ela pode limpar uma frase bem sucedida, mas não respire o espírito, quem o produziu. E é precisamente aqui que o paralelo com o princípio tomiano se torna evidente: „A graça não destrói a natureza, mas aperfeiçoa (a graça não destrói a natureza, mas completa)“
— Teológica —
.
.
Esta postagem para nossa categoria Theologica é meu último livro Liberdade negada (Liberdade negada), que foi publicado pela nossa editora e disponível aqui é.
Quando eu decidi fazer isso, para abordar este tópico em conexão com inteligência artificial, Uma das obras-primas mais proféticas do cinema moderno veio à mente: 2001: Uma odisséia no espaço, dirigido por Stanley Kubrick e 1968 publicado. HAL aparece neste filme 9000, uma inteligência artificial altamente desenvolvida, que está instalado a bordo da nave Discovery. HAL é perfeito em aritmética, infalível no processamento de dados, mas ela sente falta disso, o que constitui julgamento humano: a consciência. Quando a sua programação entra em conflito com os objetivos da missão, HAL não “enlouquece”: simplesmente aplica lógica sem filtro moral, sem intencionalidade e sem capacidade, distinguir entre o bem e o mal. O resultado é chocante: É precisamente por isso que uma máquina extremamente poderosa se torna uma ameaça mortal, porque ela não entende as pessoas e o valor da vida. Este – cinematográfico, mas teologicamente extremamente claro - a intuição mostra, que a inteligência artificial apresenta problemas, que não são apenas de natureza técnica, mas radicalmente moral. Não é o poder computacional que está em questão - ninguém contesta isso -, mas o perigo, esse homem parte para um sistema impessoal, que é da exclusiva responsabilidade da sua consciência. Isso é exatamente o que está acontecendo, se você permitir uma plataforma, decidir autonomamente, o que é “bom” ou “mal”., o que pode ser dito e o que deve ser mantido em silêncio: Você transfere um ato para a máquina, o que teria que ser moral. E este é apenas o primeiro passo da delegação moral à máquina.
Assim que resta a tecnologia para decidir o que é verdadeiro e falso, o próximo passo se torna quase inevitável: também renunciar ao bom senso educacional e à responsabilidade pessoal. Isso acontece então, quando um pai delega completamente a tarefa a um algoritmo, filtrar, o que uma criança pode ver, sem supervisão crítica: Isso significa, delegar a responsabilidade educacional a um sistema estatístico. Ou se você perguntar à inteligência artificial, se uma sentença é “ofensiva” ou “moralmente aceitável”.: Então você dá uma tarefa à máquina, que exige consciência, não cálculo.
O que foi apresentado aqui, não é um conjunto de detalhes técnicos, mas o ponto crucial. A intenção está faltando, a máquina nunca pode entender, o que o homem faz, quando ele fala, advertido, educa, cura ou corrige. E porque ela não tem acesso ao “porquê”., ela reduz tudo ao “como”: Não avalia o significado, mas analisa apenas a forma. É aqui que o mal-entendido se torna inevitável e o erro sistemático se instala.. Algo assim, quando um padre repreende um crente ou um pai corrige seu filho: A consciência humana distingue entre severidade e crueldade, entre correção e insulto; o algoritmo simplesmente registra a dureza da frase e a marca como “linguagem hostil”. O médico, quem escreve: “Esse risco leva à morte”, pode ver suas palavras classificadas como “conteúdo violento”., porque a máquina não consegue distinguir um diagnóstico de uma ameaça. Até mesmo um simples versículo bíblico pode ser censurado como “linguagem ofensiva”., porque a inteligência artificial não percebe o objetivo moral, mas apenas a superfície da palavra. É por isso que todo uso da inteligência artificial deve, da linguagem, Veredicto, Relacionamento ou liberdade tocado, ser examinado à luz da teologia moral, não no contexto da ciência da computação.
A distinção é crucial: A máquina não decide, ela seleciona; ela não julga, ela filtra; ela não julga, classifica-os. E o que os classifica, nunca é bom ou mau, mas apenas o provável e o improvável, Comum e raro, Estatisticamente aceitável e algoritmicamente suspeito. A consciência humana faz exatamente o oposto: Leva a sério a singularidade da ação e a liberdade do ator; pesa intenções, circunstâncias e consequências; distingue entre repreensão, que salva, e o insulto, quem machucou; entre a severidade por amor e a crueldade por desprezo. A máquina não vê nada disso.
Quando um pai corrige seu filho, consciência reconhece o amor, quem o carrega; o algoritmo vê apenas uma frase “potencialmente hostil”. Quando um diretor espiritual adverte a pessoa que lhe foi confiada, consciência reconhece misericórdia, que acompanha a verdade; o algoritmo vê uma violação dos “padrões da comunidade”. Quando alguém fala, corrigir, proteger ou educar, consciência capta o objetivo; a máquina só grava a palavra difícil. O resultado é paradoxal: Lá, onde o homem combina justiça e misericórdia, a máquina só produz etiquetas.
A ambigüidade moral não surge da tecnologia, mas para as pessoas, quem os projeta. Porque o algoritmo não é neutro: Ele cumpre uma moral, que ele não sabe, mas que outros estabeleceram para ele. Isso é evidente todos os dias: Um conteúdo questiona o que é politicamente correto?, o algoritmo interpreta isso como “hostilidade”; ele critica certos excessos da cultura acordada, ele rotula isso como “discriminação”; Ele trata de temas da antropologia cristã – como as diferenças de gênero ou a família – e critica os poderosos, lobbies LGBT politizados, é marcado como “discurso de ódio” ou “glorificação da violência”.. Nada disso, porque a máquina “pensa” assim, mas porque foi programado dessa forma. O algoritmo não nasce neutro: Ele é treinado desde o início por seus desenvolvedores, moldado por critérios ideológicos, crítica com agressão, Confundir reflexão com insulto e verdade com violência. Em outras palavras: O algoritmo tem mestres. Ele reflete seus medos, reforça suas crenças, censurado, o que eles temem. As plataformas não filtram com base em critérios objetivos, mas de acordo com as ideologias dominantes: O que o mundo adora, é encorajado; o que o evangelho traz à mente, é suspeito; o que você gosta, é reforçado; o que adverte, é silenciado. O resultado é uma nova forma de censura cultural: elegante, educado, esterilizado digitalmente – mas ainda com censura.
Essas considerações surgem de estudos, Reflexões e observações, que venho aprofundando há algum tempo a nível antropológico-cultural bem como no que diz respeito ao real funcionamento das plataformas digitais. É exatamente por isso que acho importante observar, isso em outro, mas a um nível complementar, o Dicastério para a Doutrina da Fé recordou recentemente um princípio crucial e está essencialmente a caminhar na mesma direção de pensamento: Afirma, que a inteligência artificial pode “contribuir para o crescimento do conhecimento”., No entanto, de forma alguma deve ser equiparado à inteligência humana, que tem profundidade e dinamismo, que nenhum sistema de aprendizado de máquina pode replicar. O documento sublinha, que a inteligência artificial não entende, mas processado; não julga, mas calculado; e é fundamentalmente incapaz devido à falta de consciência e interioridade, compreender a dimensão moral da ação (cf.. aqui). Por isso, adverte claramente contra esta, atribuir distinção moral a um sistema algorítmico: Isso significaria, abdicar da responsabilidade ética do homem e deixar a verdade para um mecanismo estatístico. A ilusão da inteligência moral artificial foi descrita como uma forma de idolatria tecnológica ingênua, já que a verdade não surge do cálculo, mas do encontro entre liberdade e graça[1].
Esta reflexão magistral confirma o ponto central: A consciência não pode ser programada. A máquina pode suportar, mas não julgue; ajuda, mas não interpretar; filtro, mas não diferencie. O que pertence à liberdade humana - e, portanto, à sua relação com Deus -, não pode ser transferido para nenhuma tecnologia.
A ética da inteligência artificial revela assim a sua fragilidade: Uma máquina pode ser programada, reconhecer palavras, mas ela não consegue entender a palavra. Ela pode identificar comandos, não mandamentos. Ele pode capturar comportamento, não faz distinção entre virtude e vício. Ela pode ver correlações, não compreenda a revelação divina. E especialmente: Ela não consegue reconhecer Deus. Uma cultura, quem se acostuma, substituir o julgamento de consciência pelo teste de um algoritmo, eventualmente esquece, que a liberdade é um ato espiritual, não é digital Saída[2]. É aqui que a teologia moral se torna crucial, porque lembra as pessoas disso: A verdade é sempre pessoal; o bom é sempre intencional; a consciência é sempre irredutível; O julgamento moral não pode ser delegado a ninguém – muito menos a um Programas.
Isto não significa, demonizar a tecnologia, mas para colocá-los em seu lugar certo: o da ferramenta, não o juiz. A inteligência artificial pode certamente tornar o trabalho humano mais eficiente, Mas não pode substituí-lo no ponto crucial: no julgamento moral, a única área, em que não basta saber, “como são as coisas”, mas em que as decisões devem ser tomadas, “por que você faz isso”. É o lugar da consciência, onde as pessoas avaliam intenções, Assume responsabilidade e defende suas ações diante de Deus. A máquina não tem acesso aqui, ela não pode ter um: Ela calcula, mas não escolhe; analisado, mas não responde; simulado, mas não ama. Como um grande cirurgião plástico, a inteligência artificial pode realçar o que já é bonito, mas não pode fazer bonito, o que não é; ela pode corrigir proporções, Aliviar os sinais de envelhecimento, mas nem criar beleza do nada nem devolver a juventude perdida. Pode melhorar um rosto desenhado, mas não invente um novo rosto. A inteligência artificial também pode ajudar, para organizar dados, esclarecer textos, estruturar argumentos complexos; Porém, não pode dar inteligência a um sujeito limitado e medíocre, nem pode dar inteligência a uma pessoa sem consciência.
A imagem – talvez um pouco drástica, mas eficaz - é o do nobre puro-sangue e do pônei: Tecnologia pode treinar o garanhão árabe, manter e levar ao desempenho máximo, mas ela nunca transformará um pobre pônei em um cavalo de corrida. O que não existe, nenhum algoritmo pode criar. A máquina só aperfeiçoa isso, o que já encontra em humanos: Pode aguçar um pensamento verdadeiro, mas não produzem a verdade; ela pode polir uma frase bem-sucedida, mas não alcance a consciência, de onde surgiu esta frase.
A máquina só aperfeiçoa isso, o que já encontra em humanos: Pode refinar um pensamento verdadeiro, mas não produza nenhuma verdade; ela pode limpar uma frase bem sucedida, mas não respire o espírito, quem o produziu. E é precisamente aqui que o paralelo com o princípio tomiano se torna evidente:
A graça não tira a natureza, mas aperfeiçoa (a graça não destrói a natureza, mas completa)“[3].
Neste ponto torna-se inevitável, focar nos terrenos mais delicados: Se ao menos a máquina pudesse aperfeiçoar isso, o que ela encontra, então a verdadeira questão não é sobre o algoritmo, mas as pessoas, quem se entrega a ele. É aqui que a analogia tomiana desenvolve todo o seu poder: Assim como a graça não funciona no vazio, a tecnologia não funciona na ausência de consciência. E quando a pessoa para, praticar a interioridade moral, Não é a máquina que ganha poder – o ser humano perde tamanho. É aqui que surge o problema crucial – não técnico, mas de natureza espiritual –, que agora temos que enfrentar. Se entendermos, que a delegação moral à máquina não é um acidente técnico, mas é um erro antropológico, surge inevitavelmente a questão: O que o homem perde?, se ele renunciar à sua consciência? Ele não perde apenas uma habilidade, mas uma dimensão espiritual, aqueles, em que o significado do bem e do mal é decidido. A tecnologia pode ser poderosa, sofisticado e incrivelmente rápido, no entanto, ela nunca pode se tornar um sujeito moral.
A tradição cristã sempre ensinou, que o exercício do bom senso é uma arte, que vem da graça e da liberdade: um equilíbrio de sabedoria, verdade e amor. O algoritmo não reconhece nenhum desses três. Ele não é inteligente, porque ele não pesa as coisas; não é verdade, porque ele não reconhece; não amando, porque ele não ama. É por isso que é possível, usar a inteligência artificial como ferramenta; Usá-lo como critério é desumano. Para acreditar, ela poderia criar no lugar de uma pessoa, quem é incompetente, articular um pensamento ou produzir uma obra intelectual, é pelo menos ilusório. A tecnologia pode apoiar as pessoas, nunca o julgue; pode servir a Palavra, nunca substitua; ela pode ajudar a missão, nunca determine seus limites.
Uma civilização, que é deixado para a máquina, o que pertence à consciência, perde sua identidade espiritual: Torna-se uma sociedade, quem sabe muito, mas entende pouco; que fala incessantemente, mas raramente ouve; quem julga tudo, mas não se julga mais.
A moral católica nos lembra disso, que o critério do bem não é aquele, o que o mundo aceita, mas isso, o que Deus ensina. E Deus não fala com algoritmos: Ele fala ao coração. O Logos se tornou carne, não código; ele se tornou humano, não programa; tornou-se um relacionamento, não mecanismo. É por isso que nenhuma inteligência artificial pode, não importa quão avançado seja, se tornar a medida final disso, que verdade, apenas, é bom e humano. Porque o bem não é calculado: É reconhecido.
Da ilha de Patmos, 7. Fevereiro 2026
.
NOTAS
[1] cf.. Dicastério para a Doutrina da Fé, Velho e novo. Nota sobre a relação entre inteligência artificial e inteligência humana (28. Janeiro 2025). — Sobre a integração adequada das habilidades humanas e das ferramentas tecnológicas na formação de julgamentos morais.
[2] Ano. d. UMA.: Saída refere-se ao resultado final e é um termo técnico em ciência da computação, que se refere à totalidade dos dados, que um computador produz como parte de um processo de processamento, em contraste com a entrada, ou seja, os dados de entrada.
[3] Tomás de Aquino, PERGUNTA, eu, q. 1, uma. 8, de Anúncios 2, nas Obras de São Tomás de Aquino, Edição leonina.
______________________
Queridos leitores, esta revista exige custos de gestão que sempre enfrentamos apenas com suas ofertas gratuitas. Aqueles que desejam apoiar nosso trabalho apostólico podem nos enviar sua contribuição pela maneira conveniente e segura PayPal clicando abaixo:
Ou se preferir, você pode usar o nosso conta bancária em nome do:
Edições A ilha de Patmos
Agência n. 59 De Roma – Vaticano
IBAN: IT74R0503403259000000301118
Para transferências bancárias internacionais:
Código SWIFT: BAPPIT21D21
Se você fizer uma transferência bancária, envie um e-mail para a redação,
o banco não fornece seu e-mail e não poderemos enviar uma mensagem de agradecimento: isoladipatmos@gmail.com
Agradecemos o apoio que deseja oferecer ao nosso serviço apostólico.
Os Padres da Ilha de Patmos




