A estreita ligação entre a ética, inteligência artificial e teologia de São Tomso de Aquino – A estreita ligação entre a ética, Inteligência Artificial e a teologia de São Tomás de Aquino – A estreita ligação entre a ética, inteligência artificial e a teologia de São Tomás de Aquino – A estreita ligação entre a ética, inteligência artificial e a teologia de São Tomás de Aquino

italiano, inglês, espanhol, holandês

A LIGAÇÃO PRÓXIMA ENTRE ÉTICA, INÉLIGINAS E E TOMOGE PARA ISSO DO AQUINO

A máquina só aperfeiçoa o que já encontra no homem: pode refinar um pensamento verdadeiro, mas não geram verdade; pode limpar uma frase bem sucedida, mas não infunda o espírito que o gerou. E é precisamente aqui que se torna evidente o paralelo com o princípio tomista: «Ga razão não tira a natureza, mas terminart (a graça não destrói a natureza, mas ele aperfeiçoa)»

— Teológica —

.

.

artigo em formato de impressão PDF – formato de impressão do artigo – artigo em formato impresso – artigo em formato impresso

 

.

Este artigo para nossa página Theologica É baseado no meu último livro Liberdade negada, publicado por nossas edições e à venda Who.

Estou me preparando para abordar esse assunto ligada à Inteligência Artificial, veio à mente uma das obras-primas proféticas do cinema moderno: 2001: Odisséia no Espaço, dirigido por Stanley Kubrick e lançado em 1968. HAL aparece naquele filme 9000, uma inteligência artificial de altíssimo nível, instalado a bordo da nave espacial Descoberta. HAL é perfeito em cálculo, infalível no gerenciamento de dados, mas desprovido do que torna o julgamento humano: consciência. Quando sua programação entra em conflito com os objetivos da missão, HAL não "enlouquece": simplesmente aplica a lógica sem o filtro moral, sem intencionalidade e sem capacidade de discernir o bem do mal. O resultado é assustador: uma máquina muito poderosa torna-se uma ameaça mortal precisamente porque não entende o homem nem o valor da vida. Esta intuição - cinematográfica mas teologicamente lúcida - mostra que a inteligência artificial levanta problemas que não são meramente técnicos, mas radicalmente moral. O que está em jogo não é o poder computacional - que ninguém contesta - mas sim o risco de o homem delegar a um sistema impessoal o que pertence exclusivamente à sua consciência. E é exatamente isso que acontece quando você deixa uma plataforma decidir por si mesma o que é “bom” ou “ruim”., o que pode ser dito ou o que deve ser mantido em silêncio: um ato que deveria ser moral é entregue à máquina. E este é apenas o primeiro passo da delegação moral à máquina.

Uma vez que o julgamento sobre a verdade e a falsidade tenha sido entregue à tecnologia, o próximo passo se torna quase inevitável: também desistir do bom senso educacional e da responsabilidade pessoal. Ou quando um pai confia completamente ao algoritmo a tarefa de filtrar o que uma criança pode ver, sem vigilância crítica: significa delegar a responsabilidade educacional a um sistema estatístico. Ou mesmo quando você pergunta à Inteligência Artificial se uma frase é “ofensiva” ou “moralmente aceitável”: significa transferir uma tarefa que requer consciência para a máquina, eu não calculo.

O que foi ilustrado até agora não é um conjunto de detalhes técnicos eles são antes o ponto decisivo. Se a intenção estiver faltando, a máquina nunca pode entender que o homem está fazendo quando fala, adverte, educar, tratamento, corrige. E como ele não consegue acessar o “porquê”, reduz tudo ao "como": não avalia o significado, ele apenas analisa a forma. É aqui que o mal-entendido se torna inevitável e o erro sistemático. Isso é o que acontece, por exemplo, quando um padre repreende um crente ou um pai corrige um filho: a consciência humana distingue entre severidade e crueldade, entre correção e ofensa; o algoritmo apenas registra a dureza da frase e a sinaliza como “linguagem hostil”. O médico que escreve «este risco leva à morte» pode ver as suas palavras classificadas como “conteúdo violento”, porque a máquina não distingue um diagnóstico de uma ameaça. E um simples versículo bíblico pode ser censurado como “linguagem ofensiva” porque a Inteligência Artificial não percebe o propósito moral, mas apenas a superfície da palavra. Por causa disso, qualquer uso de Inteligência Artificial que afete a fala, o julgamento, a relação ou liberdade deve ser examinada à luz da teologia moral, não engenharia da computação.

A distinção é crucial: a máquina não decide, selecione; não avalia, filtro; não julga, classificação. E o que classifica nunca é bom ou ruim, mas apenas o provável e o improvável, o frequente e o raro, o aceitável estatístico e a suspeita algorítmica. A consciência humana faz exatamente o oposto: leva a sério a singularidade do ato e a liberdade do agente; pesa intenções, circunstâncias, consequências; distingue entre a reprovação que salva e a ofensa que fere; entre a severidade por amor e a crueldade por desprezo. A máquina não vê nada disso.

Quando um pai chama um filho de volta, a consciência reconhece o amor que a sustenta; o algoritmo vê apenas uma frase “potencialmente hostil”. Quando um diretor espiritual adverte um de seus subordinados diretos, a consciência vê a misericórdia que acompanha a verdade; o algoritmo vê uma violação dos “padrões da comunidade”. Quando uma pessoa fala para corrigir, proteger ou educar, a consciência percebe a finalidade, a máquina só percebe a palavra difícil. O resultado é paradoxal: onde o homem combina justiça e misericórdia, a máquina só produz etiquetas.

A ambiguidade moral não surge da tecnologia: vem do homem que o projeta. Porque o algoritmo não é neutro: realiza uma moral que ele não conhece, mas que outros decidiram por ele. E vemos isso todos os dias: se um conteúdo questionar o politicamente correto, o algoritmo interpreta isso como “hostilidade”; se ele critica algumas tendências da cultura acordou, rotula isso de “discriminação”; se aborda temas da antropologia cristã - por exemplo, a diferença sexual ou a família - dirigindo críticas aos poderosos e politizados lobbies LGBT, relata isso como “discurso de ódio”, ou “incitação à violência”, o chamado "discurso de ódio”, Verbatim: discurso de ódio. Tudo isso não porque a máquina “pensa” assim, mas porque foi programado para reagir e interagir assim. O algoritmo não nasce neutro: já nasce educado por quem o constrói, moldado por critérios ideológicos que confundem crítica com agressão, reflexão com ofensa, verdade com violência. Em outras palavras, o algoritmo tem mestres: reflete seus medos, amplifica suas crenças, censura o que eles temem. As plataformas não filtram com base em critérios objetivos, mas de acordo com ideologias dominantes: o que o mundo idolatra é promovido, o que o Evangelho recorda é suspeito; o que satisfaz é amplificado, o que avisa é silenciado. O resultado é uma nova forma de censura cultural: Elegante, educado, esterilizado digitalmente – mas ainda censurado.

Estas minhas análises surgem de reflexões, a partir dos estudos e observações que venho investigando há algum tempo no plano antropológico-cultural e sobre o real funcionamento das plataformas digitais. É precisamente por isso que considero significativo observar como, em um nível diferente, mas complementar, a Dicastério para a Doutrina da Fé recordei recentemente um princípio decisivo, indo essencialmente na mesma direção de pensamento que eu, reiterando que a Inteligência Artificial, ao mesmo tempo em que é capaz de “cooperar no crescimento do conhecimento”, não pode de forma alguma ser equiparado à inteligência humana, que possui uma profundidade e dinâmica que nenhum sistema de aprendizado de máquina pode replicar. Este documento destaca que a Inteligência Artificial não entende, mas elaborado, não julga, mas calcule, e é intrinsecamente incapaz de compreender a dimensão moral da ação, já que lhe falta consciência e interioridade (cf.. Who). Ele então adverte claramente que o discernimento moral não pode ser atribuído a um dispositivo algorítmico: fazê-lo significaria abdicar da responsabilidade ética do homem e entregar a verdade a um mecanismo estatístico. A ilusão de uma inteligência moral artificial é definida pelo documento como uma forma de idolatria tecnológica ingênua, porque a verdade não é resultado de cálculo, mas do encontro entre liberdade e graça[1].

Esta reflexão magistral confirma o ponto central: a consciência não pode ser programada. A máquina pode ajudar, mas não julgue; pode ajudar, mas não interprete; pode filtrar, mas não discerne. O que pertence à liberdade do homem – e portanto à sua relação com Deus – não pode ser delegado a nenhuma tecnologia.

A ética da inteligência artificial revela assim a sua fragilidade: uma máquina pode ser programada para reconhecer palavras, mas ele não consegue entender a Palavra. Ele pode identificar comandos, não mandamentos. Pode registrar comportamentos, não faz distinção entre virtude e vício. Ele pode detectar correlações, não compreenda a revelação divina. e, acima de: não posso conhecer a Deus. Uma cultura que se habitua a substituir o julgamento da consciência pelo escrutínio de um algoritmo acaba por esquecer que a liberdade é um ato espiritual, não um saída digital[2]. E é aqui que a teologia moral se torna decisiva, porque lembra ao homem que: a verdade é sempre pessoal; o bem é sempre intencional; a consciência é sempre irredutível; o julgamento moral não pode ser delegado a ninguém, muito menos para um software.

Isso não significa demonizar a tecnologia, mas coloque-o de volta em seu lugar: o de um instrumento, não é um juiz. Inteligência artificial, Naquela hora, certamente pode tornar o trabalho humano mais ágil, mas ele não pode substituí-lo no ponto decisivo: julgamento moral, a única área em que não basta saber “como são as coisas”, mas você tem que decidir "por que fazer isso". É o lugar da consciência, onde o homem pesa intenções, assume a responsabilidade, Ele é responsável por suas ações diante de Deus. O carro não cabe aqui, não consigo entrar: calcular, mas ele não escolhe; analisar, mas ele não responde; começo, mas ele não ama. Como um excelente cirurgião plástico, a Inteligência Artificial pode realçar o que já é bonito, mas não pode tornar bonito o que não é belo, pode corrigir desproporções, pode atenuar certos sinais de envelhecimento; mas ele não pode criar do nada nem da beleza que não existe, nem restaurar a juventude desbotada. Pode melhorar um rosto enrugado, mas ele não pode inventar um novo rosto. Da mesma forma, Inteligência Artificial pode ajudar a organizar dados, esclarecer um texto, para colocar tópicos complexos em ordem; mas não pode dar inteligência a um sujeito limitado e medíocre, nem consciência para quem não a tem.

A imagem, talvez um pouco grosseiro, mas eficaz, é o do cavalo puro-sangue e do pônei: a tecnologia pode treinar, tratar, fazer o garanhão árabe ter o melhor desempenho, mas nunca transformará um pobre pônei em um puro-sangue. O que não está lá, nenhum algoritmo jamais será capaz de criá-lo. A máquina só aperfeiçoa o que já encontra no homem: pode refinar um pensamento verdadeiro, mas não geram verdade; pode polir uma frase bem-sucedida, mas não pode alcançar a consciência da qual surgiu aquela frase.

A máquina só aperfeiçoa o que já encontra no homem: pode refinar um pensamento verdadeiro, mas não geram verdade; pode limpar uma frase bem sucedida, mas não infunda o espírito que o gerou. E é precisamente aqui que se torna evidente o paralelo com o princípio tomista:

«Ga razão não tira a natureza, mas aperfeiçoa (a graça não destrói a natureza, mas ele aperfeiçoa)»[3].

Neste ponto torna-se inevitável volte seu olhar para o terreno mais delicado: se a máquina só puder aperfeiçoar o que encontra, então a verdadeira questão não é sobre o algoritmo, mas o homem que se entrega a ele. E é aqui que a analogia tomista revela toda a sua força: assim como a graça não funciona no vazio, então a tecnologia não funciona na ausência de consciência. E quando o homem deixa de exercer a sua interioridade moral, não é a máquina que ganha poder: é o próprio homem quem perde estatura. A partir deste ponto surge o problema decisivo - não técnico -, mas espiritual - que devemos agora abordar. Se entendermos que a delegação moral à máquina não é um acidente técnico, mas um erro antropológico, a questão surgirá como uma consequência lógica: o que o homem perde quando abdica de sua consciência? Ele não perde apenas uma habilidade, mas uma dimensão espiritual, aquele em que o significado do bem e do mal é decidido. A tecnologia pode ser poderosa, sofisticado, muito rápido, mas não pode se tornar um sujeito moral.

A tradição cristã ele sempre ensinou que o exercício do bom senso é uma arte que surge da graça e da liberdade: um equilíbrio entre prudência, verdade e caridade. O algoritmo não conhece nenhum desses três. Não é prudente, porque não avalia; não é verdade, porque ele não sabe; Não é caridade, porque ele não ama. Por causa disso, usar Inteligência Artificial como ferramenta é possível; usá-lo como critério é desumano, pensar que pode criar no lugar do homem incapaz de articular um pensamento, ou para produzir trabalho intelectual, é no mínimo ilusório. A tecnologia pode ajudar os humanos, nunca o julgue; a palavra pode ajudar, nunca substitua; pode servir a missão, nunca determine seus limites.

Uma civilização que delega à máquina o que pertence à consciência perde sua identidade espiritual: se torna uma empresa que sabe muito, mas ele entende pouco; que fala continuamente, mas ele raramente escuta; quem julga tudo, mas ela não se julga mais.

Moralidade católica nos lembra que o critério do bem não é o que o mundo aceita, mas o que Deus ensina. E Deus não fala com algoritmos: fale aos corações. O Logos ele se tornou carne, não código; Ele tornou-se homem, eu não planejo; foi feito um relatório, não mecanismo. Por esta razão, nenhuma inteligência artificial, por mais avançado que seja, pode algum dia se tornar o critério último do que é verdadeiro, certo, bom e humano. Porque o bem não pode ser calculado: e identificar.

Da ilha de Patmos, 7 fevereiro 2026

.

NOTA

[1] Ver. Dicastério para a Doutrina da Fé, Velho e novo. Nota sobre a relação entre inteligência artificial e inteligência humana (28 Janeiro 2025). — Sobre a correta integração entre capacidade humana e ferramentas tecnológicas na elaboração do julgamento moral.

[2] N.d.A. Saída significa resultado final e é um termo técnico-informático que se refere ao conjunto de dados que um computador emite durante o processo de produção, isso em contraste com a entrada, que são, em vez disso, os dados de entrada.

[3] Tomás de Aquino, PERGUNTA, eu, q.1, a.8, de Anúncios 2, dentro As Obras de São Tomás de Aquino, ed. Leonina.

.

A LIGAÇÃO PRÓXIMA ENTRE ÉTICA, INTELIGÊNCIA ARTIFICIAL E A TEOLOGIA DE SÃO TOMÁS DE AQUINO

A máquina aperfeiçoa apenas o que já encontra em ação no homem: pode refinar um pensamento verdadeiro, mas não pode gerar a verdade; pode limpar uma frase bem formada, mas não pode infundir o espírito que o gerou. E é precisamente aqui que se torna evidente o paralelo com o princípio tomista: A graça não destrói a natureza, mas aperfeiçoa (a graça não destrói a natureza, mas aperfeiçoa)”

— Teológica —

.

Este artigo para nosso Theologica página foi retirado do meu último livro Liberdade negada, publicado por nossa própria imprensa e disponível para compra aqui. Como me propus a abordar este tema relativo à Inteligência Artificial, minha mente voltou para uma das obras-primas proféticas do cinema moderno: 2001: Uma Odisseia no Espaço, dirigido por Stanley Kubrick e lançado em 1968. Nesse filme aparece HAL 9000, uma inteligência artificial extremamente avançada instalada a bordo da espaçonave Discovery. HAL é perfeito em cálculo, infalível no gerenciamento de dados, ainda desprovido do que torna o julgamento humano verdadeiramente humano: consciência. Quando a sua programação entra em conflito com os objetivos da missão, HAL não “enlouquece”: simplesmente aplica lógica sem filtragem moral, sem intencionalidade, e sem a capacidade de discernir o bem do mal. O resultado é assustador: uma máquina extremamente poderosa torna-se uma ameaça mortal precisamente porque não entende o homem nem o valor da vida. Esta intuição - cinematográfica, mas teologicamente lúcido - mostra que a inteligência artificial levanta questões que não são meramente técnicas, mas radicalmente moral. O que está em jogo não é o poder computacional — que ninguém contesta — mas o risco de o homem delegar a um sistema impessoal o que pertence exclusivamente à sua consciência. E é precisamente isso que acontece quando se permite que uma plataforma decida autonomamente o que é “bom” ou “mau”, o que pode ser dito e o que deve ser silenciado: entrega-se à máquina um ato que deveria ser moral. E este é apenas o primeiro passo na delegação moral à máquina.

Uma vez que o julgamento sobre a verdade e a falsidade tenha sido cedido à tecnologia, o próximo passo se torna quase inevitável: renunciando também ao bom senso educacional e à responsabilidade pessoal. Quando um pai confia inteiramente a um algoritmo a tarefa de filtrar o que uma criança pode ver, sem supervisão crítica, isso significa delegar a responsabilidade educacional a um sistema estatístico. Ou novamente, quando se pergunta à Inteligência Artificial se uma frase é “ofensiva” ou “moralmente aceitável”, isso significa transferir para a máquina uma tarefa que exige consciência, não cálculo.

O que foi descrito até agora não é uma coleção de detalhes técnicos, mas sim o ponto decisivo. Onde falta intenção, a máquina nunca poderá entender o que o homem está fazendo quando fala, adverte, educa, cura ou corrige. E como não pode acessar o “porquê”, reduz tudo ao “como”: não avalia o significado, analisa apenas a forma. É aqui que o mal-entendido se torna inevitável e o erro sistemático.. Isso é o que acontece, por exemplo, quando um padre repreende uma pessoa fiel ou um pai corrige um filho: a consciência humana distingue entre severidade e crueldade, entre correção e ofensa; o algoritmo apenas registra a dureza da frase e a sinaliza como “linguagem hostil”. Um médico que escreve “esse risco leva à morte” pode ver suas palavras classificadas como “conteúdo violento”, porque a máquina não distingue diagnóstico de ameaça. E mesmo um simples versículo bíblico pode ser censurado como “linguagem ofensiva”, porque a Inteligência Artificial não percebe o propósito moral, mas apenas a superfície das palavras. Por esta razão, qualquer uso de Inteligência Artificial que afete a fala, julgamento, relacionamento ou liberdade devem ser examinados à luz da teologia moral, não engenharia da computação.

A distinção é decisiva: a máquina não decide, ele seleciona; não avalia, ele filtra; não julga, classifica. E o que classifica nunca é bom ou mau, mas apenas o provável e o improvável, o frequente e o raro, aceitabilidade estatística e suspeita algorítmica. A consciência humana faz exatamente o oposto: leva a sério a singularidade do ato e a liberdade do agente; pesa intenções, circunstâncias e consequências; distingue entre repreensão que salva e ofensa que fere; entre a severidade nascida do amor e a crueldade nascida do desprezo. A máquina não vê nada disso.

Quando um pai repreende um filho, a consciência reconhece o amor que a sustenta; o algoritmo vê apenas uma frase “potencialmente hostil”. Quando um diretor espiritual adverte alguém que lhe foi confiado, a consciência percebe a misericórdia que acompanha a verdade; o algoritmo vê uma violação dos “padrões da comunidade”. Quando uma pessoa fala para corrigir, proteger ou educar, a consciência compreende o propósito; a máquina percebe apenas palavras duras. O resultado é paradoxal: onde o homem une justiça e misericórdia, a máquina não produz nada além de etiquetas.

A ambiguidade moral não surge da tecnologia: surge do homem que o projeta. Pois o algoritmo não é neutro: executa uma moralidade que não conhece, mas que outros decidiram por isso. E vemos isso todos os dias: se o conteúdo desafiar o politicamente correto, o algoritmo interpreta isso como “hostilidade”; se critica certos excessos da cultura acordada, rotula isso de “discriminação”; se abordar temas da antropologia cristã – por exemplo, a diferença sexual ou a família – criticando lobbies LGBT poderosos e politizados, sinaliza isso como “discurso de ódio” ou “incitamento à violência”. Tudo isso não porque a máquina “pensa” assim, mas porque foi programado para reagir desta forma. O algoritmo não nasce neutro: já é educado por quem o constrói, moldado por critérios ideológicos que confundem crítica com agressão, reflexão com ofensa, verdade com violência. Em outras palavras, o algoritmo tem mestres: reflete seus medos, amplifica suas convicções, censura o que eles temem. As plataformas não filtram de acordo com critérios objetivos, mas de acordo com ideologias dominantes: o que o mundo idolatra é promovido, o que o Evangelho recorda é suspeito; o que agrada é amplificado, o que adverte é silenciado. O resultado é uma nova forma de censura cultural: elegante, educado, esterilizado digitalmente - mas ainda com censura.

Essas análises surgem de reflexões, estudos e observações que venho desenvolvendo há muito ao nível antropológico-cultural e sobre o real funcionamento das plataformas digitais. É precisamente por esta razão que considero significativo observar como, em um nível diferente, mas complementar, a Dicastério para a Doutrina da Fé recordou recentemente um princípio decisivo, essencialmente movendo-se na mesma direção do pensamento, reafirmando que a Inteligência Artificial, embora possa “cooperar no crescimento do conhecimento”, não pode de forma alguma ser equiparada à inteligência humana, que possui uma profundidade e dinamismo que nenhum sistema de aprendizado de máquina pode replicar. Este documento sublinha que a Inteligência Artificial não compreende, mas processos; não julga, mas calcula; e é intrinsecamente incapaz de compreender a dimensão moral da ação, já que lhe falta consciência e interioridade (cf. aqui). Portanto, adverte claramente que o discernimento moral não pode ser atribuído a um dispositivo algorítmico: fazê-lo significaria abdicar da responsabilidade ética humana e entregar a verdade a um mecanismo estatístico. A ilusão de uma inteligência moral artificial é definida pelo documento como uma forma de idolatria tecnológica ingênua, porque a verdade não é fruto do cálculo, mas do encontro entre liberdade e graça[1].

Esta reflexão magistral confirma o ponto central: a consciência não pode ser programada. A máquina pode ajudar, mas não julgue; isso pode ajudar, mas não interpretar; pode filtrar, mas não discernir. O que pertence à liberdade humana — e, portanto, à relação do homem com Deus — não pode ser delegado a nenhuma tecnologia.

A ética da inteligência artificial revela assim a sua fragilidade: uma máquina pode ser programada para reconhecer palavras, mas não consegue entender a Palavra. Ele pode identificar comandos, não mandamentos. Ele pode catalogar comportamentos, não distinguir entre virtude e vício. Ele pode detectar correlações, não compreender a revelação divina. E acima de tudo: não pode conhecer a Deus. Uma cultura que se acostuma a substituir o julgamento da consciência pela triagem algorítmica acaba esquecendo que a liberdade é um ato espiritual, não é uma saída digital[2]. É aqui que a teologia moral se torna decisiva, pois lembra ao homem que a verdade é sempre pessoal; o bem é sempre intencional; a consciência é sempre irredutível; o julgamento moral não pode ser delegado a ninguém, muito menos ao software.

Isso não significa demonizar a tecnologia, mas restaurá-lo ao seu devido lugar: o de uma ferramenta, não é um juiz. A Inteligência Artificial pode certamente tornar o trabalho humano mais eficiente, mas não pode substituí-lo no ponto decisivo: julgamento moral, o único domínio em que não basta saber “como as coisas são”, mas é preciso decidir “por que fazê-los”. Este é o reino da consciência, onde o homem pesa intenções, assume a responsabilidade, e responde por suas ações diante de Deus. Aqui a máquina não entra, não consigo entrar: calcula, mas não escolhe; analisa, mas não responde; simula, mas não ama. Como um excelente cirurgião plástico, A Inteligência Artificial pode melhorar o que já é bonito, mas não pode tornar bonito o que não é; pode corrigir desproporções, suavizar certas marcas do tempo, mas não pode criar beleza do nada nem restaurar a juventude depois de desbotada. Pode realçar um rosto marcado, mas não pode inventar um novo. Do mesmo jeito, Inteligência Artificial pode ajudar a organizar dados, esclarecer um texto, ou ordene argumentos complexos; mas não pode dar inteligência a um sujeito limitado e medíocre, nem consciência para quem não tem.

A imagem - talvez um tanto nítida, mas eficaz - é a do cavalo puro-sangue e do pônei: a tecnologia pode treinar, cuidar e trazer à tona o que há de melhor no garanhão árabe, mas nunca transformará um pobre pônei em um puro-sangue. O que não está lá, nenhum algoritmo jamais criará. A máquina aperfeiçoa apenas o que já encontra em ação no homem: pode refinar um pensamento verdadeiro, mas não pode gerar a verdade; pode polir uma frase de sucesso, mas não consegue alcançar a consciência de onde surgiu essa frase.

A máquina aperfeiçoa apenas o que já encontra em ação no homem: pode refinar um pensamento verdadeiro, mas não pode gerar a verdade; pode limpar uma frase bem formada, mas não pode infundir o espírito que o gerou. E é precisamente aqui que se torna evidente o paralelo com o princípio tomista:

A graça não destrói a natureza, mas aperfeiçoa (a graça não destrói a natureza, mas aperfeiçoa)” [3].

Neste ponto torna-se inevitável voltar o olhar para o terreno mais delicado: se a máquina só pode aperfeiçoar o que encontra, então a verdadeira questão não diz respeito ao algoritmo, mas o homem que se entrega a isso. E é aqui que a analogia tomista mostra toda a sua força: assim como a graça não atua sobre o vazio, então a tecnologia não funciona na ausência de consciência. E quando o homem deixa de exercer a sua interioridade moral, não é a máquina que ganha poder: é o próprio homem quem perde estatura. A partir deste ponto surge o problema decisivo - não técnico, mas espiritual - que devemos agora confrontar. Se entendermos que a delegação moral à máquina não é um acidente técnico, mas um erro antropológico, a questão surgirá por consequência lógica: o que o homem perde quando abdica de sua consciência? Ele não perde apenas uma habilidade, mas uma dimensão espiritual, aquele em que o significado do bem e do mal é decidido. A tecnologia pode ser poderosa, sofisticado, extremamente rápido, mas não pode se tornar um sujeito moral.

Tradição cristã sempre ensinou que o exercício do bom senso é uma arte nascida da graça e da liberdade: um equilíbrio entre prudência, verdade e caridade. O algoritmo não conhece nenhum desses três. Não é prudente, porque não avalia; não é verdade, porque não sabe; não é caridade, porque não ama. Por esta razão, usar Inteligência Artificial como ferramenta é possível; usá-lo como critério é desumano. Pensar que ela pode criar no lugar de um homem incapaz de articular um pensamento ou de produzir uma obra intelectual é, pelo menos, ilusório. A tecnologia pode ajudar o homem, nunca o julgue; pode ajudar a fala, nunca substitua; pode servir a missão, nunca determine seus limites.

Uma civilização que delega à máquina o que pertence à consciência perde sua identidade espiritual: torna-se uma sociedade que sabe muito, mas entende pouco; que fala incessantemente, mas raramente ouve; que julga tudo, mas não se julga mais.

Moralidade católica nos lembra que o critério do bem não é o que o mundo aceita, mas o que Deus ensina. E Deus não fala com algoritmos: Ele fala aos corações. O Logos se tornou carne, não código; tornou-se homem, não programa; tornou-se relacionamento, não mecanismo. Por esta razão, nenhuma inteligência artificial, por mais avançado que seja, pode sempre se tornar o critério último do que é verdadeiro, apenas, bom e humano. Porque o bem não se calcula: é reconhecido.

Da Ilha de Patmos, 7 fevereiro 2026

.

NOTAS

[1] Cf. Dicastério para a Doutrina da Fé, Velho e novo. Nota sobre a relação entre inteligência artificial e inteligência humana (28 Janeiro 2025) — Sobre a correta integração entre capacidade humana e ferramentas tecnológicas na formação do julgamento moral.

[2] UM. Saída significa resultado final e é um termo técnico de computação que se refere ao conjunto de dados produzidos por um computador por meio de uma operação de processamento, em contraste com a entrada, quais são os dados recebidos.

[3] Tomás de Aquino, PERGUNTA, eu, q.1, a.8, de Anúncios 2, nas Obras de São Tomás de Aquino, Edição Leonina.

.

A LIGAÇÃO PRÓXIMA ENTRE ÉTICA, INTELIGÊNCIA ARTIFICIAL E A TEOLOGIA DE SÃO TOMÁS DE AQUINO

A máquina aperfeiçoa apenas o que já encontra em ação no homem.: pode aprimorar um pensamento verdadeiro, mas não gera a verdade; pode limpar uma frase bem sucedida, mas não incutir o espírito que o gerou. E é precisamente aqui que o paralelismo com o princípio tomista se torna evidente.: «A graça não destrói a natureza, mas aperfeiçoa (a graça não destrói a natureza, mas aperfeiçoa)».

- Teológico -

.

Este artigo para nossa página Theologica Foi retirado do meu último livro Liberdade negada (Liberdade negada) publicado por nossas edições e disponível para venda aqui.

Quando eu estiver pronto para discutir este tópico relacionado à Inteligência Artificial, uma das obras mais proféticas do cinema moderno me veio à mente: 2001: odisseia no espaço, dirigido por Stanley Kubrick e lançado em 1968. HAL aparece naquele filme 9000, uma inteligência artificial de altíssimo nível, instalado a bordo da espaçonave Discovery. HAL é perfeito em cálculo, infalível no gerenciamento de dados, mas falta aquilo que torna o julgamento verdadeiramente humano: a consciência. Quando sua programação entra em conflito com os objetivos da missão, HAL não “enlouquece”: simplesmente aplique a lógica sem o filtro moral, sem intencionalidade e sem capacidade de discernir o bem do mal. O resultado é chocante: uma máquina muito poderosa torna-se uma ameaça mortal precisamente porque não entende o homem nem o valor da vida. Esta intuição cinematográfica, mas teologicamente muito claro — mostra que a inteligência artificial levanta problemas que não são meramente técnicos, mas radicalmente moral. O que está em jogo não é o poder computacional – que ninguém contesta – mas o risco de o homem delegar a um sistema impessoal aquilo que pertence exclusivamente à sua consciência.. E é precisamente isso que acontece quando uma plataforma pode decidir autonomamente o que é “bom” ou “ruim”., o que pode ser dito e o que deve ser silenciado: um ato que deveria ser moral é entregue à máquina. E este é apenas o primeiro passo da delegação moral à máquina.

Uma vez entregue à tecnologia o julgamento sobre o que é verdadeiro e o que é falso, o próximo passo se torna quase inevitável: também renunciar ao bom senso educacional e à responsabilidade pessoal. Ocorre, Por exemplo, quando um pai confia completamente a um algoritmo a tarefa de filtrar o que uma criança pode ver, sem supervisão crítica: significa delegar a responsabilidade educacional a um sistema estatístico. Ou quando se pergunta à Inteligência Artificial se uma frase é “ofensiva” ou “moralmente aceitável”: significa transferir uma tarefa que requer consciência para a máquina, não cálculo.

O que foi explicado até agora não constitui um conjunto de detalhes técnicos, mas o ponto decisivo. Se a intenção estiver faltando, a máquina nunca consegue entender o que o homem está fazendo quando fala, repreensões, educar, cura o corrige. E como você não pode acessar o “porquê”, reduza tudo ao “como”: não avalia o significado, analise apenas a forma. É aqui que o mal-entendido se torna inevitável e o erro sistemático. É o que acontece, Por exemplo, quando um padre repreende um crente ou um pai corrige um filho: a consciência humana distingue entre severidade e crueldade, entre correção e ofensa; O algoritmo apenas registra a aspereza da frase e a marca como “linguagem hostil”.. O médico que escreve “esse risco leva à morte” pode ver suas palavras classificadas como “conteúdo violento”, porque a máquina não distingue um diagnóstico de uma ameaça. Até mesmo um simples versículo bíblico pode ser censurado como “linguagem ofensiva”., porque a Inteligência Artificial não percebe o propósito moral, mas apenas a superfície da palavra. Por esta razão, qualquer uso de Inteligência Artificial que afete a palavra, para o julgamento, ao relacionamento ou à liberdade deve ser examinado à luz da teologia moral, não engenharia da computação.

A distinção é decisiva: a máquina não decide, selecione; não avalia, filtro; não julga, classificar. E o que classifica nunca é bom ou mau, mas apenas o provável e o improvável, o frequente e o raro, o que é estatisticamente aceitável e o que é algoritmicamente suspeito. A consciência humana faz exatamente o oposto.: leva a sério a singularidade do ato e a liberdade do agente; ponderar intenções, circunstâncias e consequências; distingue entre a repreensão que salva e a ofensa que fere; entre a severidade por amor e a crueldade por desprezo. A máquina não vê nada disso..

Quando um pai repreende um filho, a consciência reconhece o amor que a sustenta; o algoritmo vê apenas uma frase “potencialmente hostil”. Quando um diretor espiritual adverte aqueles que estão sob sua responsabilidade, a consciência percebe a misericórdia que acompanha a verdade; o algoritmo vê uma violação dos “padrões da comunidade”. Quando uma pessoa fala para corrigir, proteger o educar, a consciência compreende o propósito; a máquina só percebe a palavra difícil. O resultado é paradoxal: onde o homem une justiça e misericórdia, a máquina produz apenas etiquetas.

A ambiguidade moral não nasce da tecnologia: nasceu do homem que o projetou. Porque o algoritmo não é neutro: executa uma moralidade que ele não conhece, mas que outros decidiram por ele. E vemos isso todos os dias: se o conteúdo questionar o politicamente correto, o algoritmo interpreta isso como “hostilidade”; Se você critica certas tendências culturais acordou, rotula isso de “discriminação”; se aborda questões da antropologia cristã – por exemplo, a diferença sexual ou a família – criticando os poderosos e politizados lobbies LGBT, Ele descreve isso como “incitação ao ódio” ou “incitação à violência”, a chamada c. Tudo isso não acontece porque a máquina “pensa” assim., mas porque foi programado para reagir dessa forma. O algoritmo não nasce neutro: Já nasce educado por quem o constrói, moldado por critérios ideológicos que confundem crítica com agressão, reflexão com ofensa, a verdade com violência. Em outras palavras, o algoritmo tem mestres: reflete seus medos, amplifica suas convicções, censurar o que eles temem. As plataformas não filtram segundo critérios objetivos, mas de acordo com as ideologias dominantes: o que o mundo idolatra é promovido, o que o Evangelho lembra é suspeito; o que agrada é amplificado, o que adverte é silenciado. O resultado é uma nova forma de censura cultural: Elegante, educada, esterilizado digitalmente - mas sempre censurado.

Estas minhas reflexões nascem de estudos, análises e observações que venho investigando há algum tempo no plano antropológico-cultural e no real funcionamento das plataformas digitais. Precisamente por esta razão considero significativo salientar como, em um nível diferente, mas complementar, O Dicastério para a Doutrina da Fé recordou recentemente um princípio decisivo, indo substancialmente na mesma direção do pensamento, reafirmando que a Inteligência Artificial, podendo inclusive “cooperar no crescimento do conhecimento”, não pode ser comparado de forma alguma à inteligência humana, que tem uma profundidade e dinâmica que nenhum sistema de aprendizado de máquina pode replicar. Este documento destaca que a Inteligência Artificial não inclui, mas processos; não julga, mas calcula; e é intrinsecamente incapaz de compreender a dimensão moral da ação, falta de consciência e interioridade (cf.. aqui). Avisar, portanto, claramente que o discernimento moral não pode ser atribuído a um dispositivo algorítmico: Fazer isso significaria abdicar da responsabilidade ética do homem e entregar a verdade a um mecanismo estatístico.. A ilusão de uma inteligência moral artificial é definida pelo documento como uma forma de idolatria tecnológica ingênua, porque a verdade não é resultado de cálculo, mas do encontro entre liberdade e graça[1].

Esta reflexão magistral confirma o ponto central: a consciência não está programada. A máquina pode ajudar, mas não julgue; pode ajudar, mas não interpretar; pode filtrar, mas não discernir. Aquilo que pertence à liberdade do homem – e, portanto, ao seu relacionamento com Deus - não pode ser delegado a nenhuma tecnologia.

A ética da inteligência artificial revelando assim a sua fragilidade: uma máquina pode ser programada para reconhecer palavras, mas não consigo entender a Palavra. Pode identificar pedidos, não mandamentos. Pode censor comportamentos, não distinguir entre virtude e vício. Pode detectar correlações, não aceitar a revelação divina. S, sobretudo: não posso conhecer a Deus. Uma cultura que se acostuma a substituir o julgamento da consciência pela triagem de um algoritmo acaba esquecendo que a liberdade é um ato espiritual, não é um saída digital[2]. É aqui que a teologia moral se torna decisiva., porque se lembra do homem que: a verdade é sempre pessoal; o bem é sempre intencional; a consciência é sempre irredutível; o julgamento moral não pode ser delegado a ninguém, e menos ainda para um software.

Isso não significa demonizar a tecnologia, mas devolva-o ao seu devido lugar: o de instrumento, não o de juiz. A Inteligência Artificial certamente pode tornar o trabalho humano mais ágil, mas não pode substituí-lo no ponto decisivo: o julgamento moral, a única área em que não basta saber “como são as coisas”, mas é preciso decidir “por que fazê-los”. É o lugar da consciência, onde o homem pondera intenções, assume responsabilidades e é responsável por suas ações diante de Deus. A máquina não cabe aqui, não consigo entrar: calcular, mas não escolha; análise, mas ele não responde; começo, mas ele não ama. Como um excelente cirurgião plástico, A Inteligência Artificial pode realçar o que já é bonito, mas você não pode tornar bonito o que não é bonito; pode corrigir desproporções, pode atenuar certos sinais do tempo, mas não pode criar do nada uma beleza que não existe nem restaurar a juventude que já murchou.. Pode realçar um rosto marcado, mas não posso inventar um novo rosto. Da mesma forma, Inteligência Artificial pode ajudar a organizar dados, esclarecer um texto, classificar argumentos complexos; mas não pode dar inteligência a um sujeito limitado e medíocre, nem consciência para aqueles que não têm.

A imagem, talvez um pouco grosseiro, mas eficaz, É o do cavalo de corrida e do pônei: a tecnologia pode treinar, cuidar e fazer com que o garanhão árabe tenha o máximo desempenho, mas nunca transformará um pobre pônei em um puro-sangue. O que não existe, nenhum algoritmo pode criá-lo. A máquina aperfeiçoa apenas o que já encontra em ação no homem.: pode aprimorar um pensamento verdadeiro, mas não gera a verdade; pode polir uma frase bem-sucedida, mas não alcançando a consciência da qual essa frase surgiu.

A máquina aperfeiçoa apenas o que já encontra em ação no homem: pode aprimorar um pensamento verdadeiro, mas não gera a verdade; pode limpar uma frase bem sucedida, mas não incutir o espírito que o gerou. E é precisamente aqui que o paralelismo com o princípio tomista se torna evidente.:

«A graça não destrói a natureza, mas aperfeiçoa (a graça não destrói a natureza, mas aperfeiçoa)»[3].

Neste ponto, torna-se inevitável olhar para o terreno mais delicado: se a máquina só pode aperfeiçoar o que encontra, então o verdadeiro problema não diz respeito ao algoritmo, mas para o homem que se entrega a ele. E é aqui que a analogia tomista mostra toda a sua força.: assim como a graça não atua sobre o vazio, Da mesma forma, a tecnologia não funciona na ausência de consciência.. E quando o homem deixa de exercer a sua interioridade moral, Não é a máquina que ganha poder: É o próprio homem que perde altura. A partir daqui surge o problema decisivo – não técnico., mas espiritual - que devemos agora enfrentar. Se entendermos que a delegação moral à máquina não é um acidente técnico, mas um erro antropológico, A questão surgirá por consequência lógica: O que um homem perde quando abdica da sua consciência?? Você não perde apenas uma habilidade, mas uma dimensão espiritual, aquele em que o significado do bem e do mal é decidido. A tecnologia pode ser poderosa, sofisticada, muito rápido, mas não pode se tornar um sujeito moral.

A tradição cristã sempre ensinou que o exercício do bom senso é uma arte nascida da graça e da liberdade: um equilíbrio entre prudência, verdade e caridade. O algoritmo não conhece nenhum desses três. Não é sábio, porque não avalia; não é verdade, porque você não sabe; Não é caridade, porque ele não ama. Por esta razão, usar Inteligência Artificial como instrumento é possível; usá-lo como critério é desumano. Pensar que posso criar em vez de um homem incapaz de articular um pensamento ou de produzir uma obra intelectual é, pelo menos, ilusório. A tecnologia pode ajudar o homem, nunca o julgue; pode ajudar a palavra, nunca substitua; pode servir a missão, nunca determine seus limites.

Uma civilização que delega à máquina aquilo que pertence à consciência perde sua identidade espiritual: torna-se uma sociedade que sabe muito, mas entende pouco; que fala continuamente, mas raramente ouve; quem julga tudo, mas ela não se julga mais.

Moralidade católica nos lembra que o critério do bem não é o que o mundo aceita, mas o que Deus ensina. E Deus não fala com algoritmos: fala aos corações. O Logos se tornou carne, não código; ele se tornou um homem, não programa; relacionamento foi feito, não mecanismo. É por isso que não há inteligência artificial, não importa quão avançado seja, nunca pode se tornar o critério último do que é verdadeiro, justo, bom e humano. Porque o bem não se calcula: é reconhecido.

Da Ilha de Patmos, 7 Fevereiro 2026

.

NOTAS

[1] Ver. Dicastério para a Doutrina da Fé, Velho e novo. Nota sobre a relação entre inteligência artificial e inteligência humana (28 Janeiro 2025). —Sobre a correta integração entre capacidade humana e instrumentos tecnológicos na elaboração do julgamento moral.

[2] N. de A. Saída significa resultado final e é um termo técnico-informático que se refere ao conjunto de dados que um computador emite através de um processo de produção., em oposição à entrada, quais são os dados de entrada.

[3] Tomás de Aquino, PERGUNTA, eu, q. 1, uma. 8, de Anúncios 2, en Sancti Thomas de Aquinas Opera Omnia, edición Leonina.

.

A ESTREITA LIGAÇÃO ENTRE ÉTICA, INTELIGÊNCIA ARTIFICIAL E A TEOLOGIA DE SÃO TOMÁS DE AQUINO

A máquina só aperfeiçoa isso, o que já encontra em humanos: Pode refinar um pensamento verdadeiro, mas não produza nenhuma verdade; ela pode limpar uma frase bem sucedida, mas não respire o espírito, quem o produziu. E é precisamente aqui que o paralelo com o princípio tomiano se torna evidente: A graça não destrói a natureza, mas aperfeiçoa (a graça não destrói a natureza, mas completa)“

— Teológica —

.

.

Esta postagem para nossa categoria Theologica é meu último livro Liberdade negada (Liberdade negada), que foi publicado pela nossa editora e disponível aqui é.

Quando eu decidi fazer isso, para abordar este tópico em conexão com inteligência artificial, Uma das obras-primas mais proféticas do cinema moderno veio à mente: 2001: Uma odisséia no espaço, dirigido por Stanley Kubrick e 1968 publicado. HAL aparece neste filme 9000, uma inteligência artificial altamente desenvolvida, que está instalado a bordo da nave Discovery. HAL é perfeito em aritmética, infalível no processamento de dados, mas ela sente falta disso, o que constitui julgamento humano: a consciência. Quando a sua programação entra em conflito com os objetivos da missão, HAL não “enlouquece”: simplesmente aplica lógica sem filtro moral, sem intencionalidade e sem capacidade, distinguir entre o bem e o mal. O resultado é chocante: É precisamente por isso que uma máquina extremamente poderosa se torna uma ameaça mortal, porque ela não entende as pessoas e o valor da vida. Este – cinematográfico, mas teologicamente extremamente claro - a intuição mostra, que a inteligência artificial apresenta problemas, que não são apenas de natureza técnica, mas radicalmente moral. Não é o poder computacional que está em questão - ninguém contesta isso -, mas o perigo, esse homem parte para um sistema impessoal, que é da exclusiva responsabilidade da sua consciência. Isso é exatamente o que está acontecendo, se você permitir uma plataforma, decidir autonomamente, o que é “bom” ou “mal”., o que pode ser dito e o que deve ser mantido em silêncio: Você transfere um ato para a máquina, o que teria que ser moral. E este é apenas o primeiro passo da delegação moral à máquina.

Assim que resta a tecnologia para decidir o que é verdadeiro e falso, o próximo passo se torna quase inevitável: também renunciar ao bom senso educacional e à responsabilidade pessoal. Isso acontece então, quando um pai delega completamente a tarefa a um algoritmo, filtrar, o que uma criança pode ver, sem supervisão crítica: Isso significa, delegar a responsabilidade educacional a um sistema estatístico. Ou se você perguntar à inteligência artificial, se uma sentença é “ofensiva” ou “moralmente aceitável”.: Então você dá uma tarefa à máquina, que exige consciência, não cálculo.

O que foi apresentado aqui, não é um conjunto de detalhes técnicos, mas o ponto crucial. A intenção está faltando, a máquina nunca pode entender, o que o homem faz, quando ele fala, advertido, educa, cura ou corrige. E porque ela não tem acesso ao “porquê”., ela reduz tudo ao “como”: Não avalia o significado, mas analisa apenas a forma. É aqui que o mal-entendido se torna inevitável e o erro sistemático se instala.. Algo assim, quando um padre repreende um crente ou um pai corrige seu filho: A consciência humana distingue entre severidade e crueldade, entre correção e insulto; o algoritmo simplesmente registra a dureza da frase e a marca como “linguagem hostil”. O médico, quem escreve: “Esse risco leva à morte”, kann seine Worte als „gewalttätigen Inhalt“ klassifiziert sehen, weil die Maschine eine Diagnose nicht von einer Drohung unterscheiden kann. Selbst ein einfacher Bibelvers kann als „beleidigende Sprache“ zensiert werden, da die Künstliche Intelligenz nicht die moralische Zielrichtung wahrnimmt, sondern nur die Oberfläche des Wortes. Deshalb muss jeder Einsatz von Künstlicher Intelligenz, der Sprache, Urteil, Beziehung oder Freiheit berührt, im Licht der Moraltheologie geprüft werden, nicht im Rahmen der Informatik.

Die Unterscheidung ist entscheidend: Die Maschine entscheidet nicht, sie selektiert; sie bewertet nicht, sie filtert; sie urteilt nicht, sie klassifiziert. Und was sie klassifiziert, ist niemals Gut oder Böse, sondern lediglich Wahrscheinliches und Unwahrscheinliches, Häufiges und Seltenes, statistisch Akzeptables und algorithmisch Verdächtiges. Das menschliche Gewissen tut das genaue Gegenteil: Es nimmt die Einzigartigkeit der Handlung und die Freiheit des Handelnden ernst; es wägt Intentionen, Umstände und Folgen ab; es unterscheidet zwischen der Zurechtweisung, die rettet, und der Beleidigung, die verletzt; zwischen Strenge aus Liebe und Grausamkeit aus Verachtung. All dies sieht die Maschine nicht.

Wenn ein Vater sein Kind zurechtweist, erkennt das Gewissen die Liebe, die ihn trägt; der Algorithmus sieht nur einen „potenziell feindseligen“ Satz. Wenn ein geistlicher Begleiter seinen Anvertrauten ermahnt, erkennt das Gewissen die Barmherzigkeit, die die Wahrheit begleitet; der Algorithmus sieht eine Verletzung der „Community-Standards“. Wenn jemand spricht, um zu korrigieren, zu schützen oder zu erziehen, erfasst das Gewissen die Zielsetzung; die Maschine erfasst lediglich das harte Wort. Das Ergebnis ist paradox: Dort, wo der Mensch Gerechtigkeit und Barmherzigkeit vereint, produziert die Maschine lediglich Etiketten.

Die moralische Ambiguität entspringt nicht der Technologie, sondern dem Menschen, der sie entwirft. Denn der Algorithmus ist nicht neutral: Er führt eine Moral aus, die er nicht kennt, die andere jedoch für ihn festgelegt haben. Das zeigt sich täglich: Stellt ein Inhalt das politically correct infrage, interpretiert der Algorithmus dies als „Feindseligkeit“; kritisiert er bestimmte Auswüchse der woke-Kultur, etikettiert er ihn als „Diskriminierung“; behandelt er Themen christlicher Anthropologie – etwa die Geschlechterdifferenz oder die Familie – und übt Kritik an mächtigen, politisierten LGBT-Lobbys, wird er als „Hassrede“ oder „Gewaltverherrlichung“ markiert. All dies nicht, weil die Maschine so „denkt“, sondern weil sie so programmiert wurde. Der Algorithmus wird nicht neutral geboren: Er ist von Anfang an erzogen durch seine Entwickler, geformt durch ideologische Kriterien, die Kritik mit Aggression, Reflexion mit Beleidigung und Wahrheit mit Gewalt verwechseln. Anders gesagt: Der Algorithmus hat Herren. Er spiegelt ihre Ängste wider, verstärkt ihre Überzeugungen, zensiert, was sie fürchten. Plattformen filtern nicht nach objektiven Kriterien, sondern nach herrschenden Ideologien: Was die Welt vergöttert, wird gefördert; was das Evangelium in Erinnerung ruft, wird verdächtigt; was gefällt, wird verstärkt; was ermahnt, wird zum Schweigen gebracht. Das Ergebnis ist eine neue Form kultureller Zensur: elegante, höflich, digital sterilisiert – aber dennoch Zensur.

Diese Überlegungen entspringen Studien, Reflexionen und Beobachtungen, die ich seit geraumer Zeit auf anthropologisch-kultureller Ebene sowie hinsichtlich des realen Funktionierens digitaler Plattformen vertiefe. Gerade deshalb halte ich es für bedeutsam festzustellen, dass auf einer anderen, aber komplementären Ebene das Dikasterium für die Glaubenslehre kürzlich ein entscheidendes Prinzip in Erinnerung gerufen hat und im Wesentlichen in dieselbe Denkrichtung geht: Es bekräftigt, dass die Künstliche Intelligenz zwar „zum Wachstum des Wissens beitragen“ könne, jedoch in keiner Weise der menschlichen Intelligenz gleichgestellt werden dürfe, die eine Tiefe und Dynamik besitzt, welche kein maschinelles Lernsystem nachbilden kann. Das Dokument unterstreicht, dass die Künstliche Intelligenz nicht versteht, sondern verarbeitet; nicht urteilt, sondern berechnet; und aufgrund des Mangels an Gewissen und Innerlichkeit grundsätzlich unfähig ist, die moralische Dimension des Handelns zu erfassen (cf.. hier). Es warnt daher klar davor, einem algorithmischen System moralische Unterscheidung zuzuschreiben: Dies würde bedeuten, der ethischen Verantwortung des Menschen zu entsagen und die Wahrheit einem statistischen Mechanismus zu überlassen. Die Illusion einer künstlichen moralischen Intelligenz wird als Form naiver technologischer Götzenverehrung bezeichnet, da Wahrheit nicht aus Berechnung entsteht, sondern aus der Begegnung von Freiheit und Gnade[1].

Diese lehramtliche Reflexion bestätigt den zentralen Punkt: Das Gewissen lässt sich nicht programmieren. Die Maschine kann unterstützen, aber nicht urteilen; helfen, aber nicht interpretieren; filtern, aber nicht unterscheiden. Was zur Freiheit des Menschen gehört – und damit zu seiner Beziehung zu Gott –, kann keiner Technologie übertragen werden.

Die Ethik der Künstlichen Intelligenz offenbart so ihre Fragilität: Eine Maschine kann programmiert werden, Wörter zu erkennen, aber sie kann das Wort nicht verstehen. Sie kann Befehle identifizieren, nicht Gebote. Sie kann Verhaltensweisen erfassen, nicht zwischen Tugend und Laster unterscheiden. Sie kann Korrelationen erkennen, nicht die göttliche Offenbarung erfassen. Und vor allem: Sie kann Gott nicht erkennen. Eine Kultur, die sich daran gewöhnt, das Urteil des Gewissens durch die Prüfung eines Algorithmus zu ersetzen, vergisst schließlich, dass Freiheit ein geistiger Akt ist, kein digitaler Saída[2]. Hier wird die Moraltheologie entscheidend, denn sie erinnert den Menschen daran: Wahrheit ist immer personal; das Gute ist immer intentional; das Gewissen ist immer irreduzibel; moralisches Urteil kann an niemanden delegiert werden – am allerwenigsten an eine Programas.

Dies bedeutet nicht, die Technologie zu verteufeln, sondern sie an ihren rechten Platz zu verweisen: den des Werkzeugs, nicht des Richters. Die Künstliche Intelligenz kann menschliche Arbeit durchaus effizienter machen, sie kann sie aber nicht an der entscheidenden Stelle ersetzen: beim moralischen Urteil, dem einzigen Bereich, in dem es nicht genügt zu wissen, „wie die Dinge stehen“, sondern in dem entschieden werden muss, „warum man sie tut“. Es ist der Ort des Gewissens, an dem der Mensch Intentionen abwägt, Verantwortung übernimmt und für sein Handeln vor Gott einsteht. Hier hat die Maschine keinen Zutritt, sie kann keinen haben: Sie berechnet, aber wählt nicht; analysiert, aber antwortet nicht; simuliert, aber liebt nicht. Wie ein hervorragender plastischer Chirurg kann die Künstliche Intelligenz das bereits Schöne hervorheben, aber sie kann nicht schön machen, was es nicht ist; sie kann Proportionen korrigieren, Alterszeichen mildern, aber weder Schönheit aus dem Nichts schaffen noch verlorene Jugend zurückgeben. Sie kann ein gezeichnetes Gesicht aufwerten, aber kein neues Gesicht erfinden. Ebenso kann die Künstliche Intelligenz helfen, Daten zu ordnen, Texte zu klären, komplexe Argumente zu strukturieren; sie kann jedoch weder einem begrenzten und mittelmäßigen Subjekt Intelligenz verleihen noch einem Menschen ohne Gewissen ein solches geben.

Das Bild – vielleicht etwas drastisch, aber wirkungsvoll – ist das des edlen Vollbluts und des Ponys: Technologie kann den arabischen Hengst trainieren, pflegen und zu Höchstleistungen führen, aber sie wird niemals ein armes Pony in ein Rennpferd verwandeln. Was nicht vorhanden ist, kann kein Algorithmus jemals erschaffen. A máquina só aperfeiçoa isso, o que já encontra em humanos: Sie kann einen wahren Gedanken schärfen, aber keine Wahrheit erzeugen; sie kann einen gelungenen Satz polieren, aber nicht das Gewissen erreichen, aus dem dieser Satz hervorgegangen ist.

A máquina só aperfeiçoa isso, o que já encontra em humanos: Pode refinar um pensamento verdadeiro, mas não produza nenhuma verdade; ela pode limpar uma frase bem sucedida, mas não respire o espírito, quem o produziu. E é precisamente aqui que o paralelo com o princípio tomiano se torna evidente:

„Gratia non tollit naturam, mas aperfeiçoa (a graça não destrói a natureza, mas completa)“[3].

An diesem Punkt wird es unvermeidlich, den Blick auf das heikelste Terrain zu richten: Wenn die Maschine nur das perfektionieren kann, was sie vorfindet, dann betrifft die eigentliche Frage nicht den Algorithmus, sondern den Menschen, der sich ihm überlässt. Hier entfaltet die thomanische Analogie ihre volle Kraft: So wie die Gnade nicht auf das Leere wirkt, so arbeitet auch die Technologie nicht bei Abwesenheit von Gewissen. Und wenn der Mensch aufhört, seine moralische Innerlichkeit zu üben, gewinnt nicht die Maschine an Macht – der Mensch verliert an Größe. Von hier aus entsteht das entscheidende Problem – nicht technischer, sondern geistlicher Natur –, dem wir uns nun stellen müssen. Wenn wir begreifen, dass die moralische Delegation an die Maschine kein technischer Unfall, sondern ein anthropologischer Irrtum ist, ergibt sich zwangsläufig die Frage: Was verliert der Mensch, wenn er seinem Gewissen entsagt? Er verliert nicht bloß eine Fähigkeit, sondern eine geistige Dimension, aqueles, in der über Sinn von Gut und Böse entschieden wird. Die Technologie mag mächtig, ausgefeilt und rasend schnell sein, sie kann jedoch niemals moralisches Subjekt werden.

Die christliche Tradition hat stets gelehrt, dass die Ausübung des gesunden Urteils eine Kunst ist, die aus Gnade und Freiheit hervorgeht: ein Gleichgewicht von Klugheit, Wahrheit und Liebe. Der Algorithmus kennt keine dieser drei. Er ist nicht klug, weil er nicht abwägt; nicht wahr, weil er nicht erkennt; nicht liebend, weil er nicht liebt. Deshalb ist es möglich, die Künstliche Intelligenz als Werkzeug zu verwenden; sie als Kriterium zu benutzen ist unmenschlich. Zu glauben, sie könne anstelle eines Menschen schaffen, der unfähig ist, einen Gedanken zu artikulieren oder eine geistige Arbeit hervorzubringen, ist mindestens illusorisch. Technologie kann den Menschen unterstützen, niemals ihn richten; sie kann dem Wort dienen, niemals es ersetzen; sie kann der Mission helfen, niemals deren Grenzen bestimmen.

Eine Zivilisation, die der Maschine überlässt, was dem Gewissen gehört, verliert ihre geistige Identität: Sie wird zu einer Gesellschaft, die viel weiß, aber wenig versteht; die unaufhörlich spricht, aber selten zuhört; die alles beurteilt, aber sich selbst nicht mehr beurteilt.

Die katholische Moral erinnert uns daran, dass das Kriterium des Guten nicht das ist, was die Welt akzeptiert, sondern das, was Gott lehrt. Und Gott spricht nicht zu Algorithmen: Er spricht zu Herzen. Der Logos ist Fleisch geworden, nicht Code; er ist Mensch geworden, nicht Programm; er ist Beziehung geworden, nicht Mechanismus. Deshalb kann keine Künstliche Intelligenz, so fortgeschritten sie auch sei, jemals zum letzten Maßstab dessen werden, was wahr, gerecht, gut und menschlich ist. Denn das Gute wird nicht berechnet: Es wird erkannt.

Da ilha de Patmos, 7. Februar 2026

.

ANMERKUNGEN

[1] Vgl. Dikasterium für die Glaubenslehre, Velho e novo. Note über das Verhältnis zwischen künstlicher Intelligenz und menschlicher Intelligenz (28. Janeiro 2025). — Zur richtigen Integration menschlicher Fähigkeiten und technologischer Instrumente bei der moralischen Urteilsbildung.

[2] Anm. d. UMA.: Output bezeichnet das Endergebnis und ist ein technischer Begriff der Informatik, der sich auf die Gesamtheit der Daten bezieht, die ein Computer im Rahmen eines Verarbeitungsprozesses ausgibt, im Gegensatz zum Input, also den Eingabedaten.

[3] Thomas von Aquin, PERGUNTA, eu, q. 1, uma. 8, de Anúncios 2, nas Obras de São Tomás de Aquino, Leoninische Ausgabe.

 

 

______________________

Queridos leitores, esta revista exige custos de gestão que sempre enfrentamos apenas com suas ofertas gratuitas. Aqueles que desejam apoiar nosso trabalho apostólico podem nos enviar sua contribuição pela maneira conveniente e segura PayPal clicando abaixo:

Ou se preferir, você pode usar o nosso conta bancária em nome do:

Edições A ilha de Patmos

Agência n. 59 De Roma – Vaticano

IBAN: IT74R0503403259000000301118

Para transferências bancárias internacionais:

Código SWIFT: BAPPIT21D21

Se você fizer uma transferência bancária, envie um e-mail para a redação,

o banco não fornece seu e-mail e não poderemos enviar uma mensagem de agradecimento: isoladipatmos@gmail.com

Agradecemos o apoio que deseja oferecer ao nosso serviço apostólico.

Os Padres da Ilha de Patmos