El estrecho vínculo entre la ética, Inteligencia artificial y teología del San Tomso de Aquino. – El estrecho vínculo entre la ética, La Inteligencia Artificial y la teología de Santo Tomás de Aquino – El estrecho vínculo entre ética, inteligencia artificial y la teología de Santo Tomás de Aquino – La estrecha conexión entre la ética, La inteligencia artificial y la teología de Santo Tomás de Aquino.
italiano, inglés, español, holandés
EL ESTRECHO VÍNCULO ENTRE LA ÉTICA, INELLIGINS Y Y TOMOGE A ESTE A ESTE DEL AQUINO
La máquina sólo perfecciona lo que ya encuentra en el hombre.: puede refinar un pensamiento verdadero, pero no generes verdad; puede limpiar una oración exitosa, pero no infundas el espíritu que lo generó. Y es precisamente aquí donde se hace evidente el paralelo con el principio tomista.: «GRAMOla razón no quita la naturaleza, pero terminat (la gracia no destruye la naturaleza, pero el lo perfecciona)»
- Theologica -
.
.
![]()
.
Este artículo para nuestra página. Theologica Está basado en mi último libro. Libertad negada, publicado por nuestras ediciones y a la venta Quién.

Me estoy preparando para abordar este tema. Vinculada a la Inteligencia Artificial, me vino a la mente una de las obras maestras proféticas del cine moderno.: 2001: Odisea del espacio, dirigida por Stanley Kubrick y estrenada en 1968. HAL aparece en esa película. 9000, una inteligencia artificial de muy alto nivel, instalado a bordo de la nave espacial Descubrimiento. HAL es perfecto en el cálculo, infalible en la gestión de datos, pero desprovisto de lo que hace humano al juicio: conciencia. Cuando su programación entra en conflicto con los objetivos de la misión., HAL no "se vuelve loco": simplemente aplica la lógica sin el filtro moral, sin intencionalidad y sin capacidad de discernir el bien del mal. El resultado es aterrador: Una máquina muy poderosa se convierte en una amenaza mortal precisamente porque no comprende al hombre ni el valor de la vida.. Esta intuición -cinemática pero teológicamente lúcida- muestra que la inteligencia artificial plantea problemas que no son meramente técnicos, pero radicalmente moral. Lo que está en juego no es la potencia de cálculo -lo cual nadie discute- sino el riesgo de que el hombre delega en un sistema impersonal lo que pertenece exclusivamente a su conciencia.. Y eso es exactamente lo que sucede cuando dejas que una plataforma decida por sí misma qué es "bueno" o "malo"., qué se puede decir o qué se debe callar: un acto que debería ser moral se entrega a la máquina. Y este es sólo el primer paso de la delegación moral a la máquina..
Una vez entregado el juicio sobre la verdad y la falsedad a la tecnología, el siguiente paso se vuelve casi inevitable: También renunciar al sentido común educativo y a la responsabilidad personal.. O cuando un padre confía por completo la tarea de filtrar lo que un niño puede ver al algoritmo, sin vigilancia crítica: significa delegar la responsabilidad educativa a un sistema estadístico. O incluso cuando le preguntas a la Inteligencia Artificial si una frase es “ofensiva” o “moralmente aceptable”: significa transferir una tarea que requiere conciencia a la máquina, no calculo.
Lo que se ha ilustrado hasta ahora no es un conjunto de detalles técnicos. son más bien el punto decisivo. Si falta la intención, la máquina nunca podrá entender qué lo que hace el hombre cuando habla, advierte, educar, tratamiento, corrige. Y como no puede acceder al “por qué”, reduce todo al "cómo": no evalúa el significado, solo analiza la forma. Aquí es donde el malentendido se vuelve inevitable y el error sistemático.. esto es lo que pasa, por ejemplo, cuando un sacerdote amonesta a un creyente o un padre corrige a un hijo: La conciencia humana distingue entre severidad y crueldad., entre la corrección y la ofensa; el algoritmo sólo registra la dureza de la frase y la marca como "lenguaje hostil". El médico que escribe «este riesgo lleva a la muerte» puede ver sus palabras clasificadas como “contenido violento”, porque la máquina no distingue un diagnóstico de una amenaza. Y un simple versículo de la Biblia puede ser censurado como “lenguaje ofensivo” porque la Inteligencia Artificial no percibe propósito moral, pero sólo la superficie de la palabra. Por esto, cualquier uso de la Inteligencia Artificial que afecte al habla, el juicio, la relación o libertad debe ser examinada a la luz de la teología moral, no ingeniería informática.
La distinción es crucial: la maquina no decide, seleccionar; no evalúa, filtrar; no juzga, clasificación. Y lo que clasifica nunca es bueno o malo, pero sólo lo probable y lo improbable, lo frecuente y lo raro, Lo aceptable estadístico y la sospecha algorítmica.. La conciencia humana hace exactamente lo contrario.: toma en serio la unicidad del acto y la libertad del agente; pesa intenciones, circunstancias, consecuencias; distingue entre el reproche que salva y la ofensa que hiere; entre la severidad por amor y la crueldad por desprecio. La máquina no ve nada de esto..
Cuando un padre llama a su hijo, la conciencia reconoce el amor que la sostiene; el algoritmo sólo ve una frase "potencialmente hostil". Cuando un director espiritual amonesta a uno de sus subordinados directos, La conciencia ve la misericordia que acompaña a la verdad.; el algoritmo ve una violación de los "estándares comunitarios". Cuando una persona habla para corregir., proteger o educar, la conciencia percibe la finalidad, la máquina sólo percibe la palabra dura. El resultado es paradójico: donde el hombre combina justicia y misericordia, la máquina solo produce etiquetas.
La ambigüedad moral no surge de la tecnología: viene del hombre que lo diseña. Porque el algoritmo no es neutral: lleva a cabo una moraleja que no conoce, pero que otros han decidido por el. Y vemos esto todos los días.: si un contenido pone en duda la políticamente correcto, el algoritmo lo interpreta como “hostilidad”; si critica algunas derivas de la cultura desperté, lo califica de “discriminación”; si aborda temas de la antropología cristiana - por ejemplo la diferencia sexual o la familia - dirigiendo críticas a los poderosos y politizados lobby LGBT, lo denuncia como “discurso de odio”, o “incitación a la violencia”, el llamado "discurso de odio", literalmente significa: discurso de odio. Todo esto no porque la máquina "piense" así, sino porque fue programado para reaccionar e interactuar así. El algoritmo no nace neutral.: nace ya educado por quienes lo construyen, moldeado por criterios ideológicos que confunden crítica con agresión, reflexión con ofensa, verdad con violencia. En otras palabras, el algoritmo tiene maestros: refleja sus miedos, amplifica sus creencias, censura lo que temen. Las plataformas no filtran en función de criterios objetivos sino según ideologías dominantes: lo que el mundo idolatra se promueve, lo que el Evangelio recuerda es sospechoso; lo que satisface se amplifica, lo que avisa se silencia. El resultado es una nueva forma de censura cultural.: elegante, educado, esterilizado digitalmente, pero aún censurado.
Estos análisis míos surgen de reflexiones, a partir de los estudios y observaciones que vengo investigando desde hace algún tiempo a nivel antropológico-cultural y sobre el funcionamiento real de las plataformas digitales. Precisamente por eso me parece importante observar cómo, en un nivel diferente pero complementario, el Dicasterio para la Doctrina de la Fe Recordé recientemente un principio decisivo, que esencialmente va en la misma dirección de pensamiento que yo., reiterando que la Inteligencia Artificial, pudiendo al mismo tiempo "cooperar en el crecimiento del conocimiento", De ninguna manera puede equipararse con la inteligencia humana, que posee una profundidad y una dinámica que ningún sistema de aprendizaje automático puede replicar.. Este documento destaca que la Inteligencia Artificial no entiende, pero elaborado, no juzga, pero calcula, y es intrínsecamente incapaz de captar la dimensión moral de la acción., ya que le falta conciencia e interioridad (cf.. Quién). Luego advierte claramente que el discernimiento moral no puede atribuirse a un dispositivo algorítmico.: hacerlo significaría abdicar de la responsabilidad ética del hombre y entregar la verdad a un mecanismo estadístico. La ilusión de una inteligencia moral artificial es definida en el documento como una forma de ingenua idolatría tecnológica, porque la verdad no es resultado del cálculo, sino del encuentro entre libertad y gracia[1].
Esta reflexión magistral confirma el punto central: La conciencia no se puede programar.. La máquina puede ayudar, pero no juzgues; puede ayudar, pero no interpretes; puede filtrar, pero no discernir. Lo que pertenece a la libertad del hombre -y por tanto a su relación con Dios- no puede delegarse en ninguna tecnología.
La ética de la inteligencia artificial revela así su fragilidad: Se puede programar una máquina para reconocer palabras., pero no puede entender la Palabra. Puede identificar comandos, no mandamientos. Puede registrar comportamientos, No distingo entre virtud y vicio.. Puede detectar correlaciones, no captar la revelación divina. y por encima de: no puedo conocer a Dios. Una cultura que se acostumbra a sustituir el juicio de la conciencia por el escrutinio de un algoritmo acaba olvidando que la libertad es un acto espiritual, No un producción digital[2]. Y aquí es donde la teología moral se vuelve decisiva., porque le recuerda al hombre que: la verdad siempre es personal; lo bueno siempre es intencional; La conciencia es siempre irreductible.; El juicio moral no se puede delegar en nadie., mucho menos a un software.
Esto no significa demonizar la tecnología, pero ponlo de nuevo en su lugar: el de un instrumento, no un juez. Inteligencia artificial, entonces, Sin duda puede hacer que el trabajo humano sea más ágil., pero no puede sustituirlo en el punto decisivo: juicio moral, el único ámbito en el que no basta con saber "cómo son las cosas", pero tienes que decidir "por qué hacerlo". Es el lugar de la conciencia., donde el hombre sopesa las intenciones, asume la responsabilidad, Es responsable de sus acciones ante Dios.. El auto no cabe aquí., no puedo entrar: calcular, pero él no elige; analizar, pero el no responde; principio, pero él no ama. Como un excelente cirujano plástico, la Inteligencia Artificial puede realzar lo que ya es bello, pero no puede hacer bello lo que no es bello, puede corregir las desproporciones, puede atenuar ciertos signos de envejecimiento; pero no puede crear de la nada ni la belleza que no está ahí, ni restaurar la juventud marchita. Puede realzar una cara arrugada., pero no puede inventar una nueva cara. igualmente, La inteligencia artificial puede ayudar a organizar los datos, aclarar un texto, poner en orden temas complejos; pero no puede dar inteligencia a un sujeto limitado y mediocre, ni conciencia a quien no la tiene.
la imagen, tal vez un poco tosco pero efectivo, es el del caballo pura sangre y el pony: la tecnología puede entrenar, cura, haz que el semental árabe rinda al máximo, pero nunca convertirá a un pobre pony en un pura sangre.. ¿Qué no hay ahí?, ningún algoritmo podrá jamás crearlo. La máquina sólo perfecciona lo que ya encuentra en el hombre.: puede refinar un pensamiento verdadero, pero no generes verdad; puede pulir una oración exitosa, pero no puede alcanzar la conciencia de la que surgió esa frase..
La máquina sólo perfecciona lo que ya encuentra en el hombre.: puede refinar un pensamiento verdadero, pero no generes verdad; puede limpiar una oración exitosa, pero no infundas el espíritu que lo generó. Y es precisamente aquí donde se hace evidente el paralelo con el principio tomista.:
«GRAMOla razón no quita la naturaleza, pero termina (la gracia no destruye la naturaleza, pero el lo perfecciona)»[3].
En este punto se vuelve inevitable vuelve tu mirada hacia el terreno más delicado: si la máquina sólo puede perfeccionar lo que encuentra, entonces el verdadero problema no es el algoritmo, pero el hombre que se entrega a él. Y es aquí donde la analogía tomista despliega toda su fuerza.: Así como la gracia no obra en el vacío., Entonces la tecnología no funciona con la ausencia de conciencia.. Y cuando el hombre deja de ejercer su propia interioridad moral, no es la máquina la que gana poder: es el hombre mismo quien pierde estatura. De aquí surge el problema decisivo (no técnico), pero espiritual, que ahora debemos abordar. Si entendemos que la delegación moral a la máquina no es un accidente técnico sino un error antropológico, la pregunta surgirá como consecuencia lógica: ¿Qué pierde el hombre cuando abdica de su conciencia?? No solo pierde una habilidad, sino una dimensión espiritual, aquel en el que se decide el significado del bien y del mal. La tecnología puede ser poderosa, sofisticado, muy rapido, pero no puede convertirse en un sujeto moral.
La tradición cristiana siempre ha enseñado que el ejercicio del sentido común es un arte que surge de la gracia y la libertad: un equilibrio entre la prudencia, verdad y caridad. El algoritmo no conoce ninguno de estos tres.. no es prudente, porque no evalúa; no es cierto, porque el no lo sabe; no es caritativo, porque el no ama. Por esto, utilizar la Inteligencia Artificial como herramienta es posible; usarlo como criterio es inhumano, pensar que puede crear en lugar del hombre incapaz de articular un pensamiento, o para producir trabajo intelectual, es ilusorio por decir lo menos. La tecnología puede ayudar a los humanos, nunca lo juzgues; la palabra puede ayudar, nunca lo reemplaces; puede servir la misión, nunca determines sus límites.
Una civilización que delega en la máquina lo que pertenece a la conciencia pierde su identidad espiritual: se convierte en una empresa que sabe mucho, pero entiende poco; quien habla continuamente, pero rara vez escucha; quien juzga todo, pero ella ya no se juzga.
moralidad católica Nos recuerda que el criterio del bien no es lo que el mundo acepta., pero lo que Dios enseña. Y Dios no habla con algoritmos.: habla a los corazones. El logos se hizo carne, no código; Se convirtió en el hombre, no planeo; se hizo un informe, no mecanismo. Por esta razón no hay inteligencia artificial., por muy avanzado que sea, ¿Puede llegar a ser alguna vez el criterio último de lo que es verdad?, Correcto, bueno y humano. Porque el bien no se puede calcular: e identificar.
Desde la isla de Patmos, 7 Febrero 2026
.
NOTAS
[1] Ver. Dicasterio para la Doctrina de la Fe, Antiguo y nuevo. Nota sobre la relación entre inteligencia artificial e inteligencia humana (28 Enero 2025). — Sobre la correcta integración entre la capacidad humana y las herramientas tecnológicas en la elaboración del juicio moral.
[2] NdA. Producción significa resultado final y es un término técnico-informático que se refiere al conjunto de datos que emite una computadora durante el proceso de producción, esto en contraste con la entrada, que son en cambio los datos de entrada.
[3] Thomas Aquino, Summa Theologiae, E, P.1, a.8, a 2, en Las obras de Santo Tomás de Aquino, ed. León.
.
EL ESTRECHO VÍNCULO ENTRE LA ÉTICA, LA INTELIGENCIA ARTIFICIAL Y LA TEOLOGÍA DE SAN TOMÁS DE AQUINO
La máquina perfecciona sólo lo que ya encuentra en funcionamiento en el hombre.: puede refinar un pensamiento verdadero, pero no puede generar la verdad; puede limpiar una frase bien formada, pero no puede infundir el espíritu que lo generó. Y es precisamente aquí donde se hace evidente el paralelo con el principio tomista.: “Gratia no tollit naturam, pero termina (la gracia no destruye la naturaleza, pero lo perfecciona)”
- Theologica -
.
Este artículo para nuestro Theologica página está tomado de mi último libro Libertad negada, publicado por nuestra propia prensa y disponible para su compra. aquí. Cuando me propuse abordar este tema relacionado con la Inteligencia Artificial, Mi mente volvió a una de las obras maestras proféticas del cine moderno.: 2001: Una odisea espacial, dirigida por Stanley Kubrick y estrenada en 1968. En esa película aparece HAL. 9000, Una inteligencia artificial extremadamente avanzada instalada a bordo de la nave espacial Discovery.. HAL es perfecto en el cálculo, infalible en la gestión de datos, pero desprovisto de lo que hace que el juicio humano sea verdaderamente humano: conciencia. Cuando su programación entre en conflicto con los objetivos de la misión, HAL no “se vuelve loco”: simplemente aplica la lógica sin filtro moral, sin intencionalidad, y sin capacidad de discernir el bien del mal. El resultado es aterrador: Una máquina sumamente poderosa se convierte en una amenaza mortal precisamente porque no comprende al hombre ni el valor de la vida.. Esta intuición – cinematográfica, pero teológicamente lúcido, muestra que la inteligencia artificial plantea cuestiones que no son meramente técnicas, pero radicalmente moral. Lo que está en juego no es el poder computacional –lo cual nadie discute– sino el riesgo de que el hombre pueda delegar en un sistema impersonal lo que pertenece exclusivamente a su conciencia.. Y esto es precisamente lo que sucede cuando uno permite que una plataforma decida de forma autónoma qué es “bueno” o “malo”, Lo que se puede decir y lo que se debe silenciar.: Uno entrega a la máquina un acto que debería ser moral.. Y este es sólo el primer paso en la delegación moral a la máquina..
Una vez que el juicio sobre la verdad y la falsedad ha sido cedido a la tecnología, el siguiente paso se vuelve casi inevitable: Renunciar al sentido común educativo y a la responsabilidad personal.. Cuando un padre confía por completo a un algoritmo la tarea de filtrar lo que puede ver un niño, sin supervisión crítica, Esto significa delegar la responsabilidad educativa a un sistema estadístico.. O otra vez, cuando se le pregunta a la Inteligencia Artificial si una frase es “ofensiva” o “moralmente aceptable”, esto significa transferir a la máquina una tarea que requiere conciencia, no cálculo.
Lo que se ha descrito hasta ahora no es una recopilación de detalles técnicos., sino más bien el punto decisivo. Donde falta intención, La máquina nunca podrá entender lo que hace el hombre cuando habla., amonesta, educa, cura o corrige. Y como no puede acceder al “por qué”, lo reduce todo al “cómo”: no evalúa el significado, analiza solo la forma. Es aquí donde el malentendido se vuelve inevitable y el error sistemático.. esto es lo que pasa, por ejemplo, cuando un sacerdote amonesta a una persona fiel o un padre corrige a un niño: La conciencia humana distingue entre severidad y crueldad., entre la corrección y la ofensa; el algoritmo simplemente registra la dureza de la frase y la marca como "lenguaje hostil". Un médico que escriba “este riesgo lleva a la muerte” puede ver sus palabras clasificadas como “contenido violento”, porque la máquina no distingue diagnóstico de amenaza. E incluso un simple versículo bíblico puede ser censurado por ser “lenguaje ofensivo”., porque la Inteligencia Artificial no percibe propósito moral, pero sólo la superficie de las palabras. Por esta razón, cualquier uso de la Inteligencia Artificial que afecte al habla, juicio, La relación o la libertad deben ser examinadas a la luz de la teología moral., no ingeniería informática.
La distinción es decisiva: la maquina no decide, selecciona; no evalúa, se filtra; no juzga, clasifica. Y lo que clasifica nunca es bueno o malo., pero sólo lo probable y lo improbable, lo frecuente y lo raro, Aceptabilidad estadística y sospecha algorítmica.. La conciencia humana hace exactamente lo contrario.: toma en serio la unicidad del acto y la libertad del agente; pesa intenciones, circunstancias y consecuencias; distingue entre reprensión que salva y ofensa que hiere; entre la severidad nacida del amor y la crueldad nacida del desprecio. La máquina no ve nada de esto..
Cuando un padre reprende a un hijo, la conciencia reconoce el amor que la sostiene; el algoritmo sólo ve una frase "potencialmente hostil". Cuando un director espiritual amonesta a alguien que le ha sido confiado, la conciencia percibe la misericordia que acompaña a la verdad; el algoritmo ve una violación de los "estándares comunitarios". Cuando una persona habla para corregir., proteger o educar, la conciencia capta el propósito; la máquina sólo percibe palabras duras. El resultado es paradójico: donde el hombre une justicia y misericordia, la máquina no produce más que etiquetas.
La ambigüedad moral no surge de la tecnología: surge del hombre que lo diseña. Porque el algoritmo no es neutral.: ejecuta una moral que no conoce, pero que otros han decidido por ello. Y vemos esto todos los días.: si el contenido desafía la corrección política, el algoritmo lo interpreta como “hostilidad”; si critica ciertos excesos de la cultura wake, lo etiqueta como “discriminación”; si aborda temas de la antropología cristiana (por ejemplo, la diferencia sexual o la familia) criticando a los poderosos y politizados grupos de presión LGBT, lo señala como “discurso de odio” o “incitación a la violencia”. Todo esto no porque la máquina “piense” así, sino porque ha sido programado para reaccionar de esta manera. El algoritmo no nace neutral.: ya esta educado por quienes lo construyen, moldeado por criterios ideológicos que confunden crítica con agresión, reflexión con ofensa, verdad con violencia. En otras palabras, el algoritmo tiene maestros: refleja sus miedos, amplifica sus convicciones, censura lo que temen. Las plataformas no filtran según criterios objetivos sino según ideologías dominantes: lo que el mundo idolatra se promueve, lo que el Evangelio recuerda es sospechoso; lo que agrada se amplifica, lo que amonesta se silencia. El resultado es una nueva forma de censura cultural.: elegante, educado, esterilizado digitalmente, pero aún así censura.
Estos análisis surgen de reflexiones, Estudios y observaciones que vengo desarrollando desde hace mucho tiempo a nivel antropológico-cultural y sobre el funcionamiento real de las plataformas digitales.. Es precisamente por esta razón que me parece significativo señalar cómo, en un nivel diferente pero complementario, los Dicasterio para la Doctrina de la Fe ha recordado recientemente un principio decisivo, esencialmente moviéndose en la misma dirección del pensamiento, reafirmando que la Inteligencia Artificial, si bien puede “cooperar en el crecimiento del conocimiento”, De ninguna manera se puede equiparar con la inteligencia humana., que posee una profundidad y un dinamismo que ningún sistema de aprendizaje automático puede replicar. Este documento subraya que la Inteligencia Artificial no entiende, pero procesos; no juzga, pero calcula; y es intrínsecamente incapaz de captar la dimensión moral de la acción., ya que le falta conciencia e interioridad (cf. aquí). Por tanto, advierte claramente que el discernimiento moral no puede atribuirse a un dispositivo algorítmico.: Hacerlo significaría abdicar de la responsabilidad ética humana y entregar la verdad a un mecanismo estadístico.. La ilusión de una inteligencia moral artificial es definida en el documento como una forma de ingenua idolatría tecnológica, porque la verdad no es fruto del cálculo, sino del encuentro entre libertad y gracia[1].
Esta reflexión magistral confirma el punto central: La conciencia no se puede programar.. La máquina puede ayudar, pero no juzgar; puede ayudar, pero no interpretar; puede filtrar, pero no discernir. Lo que pertenece a la libertad humana –y por tanto a la relación del hombre con Dios– no se puede delegar a ninguna tecnología..
La ética de la inteligencia artificial revela así su fragilidad: Se puede programar una máquina para reconocer palabras., pero no puede entender la Palabra. Puede identificar comandos, no mandamientos. Puede catalogar comportamientos., No distinguir entre virtud y vicio.. Puede detectar correlaciones, no captar la revelación divina. y sobre todo: no puede conocer a Dios. Una cultura que se acostumbra a sustituir el juicio de la conciencia por el cribado algorítmico acaba olvidando que la libertad es un acto espiritual, no es una salida digital[2]. Es aquí donde la teología moral se vuelve decisiva., porque le recuerda al hombre que la verdad es siempre personal; lo bueno siempre es intencional; la conciencia es siempre irreductible; El juicio moral no se puede delegar en nadie., y menos al software.
Esto no significa demonizar la tecnología, pero restituyéndolo a su debido lugar: el de una herramienta, no un juez. La inteligencia artificial ciertamente puede hacer que el trabajo humano sea más eficiente, pero no puede sustituirlo en el punto decisivo: juicio moral, el único ámbito en el que no basta con saber “cómo son las cosas”, pero hay que decidir “por qué hacerlos”. Este es el reino de la conciencia, donde el hombre sopesa las intenciones, asume la responsabilidad, y respuestas por sus acciones ante Dios. Aquí la máquina no entra., no puede entrar: se calcula, pero no elige; se analiza, pero no responde; simula, pero no ama. Como un excelente cirujano plástico., La Inteligencia Artificial puede mejorar lo que ya es bello, pero no puede hacer bello lo que no lo es; puede corregir desproporciones, suavizar ciertas marcas del tiempo, pero no puede crear belleza de la nada ni restaurar la juventud una vez que se ha desvanecido. Puede realzar un rostro marcado, pero no puede inventar uno nuevo. Del mismo modo, La inteligencia artificial puede ayudar a organizar los datos, aclarar un texto, u ordenar argumentos complejos; pero no puede dar inteligencia a un sujeto limitado y mediocre, ni conciencia al que la carece.
La imagen, quizás algo cruda, pero eficaz es la del caballo pura sangre y el pony: la tecnología puede entrenar, cuidar y sacar lo mejor del semental árabe, pero nunca convertirá a un pobre pony en un pura sangre.. que no esta ahi, ningún algoritmo creará jamás. La máquina perfecciona sólo lo que ya encuentra en funcionamiento en el hombre.: puede refinar un pensamiento verdadero, pero no puede generar la verdad; puede pulir una frase exitosa, pero no puede llegar a la conciencia de la que surgió esa frase.
La máquina perfecciona sólo lo que ya encuentra en funcionamiento en el hombre.: puede refinar un pensamiento verdadero, pero no puede generar la verdad; puede limpiar una frase bien formada, pero no puede infundir el espíritu que lo generó. Y es precisamente aquí donde se hace evidente el paralelo con el principio tomista.:
"Gratia no tollit naturam, pero termina (la gracia no destruye la naturaleza, pero lo perfecciona)" [3].
En este punto se convierte inevitable volver la mirada hacia el terreno más delicado: si la máquina puede perfeccionar sólo lo que encuentra, entonces la verdadera pregunta no tiene que ver con el algoritmo, pero el hombre que se entrega a ella. Y es aquí donde la analogía tomista muestra toda su fuerza.: Así como la gracia no actúa sobre el vacío., para que la tecnología no funcione sobre la ausencia de conciencia. Y cuando el hombre deja de ejercer su interioridad moral, no es la máquina la que gana poder: es el hombre mismo quien pierde estatura. De ahí surge el problema decisivo, no técnico., pero espiritual, que ahora debemos afrontar. Si entendemos que la delegación moral a la máquina no es un accidente técnico sino un error antropológico, la pregunta surgirá por consecuencia lógica: ¿Qué pierde el hombre cuando abdica de su conciencia?? No pierde simplemente una habilidad, sino una dimensión espiritual, aquel en el que se decide el significado del bien y del mal. La tecnología puede ser poderosa, sofisticado, extremadamente rapido, pero no puede convertirse en un sujeto moral.
tradición cristiana Siempre ha enseñado que el ejercicio del buen juicio es un arte que nace de la gracia y la libertad.: un equilibrio entre la prudencia, verdad y caridad. El algoritmo no conoce ninguno de estos tres.. no es prudente, porque no evalúa; no es verdad, porque no lo sabe; no es caritativo, porque no ama. Por esta razón, utilizar la Inteligencia Artificial como herramienta es posible; usarlo como criterio es inhumano. Pensar que puede crear en lugar de un hombre incapaz de articular un pensamiento o producir un trabajo intelectual es, al menos, ilusorio. La tecnología puede ayudar al hombre, nunca lo juzgues; puede ayudar al habla, nunca lo reemplaces; puede servir la misión, nunca determines sus límites.
Una civilización que delega en la máquina lo que pertenece a la conciencia pierde su identidad espiritual: se convierte en una sociedad que sabe mucho, pero entiende poco; que habla sin cesar, pero rara vez escucha; que juzga todo, pero ya no se juzga.
moralidad católica Nos recuerda que el criterio del bien no es lo que el mundo acepta., pero lo que Dios enseña. Y Dios no habla con algoritmos.: El habla a los corazones. El Logos se hizo carne, no código; se hizo hombre, no programar; se convirtió en relación, no mecanismo. Por esta razón no hay inteligencia artificial., por muy avanzado que sea, puede convertirse alguna vez en el criterio último de lo que es verdad, justo, bueno y humano. Porque el bien no se calcula: es reconocido.
De la isla de Patmos, 7 Febrero 2026
.
NOTAS
[1] Cf.. Dicasterio para la Doctrina de la Fe, Antiguo y nuevo. Nota sobre la relación entre inteligencia artificial e inteligencia humana (28 Enero 2025) — Sobre la correcta integración entre la capacidad humana y las herramientas tecnológicas en la formación del juicio moral.
[2] UN. Salida significa resultado final y es un término técnico informático que se refiere al conjunto de datos producidos por una computadora a través de una operación de procesamiento., en contraste con la entrada, cuales son los datos entrantes.
[3] Thomas Aquino, Summa Theologiae, E, P.1, a.8, a 2, en las obras de Santo Tomás de Aquino, Edición leonina.
.
EL ESTRECHO VÍNCULO ENTRE ÉTICA, INTELIGENCIA ARTIFICIAL Y LA TEOLOGÍA DE SANTO TOMÁS DE AQUINO
La máquina perfecciona solo aquello que ya encuentra en acto en el hombre: puede afinar un pensamiento verdadero, pero no generar la verdad; puede limpiar una frase lograda, pero no infundir el espíritu que la ha generado. Y es precisamente aquí donde se hace evidente el paralelismo con el principio tomista: «Gratia no tollit naturam, pero termina (la gracia no destruye la naturaleza, sino que la perfecciona)».
- Teológico -
.
Este artículo para nuestra página Theologica está tomado de mi último libro Libertad negada (La libertad negada) publicado por nuestras ediciones y disponible a la venta aquí.
Al disponeme a tratar esta temática relacionada con la Inteligencia Artificial, vino a mi mente una de las obras más proféticas del cine moderno: 2001: Odisea en el espacio, dirigida por Stanley Kubrick y estrenada en 1968. En esa película aparece HAL 9000, una inteligencia artificial de altísimo nivel, instalada a bordo de la nave espacial Discovery. HAL es perfecta en el cálculo, infalible en la gestión de datos, pero carece de aquello que hace verdaderamente humano al juicio: la conciencia. Cuando su programación entra en conflicto con los objetivos de la misión, HAL no “enloquece”: simplemente aplica la lógica sin el filtro moral, sin intencionalidad y sin la capacidad de discernir el bien del mal. El resultado es estremecedor: una máquina potentísima se convierte en una amenaza mortal precisamente porque no comprende al hombre ni el valor de la vida. Esta intuición — cinematográfica, pero teológicamente clarísima — muestra que la inteligencia artificial plantea problemas que no son meramente técnicos, sino radicalmente morales. No está en juego la potencia de cálculo — que nadie discute — sino el riesgo de que el hombre delegue en un sistema impersonal aquello que pertenece exclusivamente a su conciencia. Y esto es precisamente lo que ocurre cuando se permite que una plataforma decida de manera autónoma qué es “bueno” o “malo”, qué puede decirse y qué debe ser silenciado: se entrega a la máquina un acto que debería ser moral. Y esto es solo el primer paso de la delegación moral a la máquina.
Una vez cedido a la tecnología el juicio sobre lo que es verdadero de lo que es falso, el paso siguiente se vuelve casi inevitable: renunciar también al sentido común educativo y a la responsabilidad personal. Ocurre, por ejemplo, cuando un progenitor confía por completo a un algoritmo la tarea de filtrar lo que un hijo puede ver, sin una vigilancia crítica: significa delegar a un sistema estadístico la responsabilidad educativa. O cuando se pregunta a la Inteligencia Artificial si una frase es “ofensiva” o “moralmente aceptable”: significa transferir a la máquina una tarea que requiere conciencia, no cálculo.
Lo expuesto hasta ahora no constituye un conjunto de detalles técnicos, sino el punto decisivo. Si falta la intención, la máquina no puede comprender jamás qué está haciendo el hombre cuando habla, amonesta, educar, curar o corregir. Y puesto que no puede acceder al “porqué”, reduce todo al “cómo”: no evalúa el sentido, analiza solo la forma. Es aquí donde el equívoco se vuelve inevitable y el error sistemático. Es lo que sucede, por ejemplo, cuando un sacerdote amonesta a un fiel o un padre corrige a un hijo: la conciencia humana distingue entre severidad y crueldad, entre corrección y ofensa; el algoritmo registra únicamente la dureza de la frase y la señala como “lenguaje hostil”. El médico que escribe «este riesgo conduce a la muerte» puede ver sus palabras clasificadas como “contenido violento”, porque la máquina no distingue una diagnosis de una amenaza. Incluso un simple versículo bíblico puede ser censurado como “lenguaje ofensivo”, porque la Inteligencia Artificial no percibe la finalidad moral, sino solo la superficie de la palabra. Por ello, cualquier uso de la Inteligencia Artificial que afecte a la palabra, al juicio, a la relación o a la libertad debe ser examinado a la luz de la teología moral, no de la ingeniería informática.
La distinción es decisiva: la máquina no decide, selecciona; no evalúa, filtrar; no juzga, clasifica. Y lo que clasifica no es nunca el bien o el mal, sino solo lo probable y lo improbable, lo frecuente y lo raro, lo aceptable estadísticamente y lo sospechoso algorítmicamente. La conciencia humana hace exactamente lo contrario: toma en serio la unicidad del acto y la libertad del agente; pondera intenciones, circunstancias y consecuencias; distingue entre la reprensión que salva y la ofensa que hiere; entre la severidad por amor y la crueldad por desprecio. La máquina no ve nada de esto.
Cuando un padre reprende a un hijo, la conciencia reconoce el amor que lo sostiene; el algoritmo ve solo una frase “potencialmente hostil”. Cuando un director espiritual amonesta a quien tiene a su cargo, la conciencia percibe la misericordia que acompaña a la verdad; el algoritmo ve una violación de los “estándares de la comunidad”. Cuando una persona habla para corregir, proteger o educar, la conciencia capta la finalidad; la máquina percibe únicamente la palabra dura. El resultado es paradójico: allí donde el hombre une justicia y misericordia, la máquina produce solo etiquetas.
La ambigüedad moral no nace de la tecnología: nace del hombre que la diseña. Porque el algoritmo no es neutral: ejecuta una moral que no conoce, pero que otros han decidido por él. Y esto lo vemos cada día: si un contenido cuestiona lo políticamente correcto, el algoritmo lo interpreta como “hostilidad”; si critica ciertas derivas de la cultura desperté, lo etiqueta como “discriminación”; si aborda temas de antropología cristiana — por ejemplo la diferencia sexual o la familia — criticando a los poderosos y politizados lobbies LGBT, lo señala como “incitación al odio” o “incitación a la violencia”, el llamado (c). Todo ello no porque la máquina “piense” así, sino porque ha sido programada para reaccionar de ese modo. El algoritmo no nace neutral: nace ya educado por quienes lo construyen, modelado por criterios ideológicos que confunden la crítica con la agresión, la reflexión con la ofensa, la verdad con la violencia. En otras palabras, el algoritmo tiene amos: refleja sus miedos, amplifica sus convicciones, censura lo que temen. Las plataformas no filtran según criterios objetivos, sino conforme a ideologías dominantes: lo que el mundo idolatra es promovido, lo que el Evangelio recuerda es sospechoso; lo que complace es amplificado, lo que amonesta es silenciado. El resultado es una nueva forma de censura cultural: elegante, educado, esterilizada digitalmente — pero siempre censura.
Estas reflexiones mías nacen de estudios, análisis y observaciones que desde hace tiempo vengo profundizando en el plano antropológico-cultural y en el funcionamiento real de las plataformas digitales. Precisamente por ello considero significativo señalar cómo, en un plano distinto pero complementario, el Dicasterio para la Doctrina de la Fe ha recordado recientemente un principio decisivo, yendo sustancialmente en la misma dirección de pensamiento, reafirmando que la Inteligencia Artificial, aun pudiendo «cooperar en el crecimiento del conocimiento», no puede ser equiparada de ningún modo a la inteligencia humana, que posee una profundidad y una dinámica que ningún sistema de aprendizaje automático puede replicar. Este documento subraya que la Inteligencia Artificial no comprende, sino que procesa; no juzga, sino que calcula; y es intrínsecamente incapaz de captar la dimensión moral de la acción, al carecer de conciencia e interioridad (cf.. aquí). Advierte, por tanto, con claridad que no se puede atribuir a un dispositivo algorítmico el discernimiento moral: hacerlo significaría abdicar de la responsabilidad ética del hombre y entregar la verdad a un mecanismo estadístico. La ilusión de una inteligencia moral artificial es definida por el documento como una forma de ingenua idolatría tecnológica, porque la verdad no es fruto del cálculo, sino del encuentro entre libertad y gracia[1].
Esta reflexión magisterial confirma el punto central: la conciencia no se programa. La máquina puede asistir, pero no juzgar; puede ayudar, pero no interpretar; puede filtrar, pero no discernir. Aquello que pertenece a la libertad del hombre — y, por tanto, a su relación con Dios — no puede ser delegado a ninguna tecnología.
La ética de la inteligencia artificial revela así su fragilidad: una máquina puede ser programada para reconocer palabras, pero no puede comprender la Palabra. Puede identificar órdenes, no mandamientos. Puede censar comportamientos, no distinguir entre virtud y vicio. Puede detectar correlaciones, no acoger la revelación divina. Y, sobre todo: no puede conocer a Dios. Una cultura que se acostumbra a sustituir el juicio de la conciencia por el cribado de un algoritmo termina olvidando que la libertad es un acto espiritual, no un salida digital[2]. Es aquí donde la teología moral se vuelve decisiva, porque recuerda al hombre que: la verdad es siempre personal; el bien es siempre intencional; la conciencia es siempre irreductible; el juicio moral no puede ser delegado a nadie, y menos aún a un software.
Esto no significa demonizar la tecnología, sino devolverla a su lugar propio: el de instrumento, no el de juez. La Inteligencia Artificial puede ciertamente hacer más ágil el trabajo humano, pero no puede sustituirlo en el punto decisivo: el juicio moral, el único ámbito en el que no basta saber “cómo están las cosas”, sino que es necesario decidir “por qué hacerlas”. Es el lugar de la conciencia, donde el hombre pondera intenciones, asume responsabilidades y responde de su obrar ante Dios. Aquí la máquina no entra, no puede entrar: calcula, pero no elige; análisis, pero no responde; principio, pero no ama. Como un excelente cirujano plástico, la Inteligencia Artificial puede realzar lo que ya es bello, pero no puede hacer bello lo que no lo es; puede corregir desproporciones, puede atenuar ciertos signos del tiempo, pero no puede crear desde la nada ni la belleza que no existe ni devolver la juventud ya marchita. Puede realzar un rostro marcado, pero no puede inventar un rostro nuevo. Del mismo modo, la Inteligencia Artificial puede ayudar a organizar datos, aclarar un texto, ordenar argumentos complejos; pero no puede dar inteligencia a un sujeto limitado y mediocre, ni conciencia a quien carece de ella.
La imagen, quizá un poco cruda pero eficaz, es la del caballo de raza y el poni: la tecnología puede entrenar, cuidar y hacer rendir al máximo al semental árabe, pero jamás transformará a un pobre poni en un pura sangre. Lo que no existe, ningún algoritmo podrá jamás crearlo. La máquina perfecciona solo aquello que ya encuentra en acto en el hombre: puede afinar un pensamiento verdadero, pero no generar la verdad; puede pulir una frase lograda, pero no alcanzar la conciencia de la que esa frase ha surgido.
La máquina perfecciona solo aquello que ya encuentra en acto en el hombre: puede afinar un pensamiento verdadero, pero no generar la verdad; puede limpiar una frase lograda, pero no infundir el espíritu que la ha generado. Y es precisamente aquí donde se hace evidente el paralelismo con el principio tomista:
«Gratia no tollit naturam, pero termina (la gracia no destruye la naturaleza, sino que la perfecciona)»[3].
Llegados a este punto, se vuelve inevitable dirigir la mirada al terreno más delicado: si la máquina puede perfeccionar solo aquello que encuentra, entonces la verdadera cuestión no concierne al algoritmo, sino al hombre que se entrega a él. Y es aquí donde la analogía tomista despliega toda su fuerza: así como la gracia no actúa sobre el vacío, del mismo modo la tecnología no trabaja sobre la ausencia de conciencia. Y cuando el hombre deja de ejercitar su interioridad moral, no es la máquina la que gana poder: es el propio hombre quien pierde estatura. De aquí nace el problema decisivo — no técnico, sino espiritual — que ahora debemos afrontar. Si comprendemos que la delegación moral a la máquina no es un accidente técnico sino un error antropológico, la pregunta surgirá por lógica consecuencia: ¿qué pierde el hombre cuando abdica su conciencia? No pierde solo una habilidad, sino una dimensión espiritual, aquella en la que se decide el sentido del bien y del mal. La tecnología puede ser poderosa, sofisticado, rapidísima, pero no puede convertirse en sujeto moral.
La tradición cristiana ha enseñado siempre que el ejercicio del buen juicio es un arte que nace de la gracia y de la libertad: un equilibrio entre prudencia, verdad y caridad. El algoritmo no conoce ninguna de estas tres. No es prudente, porque no evalúa; no es verdadero, porque no conoce; no es caritativo, porque no ama. Por ello, usar la Inteligencia Artificial como instrumento es posible; usarla como criterio es inhumano. Pensar que pueda crear en lugar de un hombre incapaz de articular un pensamiento o de producir un trabajo intelectual es, como mínimo, ilusorio. La tecnología puede asistir al hombre, nunca juzgarlo; puede ayudar a la palabra, nunca sustituirla; puede servir a la misión, nunca determinar sus confines.
Una civilización que delega en la máquina aquello que pertenece a la conciencia pierde su identidad espiritual: se convierte en una sociedad que sabe mucho, pero comprende poco; que habla continuamente, pero escucha raramente; que juzga todo, pero ya no se juzga a sí misma.
La moral católica nos recuerda que el criterio del bien no es aquello que el mundo acepta, sino aquello que Dios enseña. Y Dios no habla a los algoritmos: habla a los corazones. El Logos se hizo carne, no código; se hizo hombre, no programa; se hizo relación, no mecanismo. Por eso ninguna inteligencia artificial, por avanzada que sea, podrá jamás convertirse en criterio último de lo que es verdadero, justo, bueno y humano. Porque el bien no se calcula: se reconoce.
Desde la Isla de Patmos, 7 de febrero de 2026
.
NOTAS
[1] Ver. Dicasterio para la Doctrina de la Fe, Antiguo y nuevo. Nota sobre la relación entre la inteligencia artificial y la inteligencia humana (28 de enero de 2025). — Sobre la correcta integración entre la capacidad humana y los instrumentos tecnológicos en la elaboración del juicio moral.
[2] norte. del A. Output significa resultado final y es un término técnico-informático que se refiere al conjunto de datos que un ordenador emite a través de un proceso productivo, en contraposición al input, que son los datos de entrada.
[3] Tomás de Aquino, Summa Theologiae, E, q. 1, a. 8, a 2, en Sancti Tomás de Aquino Ópera Omnia, edición leonina.
.
LA ESTRECHA CONEXIÓN ENTRE LA ÉTICA, LA INTELIGENCIA ARTIFICIAL Y LA TEOLOGÍA DE SAN TOMÁS DE AQUIN
La máquina sólo perfecciona eso., lo que ya encuentra en los humanos: Puede refinar un pensamiento verdadero., pero no produce ninguna verdad; ella puede limpiar una oración exitosa, pero no respirar el espíritu, quien lo produjo. Y es precisamente aquí donde se hace evidente el paralelo con el principio tomiano.: „Gratia no tollit naturam, pero termina (la gracia no destruye la naturaleza, pero lo completa)"
- Theologica -
.
.
Esta publicación para nuestra categoría. Theologica es mi último libro Libertad negada (Libertad negada), que fue publicado por nuestro editor y disponible aquí es.
Cuando me propuse hacerlo, abordar este tema en relación con la inteligencia artificial, Me vino a la mente una de las obras maestras más proféticas del cine moderno.: 2001: Una odisea espacial, Dirigida por Stanley Kubrick y 1968 publicado. HAL aparece en esta película. 9000, una inteligencia artificial altamente desarrollada, que está instalado a bordo de la nave espacial Discovery. HAL es perfecto en aritmética, infalible en el procesamiento de datos, pero ella extraña eso, ¿Qué constituye el juicio humano?: la conciencia. Cuando su programación entra en conflicto con los objetivos de la misión., HAL no se “vuelve” loco: simplemente aplica la lógica sin filtro moral, sin intencionalidad y sin capacidad, para distinguir entre el bien y el mal. El resultado es impactante: Precisamente por eso una máquina extremadamente poderosa se convierte en una amenaza mortal., porque no entiende a las personas y el valor de la vida. Éste – cinematográfico, pero teológicamente extremadamente claro - la intuición muestra, que la inteligencia artificial plantea problemas, que no son sólo de carácter técnico, pero radicalmente moral. No es la potencia informática lo que está en juego, eso nadie lo discute., pero el peligro, que el hombre parte a un sistema impersonal, que es responsabilidad exclusiva de su conciencia. Esto es exactamente lo que esta pasando, si permites una plataforma, decidir de forma autónoma, qué es “bueno” o “malo”., qué se puede decir y qué se debe callar: Transfieres un acto a la máquina., lo cual tendría que ser moral. Y este es sólo el primer paso de la delegación moral a la máquina..
Tan pronto como se deja que la tecnología decida qué es verdadero y qué es falso, el siguiente paso se vuelve casi inevitable: También renunciar al sentido común educativo y a la responsabilidad personal.. Esto sucede entonces, cuando un padre delega completamente la tarea a un algoritmo, filtrar, lo que un niño puede ver, sin supervisión crítica: Eso significa, delegar la responsabilidad educativa a un sistema estadístico. O si le preguntas a la inteligencia artificial, si una sentencia es “ofensiva” o “moralmente aceptable”.: Luego le das una tarea a la máquina., que requiere conciencia, no cálculo.
Lo que se presentó aquí, no es un conjunto de detalles técnicos, pero el punto crucial. falta la intencion, la máquina nunca podrá entender, que hace el hombre, cuando habla, amonestado, educa, cura o corrige. Y porque no tiene acceso al “por qué”., ella reduce todo al “cómo”: No evalúa el significado., pero solo analiza la forma. Aquí es donde el malentendido se vuelve inevitable y el error sistemático se instala.. algo asi, cuando un sacerdote amonesta a un creyente o un padre corrige a su hijo: La conciencia humana distingue entre severidad y crueldad, entre la corrección y el insulto; el algoritmo simplemente registra la dureza de la frase y la marca como “lenguaje hostil”. el doctor, quien escribe: “Este riesgo lleva a la muerte”, Podemos ver sus palabras clasificadas como “contenido violento”., porque la máquina no puede distinguir un diagnóstico de una amenaza. Incluso un simple versículo de la Biblia puede ser censurado como “lenguaje ofensivo”., porque la inteligencia artificial no percibe el objetivo moral, pero sólo la superficie de la palabra. Por eso cada uso de la inteligencia artificial debe, del lenguaje, Veredicto, Relación o libertad tocada, ser examinado a la luz de la teología moral, no en el contexto de la informática.
La distinción es crucial: La maquina no decide, ella selecciona; ella no juzga, ella filtra; ella no juzga, los clasifica. Y que los clasifica, nunca es bueno o malo, pero sólo lo probable y lo improbable, Común y raro, Estadísticamente aceptable y algorítmicamente sospechoso. La conciencia humana hace exactamente lo contrario.: Se toma en serio la singularidad de la acción y la libertad del actor.; pesa intenciones, circunstancias y consecuencias; distingue entre reprensión, eso salva, y el insulto, quien lastimó; entre la severidad por amor y la crueldad por desprecio. La máquina no ve nada de esto..
Cuando un padre corrige a su hijo, la conciencia reconoce el amor, quien lo lleva; el algoritmo sólo ve una frase "potencialmente hostil". Cuando un director espiritual amonesta a su encomendado, la conciencia reconoce la misericordia, que acompaña la verdad; el algoritmo ve una violación de los "estándares comunitarios". cuando alguien habla, corregir, proteger o educar, la conciencia capta el objetivo; la máquina solo registra la palabra difícil. El resultado es paradójico: Allá, donde el hombre combina justicia y misericordia, la máquina solo produce etiquetas.
La ambigüedad moral no surge de la tecnología, pero a la gente, quien los diseña. Porque el algoritmo no es neutral: Lleva a cabo una moraleja, que el no sabe, pero que otros le han puesto. Esto es evidente todos los días.: ¿Un contenido cuestiona lo que es políticamente correcto?, el algoritmo interpreta esto como "hostilidad"; Critica ciertos excesos de la cultura wake., lo califica de “discriminación”; Aborda temas de la antropología cristiana, como las diferencias de género o la familia, y critica los más poderosos., lobby LGBT politizado, está marcado como “discurso de odio” o “glorificación de la violencia”.. Nada de esto, porque la máquina “piensa” así, pero porque fue programado de esa manera. El algoritmo no nace neutral.: Está formado desde el principio por sus desarrolladores., moldeado por criterios ideológicos, crítica con agresión, Confundir reflexión con insulto y verdad con violencia. En otras palabras: El algoritmo tiene maestros.. Él refleja sus miedos., refuerza sus creencias, censurado, lo que temen. Las plataformas no filtran según criterios objetivos, pero según las ideologías dominantes: Lo que el mundo adora, se anima; lo que el evangelio trae a la mente, se sospecha; lo que te gusta, esta reforzado; que amonesta, esta silenciado. El resultado es una nueva forma de censura cultural.: elegante, educado, Esterilizado digitalmente, pero aún censura.
Estas consideraciones surgen de estudios, Reflexiones y observaciones, que vengo profundizando desde hace algún tiempo a nivel antropológico-cultural así como en lo que respecta al funcionamiento real de las plataformas digitales. Precisamente por eso creo que es importante señalar, eso en otro, pero a un nivel complementario, el Dicasterio para la Doctrina de la Fe ha recordado recientemente un principio crucial y se mueve esencialmente en la misma dirección de pensamiento.: Afirma, que la inteligencia artificial puede “contribuir al crecimiento del conocimiento”., Sin embargo, de ninguna manera debe equipararse con la inteligencia humana., que tiene profundidad y dinamismo, que ningún sistema de aprendizaje automático puede replicar. El documento subraya, que la inteligencia artificial no entiende, pero procesado; no juzga, pero calculado; y es fundamentalmente incapaz por falta de conciencia y de interioridad, captar la dimensión moral de la acción (cf. aquí). Por lo tanto, advierte claramente contra esto., atribuir distinción moral a un sistema algorítmico: Esto significaría, abdicar de la responsabilidad ética del hombre y dejar la verdad a un mecanismo estadístico. La ilusión de la inteligencia moral artificial ha sido descrita como una forma de ingenua idolatría tecnológica., ya que la verdad no surge del cálculo, sino del encuentro entre libertad y gracia[1].
Esta reflexión magistral confirma el punto central: La conciencia no se puede programar.. La máquina puede soportar, pero no juzgues; ayuda, pero no interpretar; filtrar, pero no diferenciar. Lo que pertenece a la libertad humana -y por tanto a su relación con Dios-, no se puede transferir a ninguna tecnología.
La ética de la inteligencia artificial revela así su fragilidad: Se puede programar una máquina, reconocer palabras, pero ella no puede entender la palabra. Ella puede identificar comandos., no mandamientos. Puede capturar el comportamiento, No distingo entre virtud y vicio.. Ella puede ver correlaciones, no captar la revelación divina. y especialmente: Ella no puede reconocer a Dios. Una cultura, quien se acostumbra, sustituir el juicio de conciencia por la prueba de un algoritmo, eventualmente se olvida, que la libertad es un acto espiritual, no es digital Producción[2]. Aquí es donde la teología moral se vuelve crucial, porque se lo recuerda a la gente: La verdad siempre es personal.; lo bueno siempre es intencional; la conciencia es siempre irreductible; El juicio moral no se puede delegar a nadie, y menos aún a uno Software.
Esto no significa, demonizar la tecnología, pero para ponerlos en su lugar correcto: el de la herramienta, no el juez. La inteligencia artificial ciertamente puede hacer que el trabajo humano sea más eficiente, Pero no puede reemplazarlo en el punto crucial.: en juicio moral, la única zona, en el que no basta con saber, “cómo están las cosas”, pero en el que se deben tomar decisiones, “por qué los haces”. Es el lugar de la conciencia., donde la gente sopesa las intenciones, Asume responsabilidad y defiende sus acciones ante Dios.. La máquina no tiene acceso aquí., ella no puede tener uno: ella calcula, pero no elige; analizado, pero no responde; simulado, pero no ama. Como un gran cirujano plástico, la inteligencia artificial puede realzar lo que ya es bello, pero no puede hacer hermoso, lo que no es; ella puede corregir proporciones, Aliviar los signos del envejecimiento, pero ni crear belleza de la nada ni devolver la juventud perdida. Puede realzar una cara dibujada., pero no inventes una cara nueva. La inteligencia artificial también puede ayudar, organizar datos, aclarar textos, estructurar argumentos complejos; Sin embargo, no puede dar inteligencia a un sujeto limitado y mediocre, ni puede dar inteligencia a una persona sin conciencia..
La imagen – quizás un poco drástica, pero eficaz - es la del noble pura sangre y el pony: La tecnología puede entrenar al semental árabe, mantener y conducir al máximo rendimiento, pero ella nunca convertirá a un pobre pony en un caballo de carreras. lo que no existe, ningún algoritmo puede jamás crear. La máquina sólo perfecciona eso., lo que ya encuentra en los humanos: Puede agudizar un pensamiento verdadero, pero no produzcas la verdad; ella puede pulir una frase exitosa, pero no llega a la conciencia, de donde surgió esta frase.
La máquina sólo perfecciona eso., lo que ya encuentra en los humanos: Puede refinar un pensamiento verdadero., pero no produce ninguna verdad; ella puede limpiar una oración exitosa, pero no respirar el espíritu, quien lo produjo. Y es precisamente aquí donde se hace evidente el paralelo con el principio tomiano.:
La gracia no quita la naturaleza., pero termina (la gracia no destruye la naturaleza, pero lo completa)"[3].
En este punto se vuelve inevitable, centrarse en el terreno más delicado: Si tan solo la máquina pudiera perfeccionar eso, lo que ella encuentra, entonces la verdadera pregunta no es sobre el algoritmo, pero la gente, quien se entrega a el. Aquí es donde la analogía tomiana desarrolla todo su poder.: Así como la gracia no obra en el vacío, La tecnología no funciona sin conciencia.. Y cuando la persona se detiene, practicar la interioridad moral, No es la máquina la que gana potencia, el ser humano pierde tamaño. Aquí es donde surge el problema crucial, no técnico., pero de naturaleza espiritual –, que ahora tenemos que afrontar. si entendemos, que la delegación moral a la máquina no es un accidente técnico, pero es un error antropológico, la pregunta surge inevitablemente: ¿Qué pierde el hombre?, si renuncia a su conciencia? No solo pierde una habilidad, sino una dimensión espiritual, aquellos, en el que se decide el significado del bien y del mal. La tecnología puede ser poderosa, sofisticado e increíblemente rápido, sin embargo, ella nunca podrá convertirse en un sujeto moral..
La tradición cristiana siempre ha enseñado, que el ejercicio del buen juicio es un arte, que viene de la gracia y la libertad: un equilibrio de sabiduría, verdad y amor. El algoritmo no reconoce ninguno de estos tres.. el no es inteligente, porque no sopesa las cosas; no es cierto, porque no reconoce; no amar, porque el no ama. Por eso es posible, utilizar la inteligencia artificial como herramienta; Usarlo como criterio es inhumano. creer, ella podría crear en lugar de una persona, quien es incompetente, Articular un pensamiento o producir una obra intelectual., es al menos ilusorio. La tecnología puede ayudar a las personas, nunca lo juzgues; puede servir a la Palabra, nunca lo reemplaces; ella puede ayudar a la misión, nunca determines sus límites.
Una civilización, que queda en manos de la máquina, lo que pertenece a la conciencia, pierde su identidad espiritual: Se convierte en una sociedad, quien sabe mucho, pero entiende poco; quien habla sin cesar, pero rara vez escucha; quien juzga todo, pero ya no se juzga.
La moral católica nos recuerda esto., que el criterio del bien no es ese, lo que el mundo acepta, pero eso, lo que dios enseña. Y Dios no habla con algoritmos: El habla al corazon. El Logos se hizo carne, no código; se volvió humano, no programar; se ha convertido en una relación, no mecanismo. Por eso ninguna inteligencia artificial puede, no importa lo avanzado que sea, llegar a ser la medida final de eso, que verdad, justo, es bueno y humano. Porque el bien no se calcula: es reconocido.
Desde la isla de Patmos, 7. Febrero 2026
.
NOTAS
[1] cf. Dicasterio para la Doctrina de la Fe, Antiguo y nuevo. Nota sobre la relación entre inteligencia artificial e inteligencia humana (28. Enero 2025). — Sobre la adecuada integración de las capacidades humanas y las herramientas tecnológicas en la formación de juicios morales.
[2] anm. d. A.: Salida se refiere al resultado final y es un término técnico en informática., que se refiere a la totalidad de los datos, que una computadora genera como parte de un proceso de procesamiento, en contraste con la entrada, es decir, los datos de entrada.
[3] Tomás de Aquino, Summa Theologiae, E, q. 1, a. 8, a 2, en las obras de Santo Tomás de Aquino, edición leonina.
______________________
Estimados lectores:, Esta revista requiere costes de gestión que siempre hemos abordado solo con vuestras ofertas gratuitas. Quienes deseen apoyar nuestra labor apostólica pueden enviarnos su aporte por la vía cómoda y segura Paypal haciendo clic a continuación:
O si lo prefieren, pueden utilizar nuestra cuenta bancaria a nombre de:
Ediciones La isla de Patmos
N. de Agencia. 59 de Roma – Vaticano
Código IBAN: IT74R0503403259000000301118
Para las transferencias bancarias internacionales:
Codice SWIFT: BAPPIT21D21
Si realizáis una transferencia bancaria, enviad un mensaje de aviso por correo electrónico a la redacción,
el banco no nos proporciona vuestro correo electrónico y por ello nosotros no podemos enviar un mensaje de agradecimiento: isoladipatmos@gmail.com
Os damos las gracias por el apoyo que ofréis a nuestro servicio apostólico..
Los Padres de la Isla de Patmos




