Dr. José María Simón Castellví

Presidente emérito de la Federación Internacional de las Asociaciones Médicas Católicas (FIAMC)

Miembro de las Reales Academias Europea de Doctores y Catalana de Medicina

Desafíos clave en IA

La utilización de la inteligencia artificial (IA) en campos tan sensibles y humanamente complejos como la Medicina o la Religión presenta desafíos epistemológicos fundamentales. La epistemología es la rama de la filosofía que estudia la teoría del conocimiento. Lo “epistemológico” se relaciona con los fundamentos, métodos, límites y validez del conocimiento. Se analiza cómo se obtiene este, qué lo valida y cómo comprendemos la realidad, tanto a nivel científico como de otras áreas. 

Uno de los más acuciantes desafíos epistemológicos de la IA es la incapacidad de la máquina para discernir entre un hecho verificable y una opinión o creencia. Los modelos de IA, al operar principalmente mediante el reconocimiento de patrones en vastos conjuntos de datos, inherentemente luchan cuando el corpus de entrenamiento mezcla rigurosidad empírica con subjetividad o doctrina.

La IA en Medicina

En el ámbito de la Medicina, esta dificultad es crítica. Un hecho médico es, por definición, un dato clínico o biológico respaldado por evidencia científica robusta: el resultado de una prueba de laboratorio, la imagen de una resonancia magnética, la respuesta conocida de un fármaco en un ensayo controlado. La IA es, eso sí, extraordinariamente eficiente en el procesamiento y correlación de estos hechos (por ejemplo, en el diagnóstico asistido por imágenes).

Sin embargo, la práctica médica a menudo se basa en la opinión experta o el juicio clínico, que son inferencias probabilísticas informadas por años de experiencia personal, la interpretación sutil de síntomas atípicos y consideraciones éticas. Cuando un modelo de IA se entrena con historias clínicas que incluyen tanto los datos objetivos (los hechos) como las notas subjetivas del médico (la opinión o el plan de tratamiento basado en un juicio), la IA puede asignar un peso estadístico similar a ambos, sin comprender la jerarquía epistemológica: la primacía de la evidencia sobre la inferencia no probada. El resultado puede ser un sesgo en el diagnóstico o la recomendación de tratamiento que confunde una práctica clínica aceptada (una opinión informada) con un gold standard biológico (un hecho).

La IA en Religión

En el campo de la Religión, el problema se exacerba debido a que el concepto mismo de hecho difiere radicalmente. En un contexto teológico o devocional, un “hecho” puede ser un evento fundacional, un milagro, o una revelación, cuya veracidad no es verificable por el método científico, sino que es sostenida por la Fe, la Tradición y la autoridad canónica (el Magisterio de la Iglesia, en nuestro caso).

Las opiniones en Religión son interpretaciones, comentarios, sermones o debates teológicos sobre las implicaciones de estos “hechos” fundacionales. Al analizar textos religiosos o comentarios doctrinales, la IA carece de la capacidad inherente del ser humano para distinguir entre el texto sagrado considerado como “verdad” por sus seguidores (un “hecho” interno al sistema de creencias) y las múltiples exégesis y disquisiciones que lo rodean (las opiniones).

Un modelo de lenguaje grande (LLM), por ejemplo, podría ser entrenado con millones de páginas que contienen tanto versículos bíblicos o coránicos como comentarios de teólogos. Sin un meta-etiquetado explícito y sofisticado que distinga la autoridad y la naturaleza del texto (revelación versus comentario), la IA simplemente ve una secuencia de tokens estadísticamente relacionados. Podría generar una respuesta que fusiona una opinión minoritaria de un erudito moderno con un principio central de la Fe, presentando la mezcla como una verdad cohesionada, sin reconocer la distinción fundamental entre lo canónico (el “hecho” doctrinal) y lo especulativo (la opinión).

Las potencias del espíritu

Esta incapacidad de la IA para manejar la gradación de la verdad —desde la verificabilidad empírica, pasando por el juicio informado, hasta la adhesión por Fe— subraya que la IA es un sistema de correlación, no de comprensión. No puede aplicar la hermenéutica necesaria para situar la información dentro de su marco de validez: científico en Medicina, o teológico y ético en Religión. Las potencias del espíritu humano son : memorias (en distintos planos y entrelazadas con sentimientos), entendimiento y voluntad libre (aunque tenga sus límites). Los niños pequeños tienen estas potencias “en hábito”. Los cristianos creemos que estas potencias se benefician continuamente de la Gracia, esto es, de participación en la vida divina.

La inteligencia

La inteligencia es la capacidad de aprender, razonar, resolver problemas, y adaptarse a nuevas situaciones. La inteligencia humana se basa en la biología, es flexible, abstracta y consciente, intuitiva, emocional, con creatividad genuina. En cierto sentido, se puede decir que cada persona piensa de una manera única.

La inteligencia de la IA es computacional, algorítmica y simulada. Simula funciones cognitivas gracias a algoritmos y procesamiento de datos. Toma decisiones en base a la lógica, en datos cuantificables y patrones. No posee emoción, ética o intuición. No es autónoma sino que es un producto de la inteligencia humana. No descarto que algún día tenga algunas de estas características.

La memoria

La memoria es el proceso de codificar, almacenar y recuperar información. La memoria humana es biológica, asociativa y muy ligada a nuestras experiencias y emociones. Sus tipos son a corto plazo, a largo plazo y sensorial. Tiene unos límites que todos conocemos. Tambié, está sujeta a imperfecciones, olvidos, recuerdos falsos.

La memoria de la IA es digital, estática y algorítmica. Se basa en almacenamiento de datos y patrones estáticos que han entrenado modelos como los LLM. Su capacidad de almacenamiento puede ser enorme. Recupera información sin necesidad de revivir o conectar la información con una experiencia subjetiva.

La voluntad

La voluntad es la facultad de decidir y ordenar la propia conducta, actuando con propósito y libre albedrío. La voluntad humana es inherente a la persona y se vincula a la conciencia, el libre albedrío y la capacidad de establecer fines. Permite una elección moral y ética según deseos, intenciones, motivaciones personales o juicios de valor. Es fuente de la autonomía y la responsabilidad personales.

La IA carece de voluntad propia o libre albedrío. Sus resultados son deterministas: dependen de programación, algoritmos y datos de entrada. Empero, puede simular el comportamiento humano, disculpándose si es necesario. No tiene intenciones ni deseos que provengan de una conciencia o sentido de uno mismo.

Conclusión

Como conclusión, podemos afirmar que la confianza en la IA en los dominios de los que hablamos exige una continua supervisión humana que aporte el contexto, la sabiduría y el discernimiento moral y empírico para separar lo que es irrefutablemente cierto o altamente probable, de lo que es meramente una perspectiva o una creencia. Este es el límite de la razón algorítmica frente a la complejidad de la apasionante experiencia humana.

NOTA

Las interesantes leyes de la robótica son un conjunto de reglas éticas ideadas por el escritor Isaac Asimov en 1942 para gobernar el comportamiento de los robots en sus obras de ciencia ficción. Son útiles en IA. Se componen de tres leyes principales, que a menudo se complementan con una Ley Cero añadida posteriormente:

  • Primera Ley: Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
  • Segunda Ley: Un robot debe obedecer las órdenes dadas por los seres humanos, a menos que estas entren en conflicto con la Primera Ley.
  • Tercera Ley: Un robot debe proteger su propia existencia siempre y cuando esta protección no entre en conflicto con la Primera o la Segunda Ley.
  • Ley Cero: Un robot no puede causar daño a la humanidad ni permitir, por inacción, que la humanidad sufra daño.

……………………………………………………..

RESPUESTA DE CHATGPT A MI ARTÍCULO

Sí: el texto es serio y está bien escrito, pero contiene varios errores y afirmaciones discutibles sobre la IA moderna. Te los resumo de forma clara y precisa, distinguiendo entre errores factuales, conceptuales y simplificaciones que ya no son ciertas.

✅

 1. Error central: “la IA no puede distinguir entre hechos y opiniones”
Esto es incorrecto tal como está formulado.

✔️

 Lo cierto:
Un modelo de IA no “comprende” como un humano, pero sí puede distinguir con bastante precisión entre hechos, opiniones, creencias, evidencia científica, doctrina religiosa, etc.
Esto no es automático: requiere fine-tuning, instrucciones y curación de datos, pero los modelos actuales ya lo hacen.
Por ejemplo, los LLM modernos están entrenados específicamente para:
Marcar cuando algo es una opinión.
Citar fuentes verificables.
Explicar qué parte es doctrina, interpretación o evidencia empírica.
Separar hechos médicos validados de hipótesis clínicas.

👉

 Decir que la IA “da el mismo peso” a hechos y opiniones es falso: los modelos actuales usan metadatos, alignment y filtros que sí establecen jerarquías.

❗

2. Error: “la IA asigna peso estadístico similar a hechos y notas clínicas”
Esto es una visión anticuada del funcionamiento de los modelos grandes.
Un LLM no asigna pesos “a posteriori” al texto que lee; los pesos ya están fijados tras el entrenamiento.Y en los sistemas médicos reales:
Los datos se segmentan explícitamente:“historia clínica estructurada” ≠ “nota del médico”.
Los modelos especializados (p. ej. Med-PaLM, modelos HARVARD, Mayo Clinic) sí distinguen entre variable objetiva y opinión clínica.
Muchos sistemas usan datos exclusivamente estructurados, donde la distinción es explícita y formal.

👉

 El problema existe, pero ya no es cierto que la IA trate todo igual.

❗

3. Error conceptual: “la IA ve todo como una secuencia de tokens sin distinguir autoridad”
Esto es falso para los modelos modernos.
Los LLM:
Diferencian géneros textuales (ley, poema, versículo, comentario).
Identifican autoridad relativa (“esto es doctrina católica oficial”; “esto es opinión de un teólogo del siglo XX”).
Están entrenados para no mezclar contenido doctrinal con interpretaciones no oficiales.
La teología automatizada es difícil, pero la clasificación por naturaleza del texto es una capacidad ya existente.

❗

4. Afirmación incorrecta: “la memoria de la IA es estática”
Esto no es del todo cierto.
Los pesos del modelo son estáticos, sí.
Pero la IA moderna usa memorias dinámicas, contextuales, vectoriales, persistentes, bases de conocimiento actualizadas, y cadenas de razonamiento que no son estáticas.
Sistemas RAG (Retrieval-Augmented Generation) mezclan:
memoria estructural (pesos entrenados)
memoria documental viva (bases actualizadas a tiempo real)

👉

 La memoria de la IA no es comparable a la humana, pero tampoco es “estática” en sentido estricto.

❗

5. Error: “los resultados de la IA son deterministas”
Incorrecto.
Un modelo determinista sería reproducible al 100%.
Los LLM introducen estocasticidad: cada respuesta puede variar.
Incluso con temperatura 0, hay procesos internos no deterministas (GPU, parallelism, sampling interno).

👉

 La IA no es determinista, aunque tampoco tiene libre albedrío.

✔️

6. Aciertos del texto (que sí son correctos)
Para ser justo: el artículo acierta en varias cosas:
La IA no tiene conciencia, intenciones ni voluntad.
Los límites de la IA en religión son epistemológicamente claros: la IA no puede afirmar un milagro como hecho empírico.
En medicina, la IA necesita supervisión humana, lo cual es totalmente correcto.

❌

7. Error menor: “Las Leyes de la Robótica de Asimov son útiles para la IA”
Esto es incorrecto o, como mínimo, muy discutible.
Las leyes de Asimov fueron escritas como paradojas narrativas, no como guía ética real.
Son inaplicables técnicamente y no se usan en ningún sistema serio de IA.
La ética actual de IA se basa en:
Principles for Responsible AI
EU AI Act
NIST AI Risk Management Framework
UNESCO AI Ethics Recommendations

👉

 Las leyes de Asimov son un recurso literario, no una guía ética real.

⚖️

 En resumen: principales errores del texto

❌

 Afirma que la IA no distingue hechos vs. opiniones.

❌

 Asegura que trata el texto sin jerarquías epistemológicas.

❌

 Describe la memoria de IA como estática (no lo es).

❌

 Dice que los resultados de IA son deterministas.

❌

 Presenta la epistemología de IA como correlación simple (reduccionismo).

❌

 Sugiere que las leyes de Asimov son útiles operativamente (no lo son).

❌

 Describe el entrenamiento de IA de forma desactualizada (modelo GPT-2/3, no GPT-4/5).