Domingo 08 Marzo 2026

IA médica necesita más contexto para la clínica

Destacado Foto de archivo. Foto de archivo.

La inteligencia artificial médica es un concepto sumamente atractivo. En teoría, los modelos pueden analizar grandes cantidades de información, reconocer patrones sutiles en los datos y nunca están demasiado cansados ​​ni ocupados para ofrecer una respuesta.

Sin embargo, aunque miles de estos modelos se han desarrollado y se siguen desarrollando en el ámbito académico y la industria, muy pocos se han adaptado con éxito a entornos clínicos reales.

Marinka Sitnik, profesora asociada de informática biomédica en el Instituto Blavatnik de la Facultad de Medicina de Harvard, y sus colegas están explorando por qué y cómo cerrar la brecha entre el desempeño de los modelos de IA médica en casos de prueba estandarizados y cuántos problemas enfrentan los mismos modelos cuando se implementan en lugares como hospitales y consultorios médicos.

En un artículo publicado el 3 de febrero en Nature Medicine , los investigadores identifican un factor importante que contribuye a esta brecha: los errores contextuales.

Explican que los modelos de IA médica pueden producir respuestas que son útiles y correctas hasta cierto punto, pero no necesariamente precisas para el contexto específico en el que se utilizan los modelos, que incluye cosas como la especialidad médica, la ubicación geográfica y los factores socioeconómicos.

“Esto no es una casualidad menor”, ​​afirmó Zitnik, quien también es profesor asociado del Instituto Kempner para el Estudio de la Inteligencia Natural y Artificial de la Universidad de Harvard.

“Es una limitación importante de todos los tipos de modelos de IA médica que estamos desarrollando en este campo”, añadió.

En una conversación con Harvard Medicine News, Zitnik explica cómo se producen los errores contextuales en los modelos de IA médica, cómo los investigadores podrían superar este y otros desafíos, y qué más prevé para la IA en medicina. Esta entrevista ha sido editada para mayor brevedad y claridad.

Noticias de Harvard Medicine: ¿Por qué ocurren los errores contextuales? ¿Cómo se pueden solucionar?

Marinka Zitnik: Creemos que ocurren porque los conjuntos de datos que se utilizan para entrenar los modelos de IA médica no contienen información importante para la toma de decisiones clínicas. Los modelos generan recomendaciones que parecen razonables y sensatas, pero que en realidad no son relevantes ni prácticas para los pacientes.

Para que los modelos de IA médica funcionen mejor, necesitan adaptar sus recomendaciones en tiempo real basándose en información contextual específica. Sugerimos incorporar dicha información a los conjuntos de datos utilizados para entrenar los modelos. Además, solicitamos referencias computacionales mejoradas (casos de prueba estandarizados) para probar los modelos después del entrenamiento. Finalmente, creemos que la información sobre el contexto debe incorporarse a la arquitectura, o diseño estructural, de los modelos. Estos tres pasos ayudarán a garantizar que los modelos puedan considerar diferentes contextos y que se detecten errores antes de implementarlos en entornos reales de atención al paciente.

HMNews: Da tres ejemplos de cómo la falta de contexto puede provocar errores en los modelos de IA médica. ¿Podría ampliarlos?

Zitnik: Empecemos por las especialidades médicas. Los pacientes pueden presentar síntomas complejos que abarcan múltiples especialidades. Si un paciente acude a urgencias con síntomas neurológicos y problemas respiratorios, podría ser derivado a un neurólogo y luego a un neumólogo. Cada especialista aporta una amplia experiencia, fruto de su formación y experiencia, por lo que, comprensiblemente, se centra en su propio sistema orgánico. Un modelo de IA entrenado principalmente en una especialidad podría hacer lo mismo, lo que significa que podría proporcionar respuestas basadas en datos de la especialidad equivocada o pasar por alto que la combinación de síntomas indica una enfermedad multisistémica.

En cambio, necesitamos desarrollar modelos de IA médica entrenados en múltiples especialidades que puedan cambiar entre contextos en tiempo real para centrarse en la información que sea más relevante.

HMNews: ¿Qué pasa con el contexto de la geografía?

Zitnik: Si se presenta un modelo con la misma pregunta en diferentes ubicaciones geográficas y se obtiene la misma respuesta, es probable que sea incorrecta, ya que cada lugar tendrá condiciones y limitaciones específicas. Si un paciente es susceptible a una enfermedad que podría provocar disfunción o insuficiencia orgánica, el médico deberá determinar su riesgo y desarrollar un plan para controlarlo. Sin embargo, el hecho de que el paciente se encuentre en Sudáfrica, Estados Unidos o Suecia puede marcar una gran diferencia en cuanto a la prevalencia de la enfermedad y a los tratamientos y procedimientos aprobados y disponibles.

Visualizamos un modelo que pueda incorporar información geográfica para generar respuestas específicas según la ubicación y, por lo tanto, más precisas. Estamos trabajando en ello en nuestro laboratorio y creemos que podría tener importantes implicaciones para la salud global.

HMNews: ¿Y el tercer ejemplo, los factores socioeconómicos y culturales que afectan el comportamiento de un paciente?

Zitnik: Supongamos que un paciente acude a urgencias con síntomas graves tras haber sido derivado previamente a un oncólogo y no haber concertado cita. Una respuesta típica del médico de urgencias podría ser recordarle que programe la cita oncológica. Sin embargo, esto pasa por alto posibles barreras, como que el paciente viva lejos del oncólogo, no cuente con un servicio de guardería fiable o no pueda faltar al trabajo. Este tipo de limitaciones no se reflejan explícitamente en el historial clínico electrónico del paciente, lo que significa que un modelo de IA que ayude a gestionarlo tampoco las tendría en cuenta.

Un modelo más eficaz consideraría estos factores para ofrecer una recomendación más realista, quizás ofreciendo una opción de transporte o programando una cita en un horario que se ajuste a las limitaciones laborales o de cuidado infantil. Este modelo ampliaría el acceso a la atención médica para una gama más amplia de pacientes, en lugar de agravar las desigualdades.

HMNews: ¿Qué otros desafíos importantes existen en la implementación de la IA médica además de los errores contextuales?

Zitnik: Hay muchas. Una se relaciona con la confianza que los pacientes, médicos, agencias reguladoras y otras partes interesadas tienen en los modelos de IA médica. Necesitamos identificar mecanismos y estrategias que garanticen la fiabilidad de los modelos y promuevan la confianza en ellos. Creemos que la respuesta reside en desarrollar modelos que ofrezcan recomendaciones transparentes y fácilmente interpretables, y que respondan con un "no sé" cuando no estén seguros de sus conclusiones.

Otro desafío se relaciona con la colaboración entre humanos e IA. Actualmente, muchas personas piensan en las interfaces entre humanos y IA en el contexto de los chatbots, donde se escribe una pregunta y se obtiene una respuesta.

Necesitamos interfaces donde las personas puedan recibir respuestas adaptadas a sus antecedentes y niveles de experiencia específicos; por ejemplo, contenido adecuado para un público no especializado en lugar de para un experto médico. También necesitamos interfaces donde los médicos o pacientes y los modelos de IA intercambien información en ambas direcciones. La verdadera colaboración implica que existe una pregunta, un objetivo o una tarea que un modelo de IA debe completar y, para ello, podría necesitar obtener más información del usuario.

HMNews: ¿Cuál cree que es la promesa de la IA médica si se pueden superar los desafíos?

Zitnik: Algunos modelos ya han tenido un impacto al hacer más eficiente el trabajo médico diario. Por ejemplo, los modelos ayudan a los médicos a redactar las notas de los pacientes y a los investigadores a encontrar rápidamente artículos científicos relevantes para una pregunta clínica.

Me entusiasman especialmente las oportunidades que los modelos de IA pueden crear para mejorar los tratamientos. Los modelos que pueden cambiar de contexto podrían ajustar sus resultados en función de la información más útil durante las diferentes etapas del proceso terapéutico. Por ejemplo, un modelo podría pasar de analizar síntomas a sugerir posibles causas y, finalmente, a proporcionar evidencia sobre tratamientos que funcionaron en pacientes similares.

Posteriormente, un modelo podría centrarse en proporcionar información práctica sobre la medicación previa del paciente, los posibles efectos secundarios y los tratamientos disponibles. Si esto se hace bien, podría ayudar a los profesionales sanitarios a adaptar las decisiones terapéuticas a pacientes complejos con múltiples afecciones y medicamentos que podrían no estar incluidos en las pautas de tratamiento estándar.

HMNews: ¿Cómo podemos garantizar que los modelos de IA médica hagan más beneficios que daños?

Zitnik: Creo firmemente que la IA en la atención médica ha llegado para quedarse. Esta tecnología, aunque imperfecta, ya se utiliza, por lo que todos en la comunidad de IA médica debemos colaborar para garantizar que se desarrolle e implemente de forma responsable.

Esto incluye considerar aplicaciones reales al diseñar y perfeccionar los modelos, realizar pruebas reales para comprender dónde funcionan y dónde fallan, y desarrollar directrices sobre cómo implementarlos. Soy optimista y creo que, si los investigadores de IA colaboran en el desarrollo de estos modelos y formulamos las preguntas correctas, podremos detectar cualquier problema a tiempo.

Modificado por última vez enJueves, 19 Febrero 2026 17:25

Deja un comentario

Asegúrate de llenar la información requerida marcada con (*). No está permitido el código HTML. Tu dirección de correo NO será publicada.

logo-nosotros

RH Editores produce y comercializa la revista de Salud Factor RH. La edición es mensual.

Correo de publicidad: