Análisis

Julio Lorca

Director de Desarrollo de Salud Digital en DKV

El tiempo es cerebro

El autor analiza cómo funciona la nueva inteligencia artificial basada en imágenes radiológicas y sus posibilidades para mejorar el abordaje del accidente cerebrovascular

. .

.

En 2006, un investigador llamado Saver demostró que cuando una persona sufre un accidente cerebrovascular isquémico agudo de grandes vasos, por cada minuto que pasa en ausencia de tratamiento, se destruyen 1,9 millones de neuronas, 14 mil millones de sinapsis y 12 km de fibras mielinizadas. Reducir el tiempo que los radiólogos tardan en hacer un diagnóstico en estos casos, puede disminuir la secuelas y el riesgo vital. Como afirma en la revista Nature, el Dr. Oermann, neurocirujano del Mount Sinai en Nueva York: "Me notifican antes y puedo operar". Como director del consorcio de inteligencia artificial AISINAI, ha estado estudiando si la tecnología puede ayudar a acelerar el diagnóstico en casos como el descrito. Es crítico poder discernir si una imagen de lesión cerebral es propia de la supresión del flujo sanguíneo (isquemia), es hemorrágica (rotura de un vaso) o es solo liquido extravasado (hidrocefalia)… Y esto podrá ser pronto discriminado por una arquitectura tecnológica de inteligencia artificial conocida como red neuronal convolucional y que es utilizada para el llamado deep learning o aprendizaje profundo basado en la imagen.

Los primeros trabajos no consiguieron una precisión definitiva, pero pronto comenzaron a distinguir entre un cerebro sano o 'accidentado'. Y eso puede marcar una diferencia suficiente para sugerir a quien priorizar y qué proceso debe ser informado de forma preferente por el radiólogo; pues dejados a su curso secuencial, la media de demora en estos casos puede llegar a ser de 4 horas. Y el tiempo, es cerebro perdido.

Efectivamente, cada año se incorporan 2.000 millones de imágenes médicas a las bases digitales especializadas, por lo que estas técnicas de IA avanzan a una gran velocidad, “aprendiendo más sobre lo ya aprendido”. De esta manera, comenzamos a disponer de modelos de cribado (detección de anomalías); diagnósticos (evaluación de la enfermedad) y de planificación de tratamientos (mejor alternativa según patología y condición física del paciente). Sin embargo, no todas las imágenes tienen igual entidad. Por lo que tenderemos hacia una categorización que distinga entre procedimientos 'de calidad' (para resonancias magnéticas o tomografías computarizadas) y procedimientos 'rápidos', para imágenes más simples, (que incluyen ultrasonido y radiografías).

Estos últimos casos son los que aventuran una mayor contribución en países de escasos recursos, como ocurre ya con el diagnóstico de la tuberculosis en la India. También en los desarrollados, para traspasar capacidad resolutiva desde los hospitales a la atención primaria.

A pesar de los avances, aún estamos lejos de poder sustituir el diagnóstico de un médico

En muchos casos, bastará con complementar screening automáticos que descarten la normalidad, dejando para el teleradiólogo los casos en los que el sistema detecte signos de sospecha de enfermedad. Con respecto al ultrasonido, la llegada del 5G facilitará exploraciones manipuladas a distancia en tiempo real. A pesar de los avances, aún estamos lejos de poder sustituir el diagnóstico de un médico, al menos en años venideros. De hecho, puede que esto tarde en llegar, al menos de forma completa. Durante algún tiempo veremos cohabitar humanos y máquinas, en forma de modelos mixtos de computación supervisada. Las redes neuronales, u otras formas de inteligencia artificial, tardarán en superar a los humanos, porque son muy buenas en manejar un solo tipo de información repetitiva.

Sin embargo, cuando un médico decide, lo hace procesando datos de múltiples entidades y fuentes, que combinan aspectos procedentes de su experiencia acumulada, junto con la información de contexto o la propia intuición que, en forma de “sabiduría”, aún no puede ser superada por las máquinas. Por ahora, mucha otra información importante, si no estuvo prevista por el diseñador del algoritmo de forma exhaustiva, podría pasar desapercibida para la máquina, pero difícilmente para el humano con buena experiencia clínica, como, por ejemplo: si llegó con dolor de cabeza de varios días; o tras un accidente de tráfico; o que posible medicación anticoagulante tomaba…

Sin embargo, con el tiempo, a medida que estos sistemas vayan incorporando no sólo millones de nuevas imágenes adicionales, sino información procedente de las historias clínicas -e incluso de las redes sociales propias de cada persona-, se irá ganando en precisión diagnóstica y acortando la distancia con la práctica clínica. Hace pocos días se anunciaba la autorización por la FDA americana del algoritmo de Optellum, centrado en el diagnóstico temprano del cáncer de pulmón. Y es que este tipo de cáncer mata más que cualquier otro, pues el diagnóstico se suele producir después de que hayan aparecido los primeros síntomas; momento en el que ya puede ser demasiado tarde, al encontrarse el tumor en un estadio muy avanzado. 

Así, en los más agresivos, la supervivencia a los cinco años no pasa del 20 %. Esto podría ser modificado si se pudieran incorporar revisiones periódicas de salud, ante pacientes de riesgo, basadas en inteligencia artificial; que ya sí, se habrían transformado en coste-efectivas, al no verse afectadas por la carencia de los recursos necesarios, no sólo médicos, para poder realizar chequeos masivos de base poblacional. Siempre, con permiso, de un buen control de la radiación acumulada.

En la Salud que viene, (LSQV) los sistemas de diagnóstico automatizado serán mucho más precisos, al combinar múltiples tipos de datos dentro de un mismo modelo (genética, antecedentes, estilos de vida, etc.); pudiendo detectarse enfermedades sofisticadas, en fases tempranas, desde los propios centros de atención primaria o el propio hogar.

MÁS ARTÍCULOS DE OPINIÓN Ir a la sección Opinión »

Comentar

0 Comentarios

    Más comentarios