La inteligencia artificial (IA) irrumpe con fuerza en el terreno de la medicina. Hospitales, tanto públicos como privados, están implementando esta tecnología en áreas como el diagnóstico de imagen. Aunque esta tiene bondades y beneficios que ayudan a los profesionales, hay preguntas sobre la mesa.
¿Cómo se entrena una IA para que sepa identificar patologías en imágenes? ¿Cómo es el tratamiento de los datos y de la privacidad de los pacientes? ¿Hay sesgos a la hora de crear un algoritmo? E incluso, ¿es realmente la IA una nueva plataforma, o simplemente ofrece un mayor rendimiento debido a los avances de otras tecnologías colindantes?
IA en hospitales de Cataluña
Crónica Global le ha planteado todas estas cuestiones a Roberto Ardon, que es doctor en matemática aplicada al diagnóstico por imagen médica y director de Data Science en Incepto, una compañía que ya está implantando IA en varios hospitales de Cataluña para mejorar este terreno de la medicina.
Uno de los primeros nombres que han dado desde la empresa es la Fundación Sanitaria Mollet, donde están probando varios algoritmos. En su día, Alfonso Martinez Cal, director general de la compañía, ya confirmó a este medio que están en más hospitales de la autonomía, tanto públicos como privados, aunque sin desvelar nombres.
¿Por qué es útil?
Ardon cuenta que antes de estar en Incepto estuvo trabajando durante más de 20 años en Philips. “La tecnología de la IA ya estaba ahí, pero no se tenían suficientes datos ni potencia de cálculo para poder obtener resultados como los que se tienen ahora”, explica.
“Uno de los grandes retos para confeccionar algoritmos no es tanto el algoritmo en sí, sino la necesidad de tener una base de datos que pueda trabajar con grandes cantidades de información”, añade.
Evolución de tecnologías colindantes
Actualmente, la tecnología ha evolucionado de forma exponencial gracias al aumento de las capacidades técnicas de los equipos con los que se trabaja. Del mismo modo, los “almacenes” en los que se guarda toda la información también se han vuelto más eficientes, han ganado espacio y están más conectados que nunca.
Se conforma, por tanto, un trío de circunstancias esencial para alimentar las redes neuronales digitales, que son el fundamento de cómo funcionan los modelos de IA enfocados en esta disciplina.
Preocupación por los datos
Una de las bases de la nueva era de la IA es la protección de los datos. Los pacientes no han de reconocerse, bajo ningún concepto, cuando se envían las imágenes para el entrenamiento de los algoritmos. Si bien una placa de tórax o una ecografía no ofrecen rasgos que permiten distinguir a la persona, sí que se pueden dar indicios cuando se trata de resonancias de la cabeza.
Ardon explica que cuando esto ocurre, se dispone de un software que borra los rasgos faciales, para únicamente aislar aquello que interesa, y que además no se reconozca a la persona. Un caso práctico, dice, se da cuando “se necesita una imagen del cerebro. En este caso, sólo este órgano queda visible en la imagen”. Pero hay un paso adicional.
La información que no se ve
Todas las imágenes tienen información de dos tipos: lo que se ve y los metadatos. Aunque en las fotos que se obtienen no se reconoce a la persona, los metadatos que se insertan en el hospital sí detallan datos como el nombre completo, la patología, la fecha o la hora.
“Tenemos un sistema que lo que hace es eliminar todos estos metadatos de las imágenes que nos llegan a los servidores. De esta manera, la IA sólo se entrena con lo que ve en el contenido, y no se guarda ninguna otra información relacionada”, añade. Por lo tanto, la preocupación, en el terreno del diagnóstico por imagen médica, es algo que se tiene en cuenta desde que se confecciona la base de datos.
Entrenamiento desde cero
Aunque Ardon dice que “hay muchas maneras de hacerlo”, se pone un ejemplo práctico (y sencillo) para comprender bien el funcionamiento, centrado en las lesiones de la rodilla. Una de las primeras etapas es la localización de la dolencia. De forma resumida, el primer paso es obtener una imagen validada por un médico, con una zona señalizada, en la cual hay alguna anomalía.
Esa imagen se cartografía, y a la IA se le dice que ha de localizar dónde están los cuatro puntos en los que se encuentra la dolencia. “Al principio, como no sabe nada, va a decir cosas absurdas. No acierta. Pero nuestro trabajo es corregir su margen de error, para que poco a poco acierte con más precisión”, explica.
Dentro y fuera de laboratorio
A medida que van pasando imágenes de los bancos de datos, y la supervisión humana lleva a cabo un entrenamiento de repetición, la IA va obteniendo resultados cada vez más precisos. Ahora bien, el reto está cuando se tiene que testear en la vida real: “La IA es como un niño. Una cosa es que se porte bien dentro de casa, pero la prueba real de si ha aprendido bien es cuando tiene que portarse bien fuera de casa”.
Esta metáfora ilustra los problemas que pueden darse cuando el modelo empieza a funcionar fuera. La precisión ha de ser máxima para poder identificar las dolencias en diferentes imágenes, con diferentes formas y tamaños. Incluso con diferentes grados de visibilidad.
No hace cosas imposibles
Una de las cosas que ha querido poner encima de la mesa es el hecho de que “a la IA no se le pueden pedir imposibles”. ¿En qué sentido? Tan sencillo como el tipo de cosas que es capaz de identificar. Las dolencias en las que se entrenan los algoritmos son de carácter generalista, explica, ya que hay una gran cantidad de imágenes que las respaldan.
No obstante, en aquellas lesiones o patologías muy específicas, en las que hay poco material para el entrenamiento, no se desarrolla modelo alguno. “Sí que es posible que el algoritmo te diga que en una zona específica haya algo, y que esto necesita de identificación por parte del especialista. Pero no te podrá decir qué es con exactitud, ya que no tiene ni los conocimientos ni el entrenamiento necesarios para poder determinar de qué se trata”, añade.
Los sesgos
Uno de los grandes temas en la agenda de la IA del siglo XXI son los sesgos. Es decir, los elementos que hacen que un algoritmo no acabe de ser del todo neutral u objetivo. A priori, cualquiera podría pensar que el diagnóstico médico por imagen es algo objetivo. Sota, caballo o rey. Que no hay sesgos, ya que el análisis es una cosa objetiva.
Ardon explica que los sesgos sí están presentes. “Nos pasó en un caso con China, donde estuvimos desarrollando un algoritmo para examinar los riñones. Cuando enviamos la IA para testear, no funcionaba para poder señalar dónde estaban las patologías”. ¿Y por qué ocurrió esto? Al parecer, “los métodos de análisis no implementan los mismos procedimientos y técnicas en todo el mundo. Nosotros hicimos una IA en base a nuestra manera de analizar, pero no tuvimos en cuenta que las técnicas que se usan en un sitio o en otro son diferentes”.
Los sesgos de la inteligencia artificial, por tanto, pasan por cómo se llevan a cabo ciertos procedimientos y ciertas maneras de hacer. “Cada maestrillo tiene su librillo”, dice el refrán. Pero no todos esos “maestrillos” usan el mismo alfabeto, el cual se traduce en una manera de operar con instrumentos y herramientas diferentes.
Cajas negras
La gran incógnita es: ¿Por qué el algoritmo ha tomado una decisión y no otra? Otro tema de la agenda son las cajas negras. Aunque se lleven a cabo en los avances de la tecnología, no siempre se sabe por qué la máquina actúa de una manera o de otra. “Esto sobre todo se ve en las IA que toman decisiones”, explica.
Una de las técnicas que se está implementando para descifrar este “pensamiento” es la Inteligencia Artificial Explicable (XAI, por sus siglas en inglés). Cuando se trata de un algoritmo que identifica algo, la explicación es sencilla: se sabe que la máquina da un resultado debido al tipo de entrenamiento que ha recibido. En el caso de la rodilla, si se ha entrenado una máquina que identifique patrones, esta sabrá reconocerlos porque ha visto muchos.
No obstante, si se trata de otro tipo de aplicaciones en las que se tengan que tomar decisiones, el reto de aplicar XAI ya es más complicado. Aunque todavía es un tema que está en proceso, una de las maneras que se está llevando a cabo es implementar IA de lenguaje generativo. ¿Pero por qué?
IA controla a IA
Un algoritmo toma una decisión. Pero hay otro algoritmo que, previamente entrenado, se dedica a observar lo que hace el primero. Y mientras observa lo que hace, va transcribiendo en pantalla los procesos que este ha llevado a cabo para poder tomar la decisión.
XAI se está empezando a implementar de esta manera, y es gracias a la IA generativa, la cual permite generar texto a partir de los comandos que se le dan. Aunque esto no tiene un impacto tan directo sobre el diagnóstico de imagen, sí que al final es una pieza más del puzzle, en la que “toda la IA es una caja negra en sí misma”, admite Roberto Ardon.
No sustituirá a los médicos
Uno de los puntos clave que se han puesto encima de la mesa es el papel del ser humano. Quien se encarga de crear los algoritmos dice que esto va a ser una ayuda más para el sector sanitario. El papel del ser humano en todo esto es imprescindible en todas las fases: desde la base de datos hasta la identificación de las lesiones.
Partiendo del simple hecho de que una IA “no realiza imposibles”, los médicos son los primeros que van a mantener sus puestos de trabajo, ya que es necesario para poder examinar todo al milímetro y, posteriormente, establecer un diagnóstico. Por lo tanto, los algoritmos, a pesar de que avancen, no dejan de ser tecnologías que hace décadas que existen, pero que gracias a la evolución de otras colindantes han adquirido las capacidades que tienen. Y aunque facilitan mucho el trabajo de los profesionales y cambian para siempre la manera de operar, hay clara una cosa: la mona, aunque se vista de seda, mona se queda.