sábado, agosto 07, 2021

Las limitaciones para la aplicación de Inteligencia Artificial en la salud de la FDA americana

No es la primera vez que os hablamos de Inteligencia Artificial aplicada al mundo de la medicina. Hace unas semanas os hablamos de como la Inteligencia Artificial podía utilizarse para investigar que fármacos ya existentes podrían resultar efectivos para luchar contra la Covid-19 y de cómo sería posible descubrir de forma prematura si una persona esta predispuesta a desarrollar Alzheimer. El día de hoy volveremos a abordar el tema de la Inteligencia Artificial en el campo de la medicina, pero desde otra perspectiva bastante diferente, os explicaremos que limitaciones pone la FDA (Food & Drug Administration) para regular el uso de la Inteligencia Artificial en el mundo de la medicina.

Figura 1: Las limitaciones para la aplicación de Inteligencia Artificial
en la salud de la FDA americana

Desde hace unos años las organizaciones sanitarias cuentan con la ayuda de la Inteligencia Artificial y las técnicas de  Machine Learning para ayudarse a la hora de investigar nuevos fármacos, descubrir de manera prematura indicios de posibles enfermedades, realizar el seguimiento del estado de pacientes y de tratar distintas afecciones de la manera mas efectiva. A pesar de ser uno de los grandes aliados de la FDA la IA también plantea una serie de retos para el ámbito médico, en algunas ocasiones las decisiones o recomendaciones obtenidas por la inteligencia artificial pueden resultar en recomendaciones de tratamientos poco precisos e incluso peligrosos para el paciente.

Figura 2: Libro de Machine Learning aplicado a Ciberseguridad de
Carmen Torrano, Fran Ramírez, Paloma Recuero, José Torres y Santiago Hernández

En la mayoría de los casos estos errores son causados por pequeñas variaciones en la información recibida, por dar más importancia de la debida a alguno de los datos analizados por la herramienta u otros fallos a la hora de construir o entrenar el sistema. Aunque no sea lo más común esto puede suceder y al haber vidas humanas en juego es importante que existan regulaciones y expertos que analicen los resultados ofrecidos por la IA para garantizar que los pacientes reciben el mejor tratamiento posible.

Por el momento el marco regulatorio que rige el uso de este tipo de herramientas es bastante complejo, de hecho, la FDA regula varios de los productos que utilizan Inteligencia Artificial en el ámbito de la salud, pero no todos. A pesar de que la agencia desempeña un papel fundamental para garantizar la seguridad y eficacia de los sistemas sanitarios que trabajan bajo su jurisdicción está barajando la posibilidad de adaptar su proceso de revisión para el uso de este tipo de tecnologías y dispositivos médicos ya que son capaces de trabajar con grandes cantidades de datos en periodos muy cortos de tiempo y en algunas ocasiones pueden llevar a resultados incorrectos difíciles de prever.

Figura 3: Algunas excepciones de software médico no sujetas a la regulación de la FDA.

Actualmente el principal uso de la inteligencia artificial en el campo de la medicina consiste en la realización de tareas automatizadas y en la identificación de patrones en grandes volúmenes de datos. En algunos campos como en el de la radiología o la oncología se utilizan estas tecnologías para el análisis de imágenes, por otro lado, en algunos sectores como es en el caso de la oftalmología se utilizan sensores para recolectar información del paciente y determinar si este corre riesgo de desarrollar alguna afección y es recomendable realizarle un seguimiento mas exhaustivo.

Figura 4: Análisis de anomalías en radiografías utilizando IA.

Para funcionar correctamente los algoritmos utilizados deben entrenarse de manera muy precisa, para esto es necesario utilizar diversas bases de datos que contengan información de todo tipo de poblaciones. A veces conseguir esta información resulta más complicado de lo que parece debido a cómo está estructurado el propio sistema sanitario en cada región. En ocasiones se utilizan distintos sistemas o herramientas para almacenar la información lo que hace que sea todavía más difícil contrastarla. El año pasado se analizó el resultado de diversos estudios realizados en USA utilizando registros sanitarios para entrenar sistemas de IA capaces de elaborar diagnósticos a través del análisis de imágenes.

Los resultados obtenidos revelaron que en el 70% de los casos la información utilizada en estos estudios solo era representativa para 3 de los 52 estados que conforman el país, de hecho, había 34 estados que no se encontraban representados en absoluto en estos estudios. Aunque estos estudios pueden resultar de gran ayuda para ciertas poblaciones hay que tener en cuenta que hay otros factores muy importantes que influyen en el desarrollo de distintas patologías como pueden ser la diversidad geográfica, la edad promedio de la población o incluso la situación socioeconómica.

Figura 5: Analizando los datos de algunos de los primeros pacientes de Farmingham Heart study.

Este tipo de problemas a la hora de recopilar datos contribuyen al sesgo en los programas de IA dedicados al sector sanitario, sin ir mas lejos, en uno de los artículos publicados en el blog hace unas semanas mencionamos el Framingham Heart Study, un estudio que se realizó utilizando datos de distintos grupos generacionales para prevenir posibles problemas cardiovasculares. En este caso los datos utilizados en el estudio correspondían a la población de una pequeña ciudad de Massachusetts en la que la mayoría de participantes eran de raza blanca haciendo que no fuese representativo para otras poblaciones en las que hay mayor presencia de otros grupos raciales o étnicos.

Para garantizar la seguridad y la eficacia de los nuevos productos y herramientas médicas impulsadas por Inteligencia Artificial la FDA se ha propuesto regular el uso de este tipo de software en función del uso que esté previsto para el mismo y del nivel de riesgo que puede suponer para los pacientes en el caso de un diagnóstico inexacto.

Figura 6: Ejemplo de algunos productos con IA aprobados por la FDA.

Según la FDA existen dos grupos para clasificar las herramientas basadas en IA o ML. Estos grupos son el de los programas informáticos, donde se encuentra el software encargado de que algunas máquinas de última generación funcionen correctamente (como en escáneres o máquinas de rayos x) y el grupo del equipamiento médico, en el que se encuentran la mayoría de las herramientas desarrolladas para analizar datos y diagnosticar posibles patologías, como el ejemplo que hicimos nosotros con las imágenes de rayos X y la COVID-19.


Al igual que el resto de equipamiento médico el software está sujeto a la revisión de la FDA y se clasifica en función de su riesgo. Clase 1 para poco riesgo (como realizar una lectura de un monitor de glucosa), Clase 2 para un riesgo moderado o alto (como a análisis de imágenes en ecografías donde se pueden pasar por alto alguna anomalía) y Clase 3 para riesgo muy elevado (como los respiradores y otras máquinas de soporte vital).

Tras haber clasificado el producto la FDA determina si será necesaria pasar una revisión o inspección previa antes de que este se comercialice y pueda utilizarse en el mundo real. Estas revisiones también se llevarán a cabo cada vez que un producto aprobado por la FDA se actualice o realice algún cambio que afecte al rendimiento de este con la intención de poder seguir garantizando su seguridad y eficacia.

Reflexión final   

En la medicina, al igual que en muchos otros campos, la Inteligencia Artificial se encuentra cada vez más presente lo que habitualmente lleva a la generación de nuevas regulaciones para establecer una serie de limites legales y éticos. En este caso en particular establecer ciertos límites y llevar un control estricto de estas nuevas tecnologías resulta algo de vital importancia ya que hay muchas vidas humanas en juego. Es importante recordar que la Inteligencia artificial en el mundo de la medicina debe ser en todo caso una ayuda o un aliado a la hora de tratar pacientes y encontrar diagnósticos, la última palabra siempre la debe de tener un experto humano.
 
Saludos,
 
Autor: Sergio Sancho, Security Researcher en Ideas Locas.

No hay comentarios:

Publicar un comentario