Confiar en la inteligencia artificial en salud

Cuando ya se habla de personas “nativas IA” todavía no nos sentimos confortables utilizando esta tecnología en la atención sanitaria. Los esfuerzos de reguladores y empresas por generar escenarios de confianza, junto a prácticas de transparencia son claves para su desarrollo en salud.



Confiar en la inteligencia artificial en salud (I): nativos IA

Recientemente me he encontrado con un informe comercial acerca de lo que denominaban “Nativo IA”, este informe se basaba en una encuesta a más de 1.000 adultos (entre 18 y 64 años) USA y contiene algunos aspectos interesantes. Quizá no sorprenda, pero me parece interesante que a los menores de 45 años los factores más importantes para la compra de un producto son la tecnología y el diseño y no tanto la reputación o el servicio al cliente.

Pero ya hablando de la inteligencia artificial y pese a que existe en el informe la preocupación por la concentración de poder y el control sobre las personas. Lo interesante es que los encuestados no se encontraban muy confortables utilizando servicios sanitarios basados en inteligencia artificial.

IA Navites Among US.- Prolego

Confiar en la inteligencia artificial en salud (II): reguladores

En la actualidad ya estamos utilizando IA de forma constante sin saberlo o siendo consciente, en este caso no importa. La realidad tecnológica siempre va por delante. Este 2022 España deberá tener la Agencia Española de Supervisión de Inteligencia Artificial (AESIA) que auditará algoritmos de redes sociales, administraciones públicas y empresas. Su objetivo es “minimizar los riesgos significativos sobre la seguridad y salud de las personas, así como sobre sus derechos fundamentales, que puedan derivarse del uso de sistemas de inteligencia artificial”.

Hace menos de un año la Comisión Europea publicó su propuesta de reglamento que regulará estos sistemas. En él se recoge una primera clasificación: inaceptables, de alto riesgo, de riesgo limitado y de riesgo mínimo. El objetivo es que en Europa los sistemas de IA sean seguros y éticos para mitigar sus riesgos y consecuencias negativas.


Confiar en la inteligencia artificial en salud (III): buenas prácticas

Esta regulación y control son los sistemas de vigilancia y reglas de juego. Algo que en absoluto es sencillo y donde otras organizaciones como Éticas Consulting y su Guía de Auditoría Algorítmica pueden ayudar, pero nos faltan más buenas prácticas y orientaciones, para crear estos sistemas siendo respetuosos con los derechos de las personas.

Aquí es donde entran iniciativas como la GuIA de buenas prácticas en el uso de la inteligencia artificial ética realizada por OdiseIA, PwC, Google, Microsoft, IBM y Telefónica, que incluye unos principios éticos y las buenas prácticas de las empresas impulsoras de la guía.

Guía de buenas prácticas para el uso de la Inteligencia Artificial ética. OdiseIA, PwC, Google, Microsoft, IBM y Telefónica

En concreto para salud también hemos recibido recientemente el informe de DigitalES “Inteligencia artificial ética en sanidad” con recomendaciones para la adopción de IA que hacen referencia a su transparencia, explicabilidad, privacidad, no discriminación, robustez, autonomía y responsabilidad.

En este trabajo, una vez más, se hace referencia a la necesidad de la participación de los profesionales sanitarios, previa formación, para conseguir la comprensión del uso y de los resultados que genera. Y se sigue insistiendo en que los sistemas de IA para salud, tiene que ser concebida como una herramienta de ayuda en la toma de decisión clínica. Y que hay que conseguir generar confianza en la población.


Confiar en la inteligencia artificial en salud (IV): otras buenas prácticas

Quiero mencionar otra iniciativa proveniente del CIDAI, el Centro de Innovación en Tecnologías de Datos e Inteligencia Artificial como es su “Llibre blanc sobre la Intel·ligència Artificial aplicada a la salut” cuyo objetivo es guiar a los agentes del sector para aumentar la penetración de las soluciones basadas en datos e IA entre el sector público y las empresas.

A nivel internacional la OMS ha publicado recientemente el documento “Ageism in artificial intelligence for health” con medidas legales, no legales y técnicas que se pueden utilizar para minimizar el riesgo de exacerbar o introducir el edadismo a través de la inteligencia artificial. El objetivo es claro; eliminar la discriminación por edad en su diseño, implementación y uso.

No quiero olvidar el artículo publicado en The Lancet y en el que participa Eric Topol, con el título “Bridging the chasm between AI and clinical implementation” donde se pregunta por qué hay tantos proyectos de deep learning y tan pocos en sanidad.

Copyright © 2022 Faith Hark/Scripps Research Translational Institute

El artículo se responde que es un problema de transparencia, idoneidad y adaptabilidad. Es decir, hay escasez de evidencia publicada, no se pueden revisar los datos de entrada y el rendimiento de los algoritmos y que las validaciones que se han realizado puede que no sean un reflejo de la práctica real asistencial.


Confiar en la inteligencia artificial en salud (V): aversión algorítmica

Todo ello supone que los sistemas de salud y profesionales pueden tener lo que definen como aversión algorítmica. Acciones para aliviarla: que los algoritmos se puedan modificar o que puedan aprender de los datos locales de los servicios sanitarios. Para ello se necesita transparencia en los datos utilizados, que sean comprensibles para los profesionales y por supuesto que los modelos se puedan volver a entrenar.

En línea con estas opiniones finalizo con Pew (The Pew Charitable Trusts) que en su artículo “Why FDA Must Increase Transparency of Medical Devices Powered by Artificial Intelligence” afirma que los proveedores y los pacientes deben saber más sobre los dispositivos médicos que utilizan IA, para usarlos de manera segura y efectiva.


Autor: José Miguel Cacho. LinkedIN

Si te ha gustado, quieres leer más artículos y conocer mis novedades en CuraeSalud, recibe quincenalmente mi boletín.


Si te ha gustado, compártelo

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies