A.M.A., la mutua de los profesionales sanitarios, ha reunido a ponentes de primernivel para debatir sobre “Inteligencia Artificial y responsabilidad Civil” en una Mesa de trabajo organizada el marco del XXX Congreso de Derecho Sanitario con el propósito de analizar los desafíos más apremiantes que conlleva la implantación de la IA. La jornada a la que acudieron más 400 personas, ha sido dirigida y moderada por Raquel Murillo, directora general y responsable del ramo de Responsabilidad Civil Profesional de la mutua, que ha estado representada por su presidenta, Ana Pastor, asistiendo consejeros de A.M.A. y Ama Vida, patronos de la Fundación y presidentes de Consejos y de Colegios profesionales sanitarios.

La directora general de A.M.A. comenzó su intervención destacando la auténtica revolución que determinadas herramientas de la inteligencia artificial están suponiendo ya en el ámbito sanitario, favoreciendo, según explicó, “la posibilidad de desarrollar una medicina personalizada, preventiva y de precisión”. Pero, junto a las ventajas, el uso de estas nuevas tecnologías y la inteligencia artificial “nos colocan ante nuevos riesgos, muchos de ellos hasta ahora desconocidos, que están generando cierto desasosiego y que requieren de una respuesta ética y jurídicaadecuada y precisa”.

Una de las cuestiones que genera múltiples interrogantes es la responsabilidad civil profesional en el caso de que se produzca un error diagnóstico o terapéutico. “Recientemente se ha aprobado el Reglamento de la Unión Europea 2924/1689, pero queda mucho camino por recorrer”, afirmó. A continuación, Benjamín Herreros Ruiz-Valdepeñas, trató los problemas éticos y legales de la inteligencia artificial en la práctica clínica. Durante su intervención, destacó que una de las grandes ventajas de la IA en la medicina es su capacidad rápida de análisis de datos para generar conclusiones, lo que tiene consecuencias positivas en la sanidad. Asimismo, subrayó que no tiene sesgos ni errores cognitivos como el cansancio.

Ignacio Hernández Medrano, especialista en Neurología y cofundador de los sistemas SAVANA y MEDELIAN, se ha referido a la Inteligencia Artificial en Neurología, y manifestó que “la IA puede ver cosas para lo que no está diseñada. Así, hoy, con la IA podemos ver un cáncer de páncreas que se desarrollará dentro de siete años, o con 10 segundos de grabación de voz se puede saber el riesgo cardíaco
de un paciente
”.

El premio Princesa de Girona insistió no obstante en que “en un entorno donde las máquinas tienen respuesta, lo pertinente siempre es hacer la buena pregunta. Aunque la IA generativa brilla mucho, no genera conocimiento nuevo, solo mejora el conocimiento que ya existe. La IA generativa no es validable científicamente, hay que utilizarla junto a la IA discriminativa”. A continuación, para abordar la responsabilidad y aseguramiento de la responsabilidad civil en materia de Inteligencia Artificial, intervino Joaquín Ruiz Echauri, socio Responsble del Área de Seguros y Reaseguros de Pérez-Llorca Abogados.

Ruiz Echauri comentó que es importante que “las profesiones sanitarias se acojan a los estándares establecidos para podernos proteger”. En este sentido, hizo hincapié en que “hoy por hoy tenemos una propuesta directiva sobre IA y tardará de tres a cinco años. Se trata de una norma que quiere solucionar el problema del principio jurídico de la carga de la prueba”. Por último, César Tolosa, magistrado del Tribunal Constitucional, se centró en la protección de los derechos fundamentales en la aplicación de la inteligencia artificial en el ámbito sanitario.

Según explicó, el ordenamiento español se enfrenta a los siguientes problemas relacionados con la IA: el primero, la reforma de la figura del consentimiento informático, y el segundo, la figura de la responsabilidad. “Sobre la reforma de la figura del consentimiento informático hay que tener en cuenta que el paciente debe conocer qué sistemas algorítmicos se le va a aplicar. En cuanto al problema de la responsabilidad, se plantean varios escenarios. Uno, que la IA es perfecta y que el médico la pueda utilizar mal. Otro, que el error pueda ser de la IA por ofrecer datos equivocados. Por último, desconocer de quién es la responsabilidad, para la cual tendremos que acudir a la responsabilidad concurrente”, afirmó.