La falta de interoperabilidad limita el despliegue real de la IA en sanidad
Un problema que se extiende por Europa debido a las estructuras sanitarias complejas y altamente fragmentadas.

El trabajo propone 14 requisitos de diseño de software para minimizar los riesgos que las soluciones clínicas basadas en esta tecnología.
La Universitat Politècnica de València (UPV) lidera un estudio internacional que propone 14 requisitos técnicos para garantizar el uso seguro y ético de la inteligencia artificial (IA) en el ámbito sanitario. El marco, desarrollado por el grupo BDSLAB, aborda riesgos como errores diagnósticos, sesgos, falta de transparencia y privacidad. La propuesta complementa las directrices europeas y se basa en cuatro pilares: confiabilidad, trazabilidad, transparencia y responsabilidad. Validado por 216 profesionales del sector, el estudio busca llenar el vacío entre principios éticos y su aplicación práctica en software médico, alineándose con el nuevo Reglamento Europeo de IA y el MDR.