La UPV lidera un estudio internacional para garantizar una IA «segura y ética» en el ámbito sanitario

El trabajo propone 14 requisitos de diseño de software para minimizar los riesgos que las soluciones clínicas basadas en esta tecnología.

La Universitat Politècnica de València (UPV) lidera un estudio internacional que propone 14 requisitos técnicos para garantizar el uso seguro y ético de la inteligencia artificial (IA) en el ámbito sanitario. El marco, desarrollado por el grupo BDSLAB, aborda riesgos como errores diagnósticos, sesgos, falta de transparencia y privacidad. La propuesta complementa las directrices europeas y se basa en cuatro pilares: confiabilidad, trazabilidad, transparencia y responsabilidad. Validado por 216 profesionales del sector, el estudio busca llenar el vacío entre principios éticos y su aplicación práctica en software médico, alineándose con el nuevo Reglamento Europeo de IA y el MDR.