La inteligencia artificial se convierte en el eje de competitividad empresarial para 2026
La aceleración de la IA obliga a las compañías a redefinir su estrategia digital y a integrar tecnología, talento y ética en un mismo marco.

El trabajo propone 14 requisitos de diseño de software para minimizar los riesgos que las soluciones clínicas basadas en esta tecnología.
La Universitat Politècnica de València (UPV) lidera un estudio internacional que propone 14 requisitos técnicos para garantizar el uso seguro y ético de la inteligencia artificial (IA) en el ámbito sanitario. El marco, desarrollado por el grupo BDSLAB, aborda riesgos como errores diagnósticos, sesgos, falta de transparencia y privacidad. La propuesta complementa las directrices europeas y se basa en cuatro pilares: confiabilidad, trazabilidad, transparencia y responsabilidad. Validado por 216 profesionales del sector, el estudio busca llenar el vacío entre principios éticos y su aplicación práctica en software médico, alineándose con el nuevo Reglamento Europeo de IA y el MDR.