Microsoft destina más de 5.300 millones de euros a la próxima construcción en Aragón
El proyecto empezará a dar servicio en cuatro años, aunque no se completará hasta dentro de diez.

El trabajo propone 14 requisitos de diseño de software para minimizar los riesgos que las soluciones clínicas basadas en esta tecnología.
La Universitat Politècnica de València (UPV) lidera un estudio internacional que propone 14 requisitos técnicos para garantizar el uso seguro y ético de la inteligencia artificial (IA) en el ámbito sanitario. El marco, desarrollado por el grupo BDSLAB, aborda riesgos como errores diagnósticos, sesgos, falta de transparencia y privacidad. La propuesta complementa las directrices europeas y se basa en cuatro pilares: confiabilidad, trazabilidad, transparencia y responsabilidad. Validado por 216 profesionales del sector, el estudio busca llenar el vacío entre principios éticos y su aplicación práctica en software médico, alineándose con el nuevo Reglamento Europeo de IA y el MDR.