La UPV lidera un estudio internacional para garantizar una IA «segura y ética» en el ámbito sanitario
El trabajo propone 14 requisitos de diseño de software para minimizar los riesgos que las soluciones clínicas basadas en esta tecnología.
Más de 40 científicos han insistido en la necesidad de monitorizar esta tecnología para detectar intenciones dañinas antes de que pueda ejecutarlas.
OpenAI y Anthropic advierten que podríamos estar perdiendo la capacidad de comprender cómo toman decisiones los sistemas de inteligencia artificial avanzados. En un estudio conjunto, los expertos alertan que los modelos de IA a gran escala son cada vez más complejos y opacos, lo que dificulta interpretarlos y evaluarlos con precisión. Esta falta de transparencia representa riesgos significativos en áreas críticas como la seguridad, el sesgo algorítmico y el control humano. Las compañías proponen desarrollar nuevas herramientas de «interpretabilidad» para entender mejor el funcionamiento interno de la IA y garantizar su uso seguro, ético y alineado con valores humanos.