Microsoft destina más de 5.300 millones de euros a la próxima construcción en Aragón
El proyecto empezará a dar servicio en cuatro años, aunque no se completará hasta dentro de diez.
Más de 40 científicos han insistido en la necesidad de monitorizar esta tecnología para detectar intenciones dañinas antes de que pueda ejecutarlas.
OpenAI y Anthropic advierten que podríamos estar perdiendo la capacidad de comprender cómo toman decisiones los sistemas de inteligencia artificial avanzados. En un estudio conjunto, los expertos alertan que los modelos de IA a gran escala son cada vez más complejos y opacos, lo que dificulta interpretarlos y evaluarlos con precisión. Esta falta de transparencia representa riesgos significativos en áreas críticas como la seguridad, el sesgo algorítmico y el control humano. Las compañías proponen desarrollar nuevas herramientas de «interpretabilidad» para entender mejor el funcionamiento interno de la IA y garantizar su uso seguro, ético y alineado con valores humanos.