La falta de interoperabilidad limita el despliegue real de la IA en sanidad
Un problema que se extiende por Europa debido a las estructuras sanitarias complejas y altamente fragmentadas.
Más de 40 científicos han insistido en la necesidad de monitorizar esta tecnología para detectar intenciones dañinas antes de que pueda ejecutarlas.
OpenAI y Anthropic advierten que podríamos estar perdiendo la capacidad de comprender cómo toman decisiones los sistemas de inteligencia artificial avanzados. En un estudio conjunto, los expertos alertan que los modelos de IA a gran escala son cada vez más complejos y opacos, lo que dificulta interpretarlos y evaluarlos con precisión. Esta falta de transparencia representa riesgos significativos en áreas críticas como la seguridad, el sesgo algorítmico y el control humano. Las compañías proponen desarrollar nuevas herramientas de «interpretabilidad» para entender mejor el funcionamiento interno de la IA y garantizar su uso seguro, ético y alineado con valores humanos.