España y Europa lideran la carrera por una IA ética y centrada en las personas
Las instituciones trabajan para asegurar que la innovación tecnológica beneficie a la sociedad sin comprometer derechos ni valores democráticos
Los expertos discrepan sobre los plazos, pero coinciden en la necesidad de supervisión y protección de derechos

El CEO de Google DeepMind, Demis Hassabis, ha afirmado recientemente que la inteligencia artificial podría alcanzar capacidades similares a las humanas en un plazo de entre cinco y ocho años. Según recoge en este artículo El Mundo, Hassabis no habla de máquinas conscientes ni de emociones artificiales, sino de sistemas capaces de razonar, planificar y resolver problemas complejos al nivel de una persona promedio.
Este tipo de predicciones no son nuevas en el sector tecnológico, pero cuando proceden de una de las figuras más influyentes en investigación de IA, adquieren un peso especial. La cuestión clave es entender qué significa realmente “capacidad humana” y qué implicaciones tendría para la sociedad, la economía y la regulación.
En este contexto, “capacidad humana” no implica conciencia, intencionalidad o emociones. Se refiere a habilidades cognitivas prácticas que hoy la IA aún no domina plenamente, como resolver problemas nuevos sin entrenamiento previo, adaptarse a situaciones cambiantes, planificar a medio y largo plazo o transferir conocimientos de un contexto a otro.
Los modelos actuales son extraordinariamente competentes generando texto, imágenes o código, pero siguen mostrando limitaciones: cometen errores lógicos en tareas complejas, pierden coherencia en procesos largos y no aprenden de forma continua, como lo hace una persona. Por eso, aunque el progreso es rápido, el salto hacia una inteligencia verdaderamente general sigue siendo un desafío técnico profundo.
Las predicciones sobre el futuro de la IA varían enormemente. Algunos líderes tecnológicos creen que la IA superará a los humanos en muchas tareas profesionales en pocos años. Otros investigadores sostienen que aún estamos lejos de una inteligencia general auténtica, pero también existen voces que alertan sobre los riesgos de delegar decisiones críticas en sistemas automatizados. Lo único indiscutible es que la velocidad de mejora ha sido mucho mayor de lo que muchos anticipaban hace apenas cinco años. La incertidumbre no está en si la IA avanzará, sino en cómo de rápido y con qué efectos sociales.
La posibilidad de que la IA alcance capacidades humanas, o cercanas, obliga a anticipar riesgos y preparar respuestas sólidas:
La reflexión sobre la capacidad humana en IA no ocurre en el vacío. España se mueve en un ecosistema regulatorio y científico más amplio.
El AI Act, el Reglamento Europeo de Inteligencia Artificial, establece que la IA debe ser segura, transparente y centrada en las personas. Es la primera regulación integral del mundo y fija obligaciones según el nivel de riesgo.
La Agencia Española de Supervisión de la IA (AESIA) complementa este marco europeo con una gobernanza nacional que prioriza derechos, transparencia y control humano.
Organismos internacionales como la ONU insisten en que la IA debe desarrollarse desde un enfoque de derechos humanos, especialmente cuando afecta a relaciones humanas, toma de decisiones o servicios públicos.
En este contexto, el impulso español a la investigación preventiva y a la gobernanza responsable posiciona al país no solo como usuario de tecnología, sino como actor activo en la construcción de una IA ética y segura.