¿Podrá la IA pensar como un humano dentro de 8 años?

Los expertos discrepan sobre los plazos, pero coinciden en la necesidad de supervisión y protección de derechos

El CEO de Google DeepMind, Demis Hassabis, ha afirmado recientemente que la inteligencia artificial podría alcanzar capacidades similares a las humanas en un plazo de entre cinco y ocho años. Según recoge en este artículo El Mundo, Hassabis no habla de máquinas conscientes ni de emociones artificiales, sino de sistemas capaces de razonar, planificar y resolver problemas complejos al nivel de una persona promedio.

Este tipo de predicciones no son nuevas en el sector tecnológico, pero cuando proceden de una de las figuras más influyentes en investigación de IA, adquieren un peso especial. La cuestión clave es entender qué significa realmente “capacidad humana” y qué implicaciones tendría para la sociedad, la economía y la regulación.

¿Qué significa realmente «capacidad humana»?

En este contexto, “capacidad humana” no implica conciencia, intencionalidad o emociones. Se refiere a habilidades cognitivas prácticas que hoy la IA aún no domina plenamente, como resolver problemas nuevos sin entrenamiento previo, adaptarse a situaciones cambiantes, planificar a medio y largo plazo o transferir conocimientos de un contexto a otro.

Los modelos actuales son extraordinariamente competentes generando texto, imágenes o código, pero siguen mostrando limitaciones: cometen errores lógicos en tareas complejas, pierden coherencia en procesos largos y no aprenden de forma continua, como lo hace una persona. Por eso, aunque el progreso es rápido, el salto hacia una inteligencia verdaderamente general sigue siendo un desafío técnico profundo.

No todos los expertos piensan igual

Las predicciones sobre el futuro de la IA varían enormemente. Algunos líderes tecnológicos creen que la IA superará a los humanos en muchas tareas profesionales en pocos años. Otros investigadores sostienen que aún estamos lejos de una inteligencia general auténtica, pero también existen voces que alertan sobre los riesgos de delegar decisiones críticas en sistemas automatizados. Lo único indiscutible es que la velocidad de mejora ha sido mucho mayor de lo que muchos anticipaban hace apenas cinco años. La incertidumbre no está en si la IA avanzará, sino en cómo de rápido y con qué efectos sociales.

Impacto social y preventivo

La posibilidad de que la IA alcance capacidades humanas, o cercanas, obliga a anticipar riesgos y preparar respuestas sólidas:

  • Anticiparse a los riesgos. Comprender cómo interactúan humanos y máquinas permite detectar problemas antes de que se conviertan en conflictos sociales, legales o éticos.
  • Proteger a colectivos vulnerables. Mujeres, menores y personas mayores pueden ser más sensibles a dinámicas de manipulación, dependencia emocional o desinformación generada por IA.
  • Diseñar mejores leyes y normas. La evidencia científica es clave para crear regulaciones realistas y eficaces que protejan derechos sin frenar la innovación.
  • Reforzar la confianza ciudadana. Saber que el Estado investiga, regula y supervisa el impacto social de la IA reduce el miedo tecnológico y aumenta la aceptación pública.

España en el contexto europeo e internacional

La reflexión sobre la capacidad humana en IA no ocurre en el vacío. España se mueve en un ecosistema regulatorio y científico más amplio.

  • Europa marca el camino

El AI Act, el Reglamento Europeo de Inteligencia Artificial, establece que la IA debe ser segura, transparente y centrada en las personas. Es la primera regulación integral del mundo y fija obligaciones según el nivel de riesgo.

  • España refuerza su supervisión

La Agencia Española de Supervisión de la IA (AESIA) complementa este marco europeo con una gobernanza nacional que prioriza derechos, transparencia y control humano.

  • Un enfoque global basado en derechos

Organismos internacionales como la ONU insisten en que la IA debe desarrollarse desde un enfoque de derechos humanos, especialmente cuando afecta a relaciones humanas, toma de decisiones o servicios públicos.

En este contexto, el impulso español a la investigación preventiva y a la gobernanza responsable posiciona al país no solo como usuario de tecnología, sino como actor activo en la construcción de una IA ética y segura.

Conceptos clave

  • Generación IA: programa del Gobierno de España para impulsar investigación, talento y gobernanza en IA.
  • Interacción humano‑robot (HRI): campo que estudia cómo las personas se relacionan con robots y sistemas de IA.
  • Control humano: principio que exige que las decisiones críticas sigan bajo supervisión humana.
  • IA centrada en las personas: enfoque que prioriza derechos, bienestar y autonomía.
  • Investigación preventiva: estudio anticipado de riesgos antes de la adopción masiva de una tecnología.