Cronología de la regulación de la IA en Europa y España
En los últimos años, la Unión Europea ha liderado los esfuerzos para regular la IA a nivel supranacional, estableciendo un marco normativo que busca garantizar un desarrollo de la IA […]
Reg-internacional
Para tu negocio
7 de mayo de 2025
En los últimos años, la Unión Europea ha liderado los esfuerzos para regular la IA a nivel supranacional, estableciendo un marco normativo que busca garantizar un desarrollo de la IA seguro, ético y alineado con los derechos fundamentales.
Desde la publicación de las primeras directrices éticas en 2019 hasta la adopción del Reglamento de Inteligencia Artificial (conocido como AI Act) en marzo 2024, la regulación ha ido marcando una serie dehitos para abordar los riesgos y oportunidades de esta tecnología:
2019 – Directrices éticas para una IA Fiable
En abril de 2019, el Grupo de Expertos de Alto Nivel en Inteligencia Artificial de la Comisión Europea publicó las Directrices Éticas para una IA Fiable. Este documento establece un marco para garantizar que los sistemas de IA sean legales, éticos y robustos, definiendo siete requisitos clave que se han de evaluar y abordar continuamente a lo largo de todo el ciclo de vida de los sistemas de IA:
Acción y supervisión humanas.
Robustez técnica y seguridad.
Gestión de la privacidad y de los datos.
Transparencia.
Diversidad, no discriminación y equidad.
Bienestar social y ambiental.
Rendición de cuentas.
Estas primeras directrices sentaron las bases para el desarrollo de políticas y regulaciones futuras en el ámbito de la IA en la Unión Europea que acabarían derivando en la primera propuesta del AI Act en el año 2021.
2021 – Propuesta de Reglamento de Inteligencia Artificial (AI Act)
Riesgo inaceptable: Este nivel incluye aquellos sistemas de IA que se consideran una amenaza clara para los derechos fundamentales, la seguridad o la dignidad de las personas. La ley los prohíbe directamente, sin excepciones, por entender que sus efectos pueden ser profundamente perjudiciales. Algunos ejemplos son los sistemas de valoración social automática, el uso de técnicas de manipulación subliminal para influir en el comportamiento de las personas, o el reconocimiento facial en tiempo real en espacios públicos con fines de vigilancia masiva.
Riesgo alto: Son sistemas de IA que, debido a su potencial impacto en la vida de las personas, deben cumplir con requisitos legales estrictos antes de ser autorizados. Este nivel incluye aplicaciones en sectores sensibles como la sanidad, la educación, la justicia, el transporte o los recursos humanos. También impacta directamente en el sector financiero, abarcando, por ejemplo, los sistemas inteligentes utilizados en procesos de contratación o evaluación crediticia. La ley exige que estos sistemas se sometan a supervisiones rigurosas de conformidad, que se mantenga una documentación detallada de sus procesos, se garantice la trazabilidad y supervisión humana, y se ofrezca transparencia en sus decisiones.
Riesgo limitado: En esta categoría se encuentran los sistemas que no suponen un peligro directo para los derechos o la seguridad de las personas, pero que sí pueden influir en su comportamiento o decisiones. Por eso, deben cumplir con ciertas obligaciones de transparencia, como informar claramente al usuario de que está interactuando con una IA, o etiquetar contenidos generados por inteligencia artificial (por ejemplo, deepfakes). El objetivo es que los usuarios puedan tomar decisiones informadas y no sean inducidos a error.
Riesgo mínimo: Por último, encontramos todos aquellos sistemas que presentan un riesgo muy bajo o prácticamente nulo para los usuarios y, por tanto, no están sujetos a obligaciones regulatorias específicas en el marco del AI Act. Incluyen, por ejemplo, sistemas de recomendación de películas o filtros de spam en el correo electrónico. Aunque su uso es libre, se promueve el desarrollo responsable y voluntario de buenas prácticas éticas por parte de los desarrolladores.
Para identificarlo con mayor claridad, la Comisión Europea emplea una pirámide que delinea los cuatro niveles de riesgo en los que pueden englobarse los sistemas de IA y sus respectivas obligaciones:
2022 – Estrategia Nacional de Inteligencia Artificial en España (ENIA)
2022 fue el año en el que los países de la UE empezaron a desarrollar políticas nacionales bajo el marco definido por el AI Act. Sin embargo, España ya contaba con algunas iniciativas previas relacionadas. En diciembre de 2020, el Gobierno de España presentó la Estrategia Nacional de Inteligencia Artificial (ENIA), con el objetivo de impulsar su desarrollo e implementación en el país. La estrategia se articuló en torno a seis ejes clave, contemplando 20 medidas específicas para posicionar a España como un referente en IA a nivel internacional. Aunque se presentó en 2020, su implementación y desarrollo han continuado en los años siguientes, alineándose con las iniciativas y regulaciones europeas en materia de IA.
2023 – Aprobación del AI Act por el Parlamento Europeo
En junio de 2023, el Parlamento Europeo adoptó en primera lectura el AI Act, incorporando enmiendas y ajustes a la propuesta inicial de la Comisión Europea. Meses más tarde, en diciembre de ese mismo año, el Consejo de la UE y el Parlamento Europeo alcanzaron un acuerdo provisional sobre el mismo, estableciendo el primer estándar regulatorio para la IA a nivel internacional. Este acuerdo incluyó disposiciones sobre la evaluación del impacto en los derechos fundamentales antes de la comercialización de sistemas de IA de alto riesgo y reforzó la transparencia en el uso de estos sistemas.
Finalmente, en agosto de 2024, el AI Act entró en vigor de forma oficial, estableciéndose un periodo planificado para su implementación progresiva en toda la UE hasta el año 2026.
2023- Agencia Española de Supervisión de la Inteligencia Artificial (AESIA)
En septiembre de ese mismo año 2023, el gobierno español puso en marcha la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), un organismo público encargado de garantizar el desarrollo, uso y supervisión de sistemas de IA de forma ética y conforme a la ley en España, convirtiéndose en la primera agencia nacional de este tipo en Europa.
Entre los objetivos principales marcados por la AESIA se encuentran los siguientes:
Supervisar el cumplimiento de la normativa europea y española sobre IA.
Promover un uso fiable, transparente y responsable de la IA.
Proteger los derechos fundamentales de los ciudadanos frente a posibles impactos negativos del uso de estas tecnologías.
Impulsar la innovación y el desarrollo de una IA ética, especialmente en sectores estratégicos y entre las PYMEs.
Para lograr estos objetivos, la AESIA tiene encomendadas una serie de funciones clave:
Evaluar y auditar sistemas de IA considerados de alto riesgo.
Emitir directrices, guías y recomendaciones para empresas y administraciones públicas.
Coordinarse con instituciones europeas y autonómicas, como la Oficina Europea de IA, creada en enero de 2024.
Facilitar la participación de las PYMEs en entornos de prueba (Sandbox de IA).
Recibir las reclamaciones de ciudadanos afectados por sistemas de IA.
Actuar como guía regulatoria y punto de referencia para las empresas, que podrán recurrir a ella para aclarar dudas, solicitar certificaciones o participar en programas de impulso.
Emitir sanciones en casos de uso inadecuado de la IA. Por ejemplo, cuando afecte derechos de consumidores.
2024 – Oficina Europea de IA
Casi a la par, en enero de 2024, la Comisión Europea aprobó la creación de la nueva Oficina Europea de Inteligencia Artificial, que abrió sus puertas oficialmente en febrero de ese mismo año en Bruselas. Este nuevo organismo, se convierte en el centro neurálgico de la IA en Europa, coordinándose con las diferentes agencias nacionales para garantizar la supervisión, el cumplimiento y la aplicación de la IA dentro de los 27 estados miembros. A parte de ello, la oficina europea llevará a cabo labores de investigación y creará un plan para solventar posibles contingencias no previstas. Así mismo, tiene como objetivo poner marcha diferentes metodologías, herramientas e indicadores de referencia para analizar las capacidades, impactos y riesgos de la IA desde diferentes puntos de vista.
2025 – Anteproyecto de Ley en España para el buen uso de la IA
Una vez entrado en vigor el AI Act, en marzo de 2025, el Gobierno de España aprobó el Anteproyecto de Ley para el Buen Uso y la Gobernanza de la Inteligencia Artificial, con el objetivo de adaptar la legislación nacional al nuevo marco europeo. Esta propuesta normativa refuerza las disposiciones del reglamento comunitario y establece medidas específicas en el contexto español, como un régimen sancionador propio, la designación de autoridades competentes y la regulación de prácticas como el etiquetado obligatorio de contenidos generados por IA o la prohibición de técnicas manipuladoras. Con ello, España consolida su posición como uno de los primeros países en dar un paso normativo adicional tras la aprobación del AI Act.
Desde Aragón Privacidad, Asociación de Profesionales de la Privacidad en Aragón, nos han compartido una reflexión sobre un tema de máxima relevancia: la relación entre…
Para adaptarse con éxito al nuevo marco regulatorio, las empresas deben tomar medidas proactivas y, aunque el cumplimiento legal pueda parecer complejo en un principio,…
Regulación
Newsletter
Si quieres estar al día sobre todo lo relacionado con la IA y enterarte de todos nuestros eventos y acciones, no dudes en suscribirte a nuestra newsletter.
Los campos marcados con (*) son obligatorios
Formulario de suscripción al boletín
Si nos das tu autorización, tus datos personales los trataremos en «Fundación Ibercaja Sostenible», como entidad legalmente responsable, para enviarte nuestra Newsletter e información sobre nuestras actividades. Para conocer cómo ejercer los derechos de acceso, rectificación, oposición, supresión, limitación y portabilidad, y el resto de información legal en materia de protección de datos, puedes pedirlo a través del correo privacidadgdpr@fundacionibercaja.es o accediendo a nuestra Política de Privacidad. Autorizo recibir la Newsletter e información sobre actividades organizadas o patrocinadas por la Fundación Ibercaja Sostenible.