AI Act
Accede al marco legal europeo que regula la inteligencia artificial con enfoque en riesgos y derechos fundamentales.
En los últimos años, la Unión Europea ha liderado los esfuerzos para regular la IA a nivel supranacional, estableciendo un marco normativo que busca garantizar un desarrollo de la IA […]
En los últimos años, la Unión Europea ha liderado los esfuerzos para regular la IA a nivel supranacional, estableciendo un marco normativo que busca garantizar un desarrollo de la IA seguro, ético y alineado con los derechos fundamentales.
Desde la publicación de las primeras directrices éticas en 2019 hasta la adopción del Reglamento de Inteligencia Artificial (conocido como AI Act) en marzo 2024, la regulación ha ido marcando una serie de hitos para abordar los riesgos y oportunidades de esta tecnología:
En abril de 2019, el Grupo de Expertos de Alto Nivel en Inteligencia Artificial de la Comisión Europea publicó las Directrices Éticas para una IA Fiable. Este documento establece un marco para garantizar que los sistemas de IA sean legales, éticos y robustos, definiendo siete requisitos clave que se han de evaluar y abordar continuamente a lo largo de todo el ciclo de vida de los sistemas de IA:
Estas primeras directrices sentaron las bases para el desarrollo de políticas y regulaciones futuras en el ámbito de la IA en la Unión Europea que acabarían derivando en la primera propuesta del AI Act en el año 2021.
En abril de 2021, la Comisión Europea presentó la Propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial. Este reglamento propone un marco legal para la IA de aplicación común en toda la UE, clasificando los sistemas de IA en base a cuatro niveles de riesgo:
Para identificarlo con mayor claridad, la Comisión Europea emplea una pirámide que delinea los cuatro niveles de riesgo en los que pueden englobarse los sistemas de IA y sus respectivas obligaciones:
2022 fue el año en el que los países de la UE empezaron a desarrollar políticas nacionales bajo el marco definido por el AI Act. Sin embargo, España ya contaba con algunas iniciativas previas relacionadas. En diciembre de 2020, el Gobierno de España presentó la Estrategia Nacional de Inteligencia Artificial (ENIA), con el objetivo de impulsar su desarrollo e implementación en el país. La estrategia se articuló en torno a seis ejes clave, contemplando 20 medidas específicas para posicionar a España como un referente en IA a nivel internacional. Aunque se presentó en 2020, su implementación y desarrollo han continuado en los años siguientes, alineándose con las iniciativas y regulaciones europeas en materia de IA.
En junio de 2023, el Parlamento Europeo adoptó en primera lectura el AI Act, incorporando enmiendas y ajustes a la propuesta inicial de la Comisión Europea. Meses más tarde, en diciembre de ese mismo año, el Consejo de la UE y el Parlamento Europeo alcanzaron un acuerdo provisional sobre el mismo, estableciendo el primer estándar regulatorio para la IA a nivel internacional. Este acuerdo incluyó disposiciones sobre la evaluación del impacto en los derechos fundamentales antes de la comercialización de sistemas de IA de alto riesgo y reforzó la transparencia en el uso de estos sistemas.
Finalmente, en agosto de 2024, el AI Act entró en vigor de forma oficial, estableciéndose un periodo planificado para su implementación progresiva en toda la UE hasta el año 2026.
En septiembre de ese mismo año 2023, el gobierno español puso en marcha la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), un organismo público encargado de garantizar el desarrollo, uso y supervisión de sistemas de IA de forma ética y conforme a la ley en España, convirtiéndose en la primera agencia nacional de este tipo en Europa.
Entre los objetivos principales marcados por la AESIA se encuentran los siguientes:
Para lograr estos objetivos, la AESIA tiene encomendadas una serie de funciones clave:
Casi a la par, en enero de 2024, la Comisión Europea aprobó la creación de la nueva Oficina Europea de Inteligencia Artificial, que abrió sus puertas oficialmente en febrero de ese mismo año en Bruselas. Este nuevo organismo, se convierte en el centro neurálgico de la IA en Europa, coordinándose con las diferentes agencias nacionales para garantizar la supervisión, el cumplimiento y la aplicación de la IA dentro de los 27 estados miembros. A parte de ello, la oficina europea llevará a cabo labores de investigación y creará un plan para solventar posibles contingencias no previstas. Así mismo, tiene como objetivo poner marcha diferentes metodologías, herramientas e indicadores de referencia para analizar las capacidades, impactos y riesgos de la IA desde diferentes puntos de vista.
Una vez entrado en vigor el AI Act, en marzo de 2025, el Gobierno de España aprobó el Anteproyecto de Ley para el Buen Uso y la Gobernanza de la Inteligencia Artificial, con el objetivo de adaptar la legislación nacional al nuevo marco europeo. Esta propuesta normativa refuerza las disposiciones del reglamento comunitario y establece medidas específicas en el contexto español, como un régimen sancionador propio, la designación de autoridades competentes y la regulación de prácticas como el etiquetado obligatorio de contenidos generados por IA o la prohibición de técnicas manipuladoras. Con ello, España consolida su posición como uno de los primeros países en dar un paso normativo adicional tras la aprobación del AI Act.