Conoce el anteproyecto que regulará el uso de la IA en España
Con la entrada en vigor del AI Act europeo en agosto de 2024, España ha dado un paso más en la adaptación local del marco normativo mediante un anteproyecto específico: […]
Reg-internacional
Para tu negocio
7 de mayo de 2025
Con la entrada en vigor del AI Act europeo en agosto de 2024, España ha dado un paso más en la adaptación local del marco normativo mediante un anteproyecto específico: el Anteproyecto de Ley para el Buen Uso y la Gobernanza de la Inteligencia Artificial. Este texto busca concretar y reforzar las obligaciones establecidas por Europa, estableciendo reglas claras para asegurar un uso ético, transparente y seguro de la IA dentro del país. Entre las principales obligaciones que contempla esta ley encontramos las siguientes:
Etiquetado de contenidos generados por IA: Se impone la obligación de identificar claramente los contenidos creados o manipulados mediante inteligencia artificial, permitiendo a los usuarios distinguir entre material auténtico y aquel generado por estas tecnologías. Esta medida busca prevenir la difusión de información falsa y proteger a la ciudadanía de posibles engaños, especialmente en el contexto de los deepfakes.
Prohibición de prácticas manipuladoras: La ley prohíbe el uso de técnicas subliminales destinadas a manipular decisiones de las personas, así como la explotación de vulnerabilidades basadas en edad, discapacidad o situación socioeconómica. Además, se restringe la clasificación biométrica de individuos con el fin de otorgar beneficios o evaluar riesgos, evitando así discriminaciones injustas.
Régimen sancionador: Se establecen sanciones significativas para quienes incumplan las disposiciones de la ley. Las multas pueden alcanzar hasta 35 millones de euros o el 7% de la facturación anual global de la empresa infractora, clasificando el incumplimiento como una infracción grave.
Supervisión y gobernanza: por último, se designan diversas autoridades para la vigilancia y control del cumplimiento de la normativa en diferentes ámbitos. Entre ellas se encuentran la Agencia Española de Protección de Datos (AEPD) y el Consejo General del Poder Judicial, encargados de supervisar la aplicación de la ley en sus respectivas competencias.
¿Qué se clasifica como sistema de alto riesgo?
En cuanto a la evaluación de los sistemas de IA según su nivel de riesgo, el reglamento español tipifica los siguientesdentro del grupo de alto riesgo:
Todos los que puedan añadirse como elementos de seguridad a productos industriales (máquinas, ascensores, sistemas de protección EPIS, equipos a presión o aparatos a gas), juguetes, equipos radioeléctricos, productos sanitarios incluyendo diagnósticos in vitro, productos de transportes (aviación, ferrocarril, equipos marinos y vehículos a motor de 2 y 3 ruedas y agrícolas, embarcaciones y transporte por cable).
Sistemas que formen parte de los siguientes ámbitos: biometría, infraestructuras críticas, educación y formación profesional, empleo, acceso a servicios privados esenciales (como servicios crediticios o de seguros) y a servicios y prestaciones públicos esenciales (como servicios de emergencias o triajes) y disfrute de estos servicios y prestaciones.
Sistemas para la garantía del derecho, migración, asilo y gestión del control fronterizo.
Sistemas para su uso en la administración de justicia y en procesos democráticos.
¿Qué se entiende por infracción grave?
Los sistemas de inteligencia artificial deberán cumplir, entre otros, una serie de requisitos fundamentales y el incumplimiento de estas obligaciones conlleva sanciones proporcionales a la gravedad de la infracción:
Contar con un sistema de gestión de riesgos.
Supervisión humana.
Documentación técnica.
Sistema propio de gobernanza de datos.
Sistema de conservación de registros.
Sistema de transparencia y comunicación con los responsables de su despliegue.
Sistema de gestión de la calidad.
El Sandbox de la IA
Además, a partir del 2 de agosto de 2026, los países de la UE deberán contar con al menos un sandbox de IA, un entorno de pruebas controlado que permita desarrollar, entrenar y validar sistemas innovadores antes de su lanzamiento, en colaboración con la autoridad competente.
España se ha adelantado a esta exigencia con una convocatoria lanzada en diciembre de 2024 para seleccionar hasta 12 sistemas de IA de alto riesgo que serán evaluados durante un año. Los resultados permitirán elaborar guías técnicas que faciliten el cumplimiento normativo en este tipo de desarrollos.
En los últimos años, la Unión Europea ha liderado los esfuerzos para regular la IA a nivel supranacional, estableciendo un marco normativo que busca garantizar…
Para adaptarse con éxito al nuevo marco regulatorio, las empresas deben tomar medidas proactivas y, aunque el cumplimiento legal pueda parecer complejo en un principio,…
Regulación
Observatorio Anual
Próximamente lanzaremos el observatorio anual con una temática especial. Si quieres que te avisemos cuando esté disponible, suscríbete a nuestra newsletter.
Los campos marcados con (*) son obligatorios
Formulario de suscripción al boletín
Si nos das tu autorización, tus datos personales los trataremos en «Fundación Ibercaja Sostenible», como entidad legalmente responsable, para enviarte nuestra Newsletter e información sobre nuestras actividades. Para conocer cómo ejercer los derechos de acceso, rectificación, oposición, supresión, limitación y portabilidad, y el resto de información legal en materia de protección de datos, puedes pedirlo a través del correo privacidadgdpr@fundacionibercaja.es o accediendo a nuestra Política de Privacidad. Autorizo recibir la Newsletter e información sobre actividades organizadas o patrocinadas por la Fundación Ibercaja Sostenible.