Saltar al contenido

Regulación Internacional: Leyes De La IA

Tiempo estimado de lectura: 5 minutos

¿Qué leyes/reglamentos me afectan para hacer un sistema de IA?

Si estás trabajando con inteligencia artificial, ya sea desarrollando un sistema, aplicándolo en tu empresa o simplemente utilizándolo de forma personal, hay varias normas que pueden aplicarte. Estas regulaciones se organizan en dos bloques principales: la protección de datos personales y la regulación específica sobre inteligencia artificial.

Desde el punto de vista de los datos, sigue siendo obligatorio cumplir con el Reglamento General de Protección de Datos (GDPR). Cualquier sistema de IA que recoja, procese o genere información vinculada a personas físicas debe respetar los principios del GDPR: consentimiento, minimización de datos, transparencia, y derechos de acceso y oposición, entre otros.

Desde el punto de vista de la inteligencia artificial en sí misma, hay dos referencias clave: el AI Act y la ley española que está en fase de anteproyecto. Ambos textos afectan de forma distinta dependiendo de si eres una empresa o un usuario particular.

AI Act

El AI Act establece un marco legal común en toda la Unión Europea basado en el riesgo del uso que se haga de la inteligencia artificial. Clasifica los sistemas en cuatro niveles: inaceptable, alto, limitado y mínimo. Cada nivel implica unas obligaciones distintas, que también dependen del tipo de actor involucrado.

Si soy una empresa

Si tu organización desarrolla o utiliza sistemas de IA, estás obligada a:

  • Identificar qué sistemas de IA utilizas y clasificarlos según su nivel de riesgo.
  • Cumplir con requisitos técnicos y de supervisión para los sistemas de alto riesgo (por ejemplo, los que se usan en contratación, crédito, educación o sanidad).
  • Garantizar la transparencia y trazabilidad de los procesos automatizados.
  • Documentar adecuadamente el funcionamiento del sistema y sus datos de entrenamiento.
  • Etiquetar cualquier contenido generado por IA antes de difundirlo.
  • Revisar los contratos con proveedores tecnológicos y exigir garantías de cumplimiento.

En el caso de sistemas prohibidos (como los que manipulan conductas, aplican vigilancia biométrica masiva o clasifican socialmente a las personas), el uso está completamente vetado.

Podrás encontrar más información sobre como adaptar tu negocio al nuevo marco regulatorio en nuestras píldoras.

Si soy particular

Si usas herramientas de inteligencia artificial a título personal —por ejemplo, generadores de texto, imagen o voz— también se te aplican ciertas obligaciones:

  • Si compartes contenido generado por IA, debes identificarlo claramente como tal.
  • No puedes utilizar IA para engañar, discriminar o manipular a otras personas.
  • Si una organización toma decisiones sobre ti mediante IA, tienes derecho a saberlo y a solicitar explicaciones.
  • También puedes presentar reclamaciones si consideras que tus derechos han sido vulnerados por el uso de un sistema automatizado.

Ley española

España ha dado un paso adicional con la elaboración de una ley nacional para regular el uso y la gobernanza de la inteligencia artificial. Aunque se encuentra aún en fase de anteproyecto, este texto refuerza el AI Act y define con más detalle aspectos como el etiquetado obligatorio de contenidos generados por IA, la prohibición de prácticas manipuladoras, o las sanciones en caso de infracción, que pueden alcanzar hasta 35 millones de euros o el 7 % de la facturación anual global de una empresa.

¿Quién me va a vigilar?

En España, la autoridad principal encargada de supervisar el uso de la inteligencia artificial será la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA). Esta agencia pública, pionera en Europa, evaluará los sistemas de alto riesgo, coordinará acciones con organismos europeos y podrá aplicar sanciones en caso de incumplimiento.

Además, otros organismos asumirán funciones específicas según el ámbito: por ejemplo, la Agencia Española de Protección de Datos (AEPD) en lo que respecta al tratamiento de datos personales, o el Consejo General del Poder Judicial en el ámbito de la justicia.

En el plano europeo, la Oficina Europea de Inteligencia Artificial será el organismo central encargado de coordinar la aplicación del AI Act en todos los Estados miembros.

¿Qué no puedo hacer con la IA?

El AI Act establece una lista clara de prácticas prohibidas con independencia del perfil del usuario. Estos son algunos ejemplos:

  • Sistemas que manipulen el comportamiento de las personas mediante técnicas subliminales.
  • Aplicaciones que exploten vulnerabilidades de colectivos en situación de especial sensibilidad (por edad, discapacidad o condiciones socioeconómicas).
  • Herramientas que clasifiquen a personas según características biométricas, creencias, orientación sexual o convicciones personales.
  • Sistemas de reconocimiento facial en espacios públicos en tiempo real con fines de vigilancia masiva.
  • Sistemas de puntuación social que asignen ventajas o restricciones según el comportamiento observado.

Además, todos los contenidos generados por inteligencia artificial deberán ser claramente etiquetados como tales. Esto afecta a imágenes, vídeos, audios, textos u otros materiales creados mediante sistemas automáticos.

¿Qué ha pasado hasta ahora?

El desarrollo normativo en torno a la inteligencia artificial ha seguido una hoja de ruta clara desde 2019. Primero se publicaron las directrices éticas para una IA fiable, después llegó la propuesta del AI Act, seguida por su aprobación en 2024 y, finalmente, por la puesta en marcha de agencias como AESIA y la Oficina Europea. España ha acompañado estos avances con su propia Estrategia Nacional de Inteligencia Artificial, la creación de una ley nacional y la participación en iniciativas como el sandbox de IA.

Este marco está en plena fase de implementación progresiva. Se prevé que entre 2024 y 2026 entren en vigor las diferentes obligaciones para empresas y particulares según el tipo de sistema de IA, su nivel de riesgo y el uso que se le dé.