AI Act
Accede al marco legal europeo que regula la inteligencia artificial con enfoque en riesgos y derechos fundamentales.
Desde Aragón Privacidad, Asociación de Profesionales de la Privacidad en Aragón, nos han compartido una reflexión sobre un tema de máxima relevancia: la relación entre inteligencia artificial y protección de […]
Desde Aragón Privacidad, Asociación de Profesionales de la Privacidad en Aragón, nos han compartido una reflexión sobre un tema de máxima relevancia: la relación entre inteligencia artificial y protección de datos personales. Bajo el título “Inteligencia Artificial y Privacidad: ¿puede la tecnología respetar nuestros derechos?”, esta aportación invita a analizar los retos y oportunidades que plantea el avance de la IA en el respeto a los derechos fundamentales.
En plena era de la digitalización, la inteligencia artificial (IA) se ha convertido en uno de los motores más poderosos de transformación económica y social. Desde la predicción de enfermedades hasta la gestión del tráfico urbano o la automatización de procesos jurídicos, la IA promete soluciones eficaces y disruptivas. Sin embargo, este desarrollo vertiginoso plantea un interrogante ineludible: ¿están protegidos nuestros datos personales en este nuevo entorno algorítmico?
La inteligencia artificial funciona alimentándose de datos, muchos de ellos personales. Nombres, comportamientos, historiales médicos, hábitos de consumo o incluso emociones se convierten en materia prima de sistemas que aprenden, predicen y deciden. Esta capacidad, lejos de ser neutral, puede afectar de forma directa a la intimidad, la autonomía y los derechos fundamentales de las personas.
Los marcos legales existentes —principalmente el Reglamento General de Protección de Datos (RGPD) en Europa y la Ley Orgánica 3/2018 de Protección de Datos y Garantía de los Derechos Digitales (LOPDGDD) en España— ofrecen herramientas para hacer frente a estos desafíos. Pero la velocidad de la tecnología obliga a repensar y reforzar su aplicación, especialmente en contextos automatizados.
Y aunque el RGPD sigue siendo el pilar normativo en materia de protección de datos, resulta esencial tener en cuenta el nuevo Reglamento Europeo de Inteligencia Artificial (AI Act), aprobado en 2024. Este reglamento introduce un enfoque basado en riesgos para clasificar y regular los sistemas de IA, estableciendo obligaciones específicas según el nivel de riesgo (inadmisible, alto, limitado o mínimo). Además, impone requisitos estrictos a los sistemas de alto riesgo, como los utilizados en contratación laboral, educación, crédito o seguridad, muchos de los cuales implican tratamiento de datos personales.
El AI Act y el RGPD deben aplicarse de forma complementaria, ya que ambos persiguen garantizar que los sistemas de IA respeten los derechos fundamentales. En este marco, la privacidad no se limita a ser una exigencia sectorial, sino que se convierte en un principio transversal para todo el ciclo de vida de los sistemas inteligentes, desde su diseño hasta su uso y supervisión.
Uno de los instrumentos más poderosos del RGPD es la Evaluación de Impacto en Protección de Datos (EIPD). Este análisis es obligatorio cuando se prevén tratamientos de datos que puedan suponer un alto riesgo para los derechos de las personas, como los sistemas de IA que toman decisiones automatizadas, perfilan comportamientos o analizan datos sensibles. No se trata de bloquear la innovación, sino de anticipar los riesgos y garantizar que los sistemas sean diseñados de forma ética y responsable.
Una de las principales preocupaciones que rodean a la IA es su opacidad. ¿Por qué un sistema ha tomado una determinada decisión? ¿Qué datos ha utilizado? ¿Cómo puedo impugnar un resultado? El RGPD impone la obligación de informar de forma clara y comprensible sobre el uso de datos personales, incluyendo si se aplican algoritmos de toma de decisiones automatizada. Además, reconoce el derecho de los ciudadanos a no ser objeto de decisiones exclusivamente basadas en el tratamiento automatizado, así como a solicitar una intervención humana significativa.
La protección de datos no puede ser un parche posterior. El RGPD establece que la privacidad debe estar incorporada desde el diseño y por defecto. Esto implica que los sistemas de IA deben recoger solo los datos estrictamente necesarios, aplicar medidas de anonimización o seudonimización siempre que sea posible, y configurar sus funcionalidades con la opción más respetuosa para el usuario como estándar.
Frente a los riesgos de fuga, uso indebido o manipulación de datos, las organizaciones deben implantar medidas de seguridad técnicas y organizativas, como el cifrado, la trazabilidad de accesos o planes de respuesta ante brechas. Además, deben contar con una estructura de gobernanza clara, que incluya responsables del tratamiento, contratos adecuados con terceros y, en muchos casos, la designación de un Delegado de Protección de Datos (DPO).
Lejos de ser un obstáculo, la protección de datos representa una oportunidad estratégica para el desarrollo de una inteligencia artificial confiable, respetuosa y sostenible. El cumplimiento normativo no solo protege a las personas, sino que refuerza la credibilidad de los sistemas, fomenta la innovación segura y posiciona a las organizaciones como líderes responsables.
La inteligencia artificial está aquí para quedarse. La pregunta ya no es si debe regularse, sino cómo garantizamos que respete los derechos fundamentales que tanto ha costado conquistar. En este contexto, la protección de datos no es solo un requisito legal: es la brújula ética que debe guiar el futuro de la tecnología.
Ainara Enériz Auría
Secretaria General de Aragón Privacidad