Obligaciones para empresas vs. usuarios particulares en el uso de IA

Tanto el AI Act como la Ley española para el Buen Uso y la Gobernanza de la IA marcan un antes y un después en la forma en que ha […]

Tanto el AI Act como la Ley española para el Buen Uso y la Gobernanza de la IA marcan un antes y un después en la forma en que ha de desarrollar, comercializar y utilizar cualquier sistema de inteligencia artificial. Esto tiene implicaciones que se han de tener en cuenta desde diferentes perspectivas:

Para pymes y grandes empresas

El AI Act y la ley española obligan a que las empresas conozcan y gestionen el nivel de riesgo asociado a los sistemas de inteligencia artificial que desarrollan o utilizan, según la clasificación de cuatro niveles establecida por el marco europeo.

Los sistemas de alto riesgo, como los que se usan para seleccionar candidatos a un empleo, evaluar solvencias financieras o tomar decisiones médicas, están sometidos a obligaciones muy estrictas y, por tanto, las empresas deben asegurarse de:

  • Realizar evaluaciones de seguridad.
  • Mantener registros detallados de los modelos algorítmicos.
  • Garantizar la supervisión humana constante.
  • Demostrar que la IA utilizada no discrimina ni vulnera derechos fundamentales.

Por otro lado, la ley establece obligaciones específicas para las empresas proveedoras y usuarias de IA:

  • Proveedores y desarrolladores de IA deberán:​
    • Documentar procesos y evaluar riesgos.​
    • Someterse a certificación si el sistema es de alto riesgo.​
  • Empresas usuarias de IA deberán:​
    • Supervisar el uso correcto de los sistemas.​
    • Informar a usuarios si hay decisiones automatizadas.​
    • Asegurarse de trabajar con proveedores conformes a la ley.

Además, cualquier empresa que genere contenidos con IA (como textos, vídeos, audios, imágenes o incluso mensajes automáticos) deberá etiquetarlos claramente, para que el receptor sepa que ha sido creado o modificado mediante inteligencia artificial. Esto tiene un impacto directo, por ejemplo, en medios de comunicación, marketing digital, agencias creativas o desarrolladores de asistentes virtuales, pero también en cualquier departamento de una organización que involucre este tipo de actividades.

Por otro lado, se ha de tener en cuenta que está expresamente prohibido el uso de IA para:

  • Manipular a las personas o su imagen.
  • Explotar vulnerabilidades por edad, discapacidad o situación económica.
  • Implementar sistemas de vigilancia biométrica masiva.

Para directivos, jefes de área o responsables de proyectos:

Tienen la responsabilidad de asegurarse de que su empresa cumple con la normativa. Esto implica evaluar con criterio el uso que se da a la IA tanto en los distintos procesos internos, como en cualquier producto o servicio ofrecido, ya sea de forma directa o a través de una tercera parte. Por lo tanto, si la empresa utiliza una solución de IA de un proveedor externo, también es necesario comprobar que este cumple con los requisitos legales.

Para empleados que trabajen con herramientas de IA:

Aunque directamente no sean responsables legales, los profesionales y colaboradores también juegan un papel clave en el cumplimiento de la ley. Por ejemplo, si trabajan en entornos donde se crean contenidos con IA, deberán asegurarse de que estos se etiquetan correctamente y notificarlo en caso contrario. Además, en procesos donde la IA toma decisiones (por ejemplo, asignación de tareas, filtrado de solicitudes, etc.), pueden formar parte del mecanismo de supervisión humana que exige la ley.

Para ciudadanos y usuarios particulares

Cualquier persona que utilice herramientas de IA a título individual, ya sean generadores de imágenes o textos, asistentes de voz, editores automáticos de vídeo, o aplicaciones que transforman rostros, deberá tener en cuenta que está obligada a identificar como contenido generado por IA todo lo que publique, y que haya sido creado con estas tecnologías. Por ejemplo, cuando se comparte un vídeo manipulado con IA en redes sociales, deberá señalar que no es contenido auténtico.  En los casos más graves, si una persona utiliza IA para manipular, discriminar o difundir contenido engañoso sin advertirlo, puede también enfrentar sanciones.

Por otro lado, el marco normativo también establece que, como ciudadano, existen una serie de nuevos derechos:

  • Poder exigir a una empresa o institución que informe sobre está empleando IA con sus datos personales.
  • Ser informado cuando una decisión automatizada le afecte significativamente (por ejemplo, en una solicitud de empleo o crédito).
  • Poder reclamar cuando se tiene sospecha de que una herramienta de IA ha vulnerado los derechos fundamentales.