AI Act
Accede al marco legal europeo que regula la inteligencia artificial con enfoque en riesgos y derechos fundamentales.
Tanto el AI Act como la Ley española para el Buen Uso y la Gobernanza de la IA marcan un antes y un después en la forma en que ha […]
Tanto el AI Act como la Ley española para el Buen Uso y la Gobernanza de la IA marcan un antes y un después en la forma en que ha de desarrollar, comercializar y utilizar cualquier sistema de inteligencia artificial. Esto tiene implicaciones que se han de tener en cuenta desde diferentes perspectivas:
El AI Act y la ley española obligan a que las empresas conozcan y gestionen el nivel de riesgo asociado a los sistemas de inteligencia artificial que desarrollan o utilizan, según la clasificación de cuatro niveles establecida por el marco europeo.
Los sistemas de alto riesgo, como los que se usan para seleccionar candidatos a un empleo, evaluar solvencias financieras o tomar decisiones médicas, están sometidos a obligaciones muy estrictas y, por tanto, las empresas deben asegurarse de:
Por otro lado, la ley establece obligaciones específicas para las empresas proveedoras y usuarias de IA:
Además, cualquier empresa que genere contenidos con IA (como textos, vídeos, audios, imágenes o incluso mensajes automáticos) deberá etiquetarlos claramente, para que el receptor sepa que ha sido creado o modificado mediante inteligencia artificial. Esto tiene un impacto directo, por ejemplo, en medios de comunicación, marketing digital, agencias creativas o desarrolladores de asistentes virtuales, pero también en cualquier departamento de una organización que involucre este tipo de actividades.
Por otro lado, se ha de tener en cuenta que está expresamente prohibido el uso de IA para:
Para directivos, jefes de área o responsables de proyectos:
Tienen la responsabilidad de asegurarse de que su empresa cumple con la normativa. Esto implica evaluar con criterio el uso que se da a la IA tanto en los distintos procesos internos, como en cualquier producto o servicio ofrecido, ya sea de forma directa o a través de una tercera parte. Por lo tanto, si la empresa utiliza una solución de IA de un proveedor externo, también es necesario comprobar que este cumple con los requisitos legales.
Para empleados que trabajen con herramientas de IA:
Aunque directamente no sean responsables legales, los profesionales y colaboradores también juegan un papel clave en el cumplimiento de la ley. Por ejemplo, si trabajan en entornos donde se crean contenidos con IA, deberán asegurarse de que estos se etiquetan correctamente y notificarlo en caso contrario. Además, en procesos donde la IA toma decisiones (por ejemplo, asignación de tareas, filtrado de solicitudes, etc.), pueden formar parte del mecanismo de supervisión humana que exige la ley.
Cualquier persona que utilice herramientas de IA a título individual, ya sean generadores de imágenes o textos, asistentes de voz, editores automáticos de vídeo, o aplicaciones que transforman rostros, deberá tener en cuenta que está obligada a identificar como contenido generado por IA todo lo que publique, y que haya sido creado con estas tecnologías. Por ejemplo, cuando se comparte un vídeo manipulado con IA en redes sociales, deberá señalar que no es contenido auténtico. En los casos más graves, si una persona utiliza IA para manipular, discriminar o difundir contenido engañoso sin advertirlo, puede también enfrentar sanciones.
Por otro lado, el marco normativo también establece que, como ciudadano, existen una serie de nuevos derechos: