Panorama y mapa de los actores en el sector de la inteligencia artificial responsable en España
La Inteligencia Artificial es ya el motor de transformación de nuestras economías, industrias y sociedades, el mercado global de la IA fue valorado en 279.220 millones de dólares en 2024 […]

La Inteligencia Artificial es ya el motor de transformación de nuestras economías, industrias y sociedades, el mercado global de la IA fue valorado en 279.220 millones de dólares en 2024 y se proyecta que crezca a una tasa anual compuesta (CAGR) del 35,9% entre 2025 y 2030, impulsado por una oleada constante de innovación tecnológica en sectores como salud, finanzas, automoción, retail e industria[1].
España no es ajena a esta transformación, según datos recientes, el mercado nacional de IA alcanzará los 1.400 millones de euros en 2025, con un crecimiento anual estimado del 27%[2]. Este despegue está vinculado a la incorporación de soluciones inteligentes en sectores clave como el financiero (53%), industrial (50%) y energético (48%), donde más del 60 % de las empresas españolas ya aplican tecnologías de IA para optimizar procesos, automatizar decisiones y explorar nuevos modelos de negocio[3].
Pero, este crecimiento trae consigo un imperativo ineludible, asegurar que la IA se desarrolle y despliegue de manera ética, responsable, inclusiva y segura. A medida que las decisiones automatizadas impactan en derechos fundamentales, empleos, servicios públicos y dinámicas sociales, la necesidad de estructuras de gobernanza, auditoría, formación y diseño ético se vuelve crítica.
En este marco, se ha desarrollado el presente mapa sobre el ecosistema de la IA Responsable en España, que actualiza y representa visualmente a los principales actores implicados en este ámbito.
Este estudio identifica y caracteriza a distintos actores clave —entre instituciones, centros de investigación, universidades, ONGs, asociaciones y empresas— que están promoviendo prácticas y tecnologías de IA responsables. Se pueden englobar en:
- Organismos públicos y entidades reguladoras: Instituciones responsables de diseñar políticas, normas y marcos de gobernanza que orientan el uso ético y seguro de la IA en España. Incluye agencias de supervisión, ministerios y órganos consultivos.
- Centros de investigación y universidades: Actores que generan conocimiento, innovación y formación en IA responsable, con aportaciones en áreas como la equidad algorítmica, la IA explicable (XAI) o el impacto social de la automatización.
- Iniciativas, asociaciones y proyectos colaborativos: Redes híbridas que conectan actores del ecosistema y promueven la ética en IA desde una lógica transversal y multiactor: think tanks, observatorios, consorcios sectoriales, entre otras.
- Empresas activas en el desarrollo de IA: Compañías consolidadas que están incorporando principios éticos en sus modelos de negocio, procesos de decisión y diseño de productos inteligentes, desde la banca hasta las telecomunicaciones.
- Startups emergentes: Nuevas empresas que integran la responsabilidad como parte del ADN de sus soluciones tecnológicas, demostrando que es posible innovar con impacto positivo desde el primer día.

Organismos públicos y entidades reguladoras

Lorenzo Contino, Presidente de AEDP
Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA)
Organismo del Ministerio de Asuntos Económicos y Transformación Digital que lidera la Estrategia Nacional de Inteligencia Artificial (ENIA), promoviendo una visión ética y enfocada en la tecnología y la IA sostenible que prioriza los derechos fundamentales. Ha impulsado iniciativas clave como la Carta de Derechos Digitales, y colabora activamente con industria y academia en guías de buenas prácticas para IA ética. También, coordina políticas públicas en IA, promueve la gobernanza responsable (por ejemplo, mediante marcos regulatorios) y colabora con expertos nacionales e internacionales en la materia (ha constituido un Consejo Asesor Internacional de IA para guiar el desarrollo futuro de estas tecnologías.
Agencia Española de Supervisión de la Inteligencia Artificial (AESIA)
Creada en 2023, AESIA es el primer organismo público dedicado exclusivamente a garantizar el uso ético, seguro y conforme a derecho de la inteligencia artificial en España y presidida por María Teresa Ledo Turiel. La Agencia actuará como autoridad independiente para velar por el cumplimiento del futuro Reglamento Europeo de IA (AI Act) y coordinará iniciativas como sandboxes regulatorios para probar sistemas de IA de forma controlada antes de su despliegue comercial. En esencia, busca fomentar un entorno de confianza que equilibre innovación y respeto a los valores fundamentales.
Agencia Española de Protección de Datos (AEPD)
Aunque su mandato principal es el cumplimiento de la normativa de datos personales, la AEPD juega un papel crítico en la ética de la IA dado que muchos sistemas inteligentes tratan información personal. La Agencia ha emitido directrices sobre transparencia algorítmica, evaluación de impacto y prevención de sesgos en sistemas automatizados. El presidente de la AEPD, Lorenzo Cotino Hueso, ha subrayado los retos de la IA para los derechos fundamentales y apoya el anteproyecto de Ley de gobernanza de la IA y, junto a Francisco Pérez Bes, han publicado un borrador del Plan Estratégico 2025-2030. Además, colabora estrechamente con la AESIA en la supervisión de los sistemas de IA de alto riesgo.
Centros de investigación y universidades

Nuria Oliver, Directora de ELLIS en Alicante
Asociación Española para la Inteligencia Artificial (AEPIA)
El principal organismo académico sin ánimo de lucro que reúne a la comunidad investigadora en inteligencia artificial en España. Creada en 1984 y presidida por Alicia Troncoso y Luis Magdalena, ha incorporado progresivamente una sensibilidad ética en sus líneas de acción. En sus congresos y conferencias (CAEPIA), organizados desde 2020, se han incluido sesiones específicas sobre IA para el bien común (AI4Good), transparencia, explicabilidad y justicia algorítmica. AEPIA también actúa como nodo de conexión entre grupos universitarios, centros I+D+I y plataformas tecnológicas, apoyando investigaciones centradas en IA explicable y responsable. Al fomentar este cambio cultural dentro de la comunidad investigadora, la asociación desempeña un papel crucial en alinear la ciencia española con los principios de confianza, equidad y rendición de cuentas.
Consejo Superior de Investigaciones Científicas (CSIC)
El mayor organismo público de investigación de España, presidido por María Eloísa del Pino Matute, subraya la necesidad de alinear la investigación científica con principios de sostenibilidad, inclusión y transparencia. Su centro más activo en este campo, el IIIA-CSIC, trabaja desde hace años en XAI, aprendizaje robusto y modelos de decisión con garantías éticas. Además, el CSIC ha creado un comité científico asesor en IA ética, que sirve de guía transversal para todos sus institutos, con el fin de evaluar riesgos, fomentar la equidad y prevenir impactos negativos en los derechos humanos. Su participación en plataformas como AI4EU y colaboraciones con la Comisión Europea posicionan al CSIC como un actor clave en la gobernanza científica de la IA en España.
Fundación ELLIS Alicante
Centro de excelencia en investigación perteneciente a la red europea ELLIS. La unidad española, ELLIS Alicante liderada por expertos como la ingeniera Nuria Oliver, está constituida como fundación sin ánimo de lucro está formada por un equipo científico dedicado a estudiar la intersección entre inteligencia artificial y sociedad, abordando problemas como la discriminación algorítmica, la opacidad de los modelos (“caja negra”), la violación de la privacidad o la manipulación del comportamiento. Sus líneas de trabajo incluyen; una IA que entienda a las personas (modelando comportamiento humano para fines sociales beneficiosos), una IA que interactúe de forma natural con nosotros (ej. asistentes inteligentes) y una IA en la que confiemos.
Tecnalia
Como principal centro privado de investigación aplicada en España y miembro de Basque Research & Technology Alliance, integra la ética en inteligencia artificial una de sus líneas estratégicas prioritarias. Su enfoque se basa en desarrollar tecnologías de IA que no solo sean eficientes y escalables, sino también confiables, explicables y sostenibles. El centro colabora con grandes empresas industriales, administraciones públicas y organizaciones sociales para diseñar soluciones que integren desde el origen principios como la equidad, la no discriminación, la transparencia y la rendición de cuentas, junto con OdiseIA, ha impulsado modelos de evaluación ética para entornos productivos, demostrando que la innovación tecnológica puede ir de la mano del impacto social positivo. Forman parte del programa Horizon Europe de la Comisión Europea.
Iniciativas, asociaciones y proyectos colaborativos

Francisco Hortigüela, Presidente de AMETIC
AMETIC (Comisión de IA & Big Data y Observatorio de IA)
La asociación AMETIC representa a la industria tecnológica en España y agrupa a decenas de empresas, entre ellas telecos, banca, energéticas y startups, en su Comisión de IA, desde donde promueve la ética y sostenibilidad en la aplicación de la IA. En 2022, AMETIC lanzó junto a 100 entidades el Observatorio de Inteligencia Artificial como espacio neutral para analizar e investigar el uso de la IA de forma ética y sostenible, conectando actores públicos y privados. Este observatorio publica informes periódicos sobre avances y tendencias, y nació precisamente con el objetivo de promover una práctica ética y segura de la IA en el país y también colabora con el think tank We The Humans en encuentros anuales de ética e IA, y defiende ante la Administración la importancia de criterios de confianza en el despliegue de la IA.
Forética
Organización empresarial dedicada a sostenibilidad y RSC en España, ha integrado de forma pionera la ética de la IA dentro de su agenda ESG Spain 2024. A través del Grupo de Acción en IA Responsable, lanzado en 2021, Forética reúne a más de 20 empresas e instituciones comprometidas con el uso ético, inclusivo y sostenible de tecnologías inteligentes. Esta iniciativa aborda la IA como una herramienta con enorme potencial, pero también con riesgos que deben ser gestionados desde el buen gobierno corporativo. Forética publica informes especializados sobre el impacto ambiental de los modelos de IA, los sesgos algorítmicos o la explicabilidad, y conecta su trabajo con los Objetivos de Desarrollo Sostenible, liderando el Consejo Empresarial Español para el Desarrollo Sostenible que lanzó recientemente la Visión 2020: El momento de la transofrmación. Colabora estrechamente con entidades como OdiseIA y la OCDE y empresas como Accenture, Amazon, Asisa, Coca cola o Microsoft, y promueve el desarrollo de capacidades éticas dentro de las organizaciones mediante guías, talleres y diálogos con alta dirección.
Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA)
Se consolida como una iniciativa independiente y multi-sectorial en España, presidido por Idoia Salazar para el análisis y promoción de la inteligencia artificial responsable. Fundado en 2019 por un grupo de expertos, organizaciones y empresas tecnológicas con el fin de analizar riesgos sociales de la IA (discriminación, privacidad, impacto laboral, etc.) y proponer soluciones. OdiseIA articula un ecosistema colaborativo que conecta a organizaciones públicas y privadas comprometidas con un desarrollo ético de la IA. Entre sus contribuciones más relevantes se encuentra la GuÍA de buenas prácticas en IA ética, elaborada junto a PwC, Google, IBM, Microsoft y Telefónica, que ofrece un marco práctico para implementar principios como la equidad, la explicabilidad o la rendición de cuentas en entornos reales. Además, organiza eventos de concienciación (OdiseIA4Good, hackathones, webinars), y participa en proyectos europeos.
IndesIA
Es un consorcio presidido por Valero Marín Sastrón, quien también es director general de Cliente y miembro del Comité Ejecutivo de Repsol. Está formado por grandes empresas industriales españolas (Repsol, Navantia, Gestamp, Inditex, Airbus, Técnicas Reunidas, entre otras), dirigido por Nuria Ávalos, que tiene como misión acelerar la adopción de la inteligencia artificial en la industria desde una perspectiva sostenible y centrada en el dato. Una de sus líneas más innovadoras es la elaboración de un toolkit práctico para el uso responsable de IA en fábricas inteligentes, desarrollado en colaboración con OdiseIA. Este kit ofrece herramientas de autoevaluación, principios adaptados al entorno productivo y guías sectoriales alineadas con el futuro reglamento europeo. Además de la publicación de su Marco de referencia de datos e inteligencia artificial para el sector industrial español, un enfoque práctico en el proceso de implantación de tecnologías de uso del dato e IA. IndesIA también trabaja en la capacitación del talento en IA ética industrial, fomenta la transparencia en el uso de datos industriales y articula colaboraciones con centros tecnológicos como Tecnalia.
Empresas activas en el desarrollo de IA

Yaiza Rubio, Chief Metaverse Officer en Telefónica
Telefónica
La multinacional de telecomunicaciones española ha sido pionera en Europa al formalizar una estrategia integral de IA ética, con la publicación de sus Principios de Inteligencia Artificial Responsable en 2018, revisados en 2024. Estos principios guían desde la privacidad y la explicabilidad hasta la sostenibilidad y la supervisión humana. La iniciativa es liderada por Yaiza Rubio, Chief Metaverse Officer y una de las voces visibles del impulso ético en IA dentro de la compañía. Telefónica ha instaurado un modelo organizativo ejemplar con la creación de la figura de RAI Champions en cada área de negocio y una comisión interna de seguimiento ético. La empresa colabora externamente en foros regulatorios y proyectos (fue coautora de la guía OdiseIA-PwC) para extender buenas prácticas en el sector.
BBVA
El banco ha incorporado principios de IA responsable en sus servicios financieros. Crea equipos de ciencia de datos focalizados en evitar sesgos en modelos de decisión automatizada para no incurrir en discriminación inadvertida. En colaboración con IBM Research, BBVA desarrolló recientemente un “stress test” para medir sesgos discriminatorios en modelos de IA generativa en español. La entidad también participa en foros internacionales de ética digital, apoya la creación de estándares para una IA transparente en finanzas, consciente de que la confianza del cliente y el cumplimiento regulatorio son fundamentales en la era de la banca digital y sigue estándares internacionales y mejores prácticas de la industria: participa en la iniciativa global AI Principles de la OECD.
Santander
El banco ha iniciado el desarrollo de una visión estratégica en torno a la inteligencia artificial con impacto positivo, incorporando la ética y la sostenibilidad como ejes emergentes de su transformación. Uno de sus proyectos más destacados es el Santander X Global Challenge | The AI Revolution, una iniciativa lanzada en 2023 junto con Microsoft y la Oxentia Foundation, que busca identificar y premiar a startups y scaleups de todo el mundo que desarrollen soluciones de IA con impacto positivo para la sociedad. Este reto, liderado por Diego Calascibetta, director global de Emprendimiento y Open Innovation de Santander Universidades, posiciona a la entidad como impulsora del emprendimiento responsable. El proyecto no solo ofrece premios económicos, sino también acceso a la comunidad Santander X 100, mentoría técnica con expertos de Microsoft, y la oportunidad de presentarse ante el fondo M12, Venture Capital de la tecnológica.
Startups emergentes en IA ética y responsable

Gemma Galdón Clavell, Fundadora de Eticas.ai
EXPAI
Spin-off de la Universitat Pompeu Fabra, EXPAI desarrolla una plataforma de IA explicable que permite comprender cómo y por qué un algoritmo toma ciertas decisiones, incluso para usuarios no técnicos. por un lado, desarrolla soluciones empresariales que permiten auditar modelos predictivos en tiempo real —desde sistemas de selección de personal hasta algoritmos de precios—; por otro, ha creado la EXPAI Academy, un espacio formativo y divulgativo que busca desmitificar la IA y hacer accesibles sus mecanismos a un público más amplio. En ambos casos, la startup apuesta por traducir lo técnico en lenguaje entendible, eliminando barreras entre desarrolladores, decisores y ciudadanía. El equipo fundador, integrado por Dani, Javier, Pablo y Carles, surgió de un trabajo académico sobre precios de pisos turísticos, y pronto identificó una necesidad generalizada: muchas empresas estaban usando algoritmos sin saber realmente cómo ni por qué obtenían ciertos resultados.
Agforest
Esta joven startup, con sede comercial en Madrid y un equipo técnico basado en Málaga, aplica IA geoespacial (GeoAI) para el análisis y la transformación de entornos urbanos y naturales, sentando las bases de una economía circular y regenerativa. Sus soluciones se aplican a la planificación urbana, la gestión del territorio, la eficiencia energética y la recuperación ecológica. Desde el diseño de infraestructuras resilientes hasta la optimización de la movilidad verde, Agforest integra datos satelitales, sensores y modelado predictivo para ofrecer una IA útil, visible y con propósito. Además de su compromiso tecnológico, Agforest impulsa un diálogo transversal entre actores públicos y privados, contribuyendo a los objetivos del Pacto Verde Europeo y actuando como nexo entre innovación, política ambiental y desarrollo económico justo.
Eticas.ai
Eticas.ai es una de las organizaciones de referencia en Europa en materia de auditoría algorítmica, detección de sesgos y supervisión de sistemas de inteligencia artificial. Fundada y dirigida por la investigadora Dra. Gemma Galdón-Clavell, Eticas combina más de una década de experiencia con una visión firme: no basta con desarrollar tecnología avanzada, es necesario garantizar que su uso sea justo, transparente y sostenible. Especializada en soluciones B2B y software como servicio (SaaS), Eticas ha creado ITACA, una plataforma propia que permite automatizar la detección, medición y seguimiento de sesgos en modelos predictivos, generativos o biométricos. La herramienta analiza aspectos críticos como alucinaciones, procedencia de datos, desinformación y huella ambiental, facilitando el cumplimiento con marcos regulatorios actuales y emergentes.
AyGLOO
Startup española que ha desarrollado una solución de AI Observability “no-code”, diseñada para monitorizar, auditar y explicar de forma comprensible los sistemas de machine learning desplegados en producción. En un contexto donde muchas organizaciones operan modelos opacos sin control efectivo sobre su rendimiento o sus riesgos, AyGLOO introduce una herramienta intuitiva, visual y técnica. Aborda cinco de los retos críticos de la inteligencia artificial aplicada; la degradación del rendimiento de los modelos, la opacidad de sus mecanismos de decisión, la detección y mitigación de sesgos y errores, la falta de monitorización continua, y los problemas de fiabilidad en producción. Su solución se basa en tecnología propia, como los Dynamic Surrogate Models, que permiten transformar modelos complejos en representaciones comprensibles o SHAP-ISA (Intelligent Segment Analysis), para detectar segmentos problemáticos. Su propuesta se dirige especialmente a empresas medianas que buscan adaptar sus decisiones algorítmicas a exigencias regulatorias.
Tendencias observadas a lo largo del análisis
A partir del análisis del ecosistema, se observa que los esfuerzos nacionales e internacionales no se concentran en un solo ámbito, sino que están distribuidos en diferentes vectores, que juntos conforman el esqueleto de un modelo de panorama en torno a la inteligencia artificial.
- En primer lugar, se está invirtiendo en legislación, regulación y gobernanza. El proceso de institucionalización de la IA responsable en España ha ganado ritmo con la creación de organizaciones como la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), la incorporación de criterios éticos en planes nacionales como España Digital 2026, y la alineación activa con el Reglamento Europeo de IA (AI Act), impulsando también nuevos espacios de gobernanza, mecanismos de evaluación y modelos de supervisión con capacidad de influencia internacional. También se orientan a fortalecer líneas de investigación estratégicas, como la IA centrada en el ser humano, los modelos generativos responsables o la sostenibilidad algorítmica.
- En segundo lugar, se está invirtiendo en infraestructura científico-tecnológica. Tanto en España como en Europa, se están financiando cátedras, centros de excelencia, laboratorios y plataformas interuniversitarias dedicadas a la IA responsable, como la cátedra Repsol–UGR o el Instituto DaSCI. Estas inversiones permiten crear conocimiento aplicado en ámbitos como la auditabilidad, la equidad algorítmica o la explicabilidad técnica. También se orientan a fortalecer líneas de investigación estratégicas, como la IA centrada en el ser humano, los modelos generativos responsables o la sostenibilidad algorítmica.
- Por otro lado, se puede observar como también se está invirtiendo en educación, formación y cultura crítica. La proliferación de programas formativos demuestra que la IA responsable se está integrando en los itinerarios educativos, no solo para perfiles técnicos, sino también para profesionales del derecho, la economía, la gestión pública o el sector social. Esta inversión formativa responde a la necesidad de construir una alfabetización ética capaz de anticipar dilemas, interpretar impactos y participar en el diseño democrático de la IA.
En adición, proyectos orientados a la salud pública, la regeneración ambiental, la accesibilidad o la educación inclusiva están demostrando que la IA también puede ser un instrumento de política social, de bienestar territorial y de garantía de derechos y, nacionalmente, se está apostando por orientarnos hacia esta tendencia de bienestar social y medioambiental como una infraestructura de confianza colectiva. Emergiendo así un panorama global donde la inteligencia artificial se concibe como un bien que puede y debe ser regulado, gobernado, comprendido y aplicado bajo principios éticos y sostenibles.
Si tú organización no aparece en el mapa y crees que deberíais formar parte del mismo, ponte en contacto con nosotros.
Referencias
[1] GRAND VIEW RESEARCH. Artificial Intelligence Market Size, Share & Trends Analysis Report. [Consultado 10-04-2025]. Disponible en: https://www.grandviewresearch.com/industry-analysis/artificial-intelligence-ai-
[2] PLAIN CONCEPTS. Informe de Inteligencia Artificial 2022. [Consultado 10-04-2025]. Disponible en: https://cdn.plainconcepts.com/wp-content/uploads/2022/03/Informe-Inteligencia-Artificial-2022.pdf
[3] DITRENDIA. Informe IA 2025. [Consultado 10-04-2025]. Disponible en: https://mktefa.ditrendia.es/hubfs/Informes/Ditrendia-Infome-IA-2025.pdf