La IA en la administración pública española

Desafíos y Soluciones para la Administración Pública Española frente a la Inteligencia Artificial

La inteligencia artificial está transformando rápidamente todos los sectores de la sociedad, incluida la administración pública. España se encuentra en un momento crucial donde debe equilibrar el aprovechamiento de las oportunidades que ofrece la IA con la gestión de sus riesgos inherentes. Este documento analiza los principales peligros que la administración pública española debe afrontar en relación con la IA, presentando ejemplos concretos y proponiendo soluciones factibles dentro del marco regulatorio actual y emergente.

La situación actual de la IA en la administración pública española

España ha dado pasos significativos para posicionarse en la vanguardia de la regulación e implementación de la IA. El Consejo de Ministros aprobó recientemente la Estrategia de Inteligencia Artificial 2024, un plan ambicioso que contará con 1.500 millones de euros adicionales a los 600 millones ya movilizados, procedentes fundamentalmente del Plan de Recuperación, Transformación y Resiliencia. Esta estrategia busca consolidar y expandir el uso de la IA tanto en el conjunto de la economía como en la administración pública.

Adicionalmente, en marzo de 2025, el Gobierno dio luz verde al anteproyecto de ley de gobernanza de la Inteligencia Artificial, que adapta la legislación española al reglamento europeo de IA. Entre las iniciativas más destacadas se encuentra la puesta en marcha de un Sandbox en materia de IA, un proyecto novedoso destinado a ayudar a proveedores, responsables, operadores y reguladores a establecer un marco claro de cumplimiento de requisitos y obligaciones.

Sin embargo, a pesar de estos avances, persisten importantes desafíos que requieren una atención urgente por parte de las administraciones públicas.

Principales riesgos y desafíos de la IA para la administración pública

La amenaza a la privacidad y seguridad ciudadana

Uno de los peligros más evidentes es el relacionado con la privacidad y la seguridad. Los avances en capacidades analíticas de la IA presentan riesgos significativos para la protección de datos personales.

Como ilustra el ejemplo de los modelos o3 y o4-mini de ChatGPT, la tecnología actual permite analizar imágenes con un nivel de detalle sin precedentes. Estos modelos pueden examinar fotografías, aplicar técnicas de recorte, rotación y zoom para identificar detalles visuales y, lo más preocupante, deducir ubicaciones geográficas con notable precisión, incluso en imágenes borrosas o distorsionadas.

Esta capacidad plantea graves preocupaciones para la administración pública, que debe proteger tanto la información sensible de sus instalaciones y documentos como la privacidad de los ciudadanos. Imaginemos el escenario donde una fotografía aparentemente inocua de un documento oficial o una instalación gubernamental pudiera revelar información confidencial o ubicaciones protegidas a través de estos análisis avanzados.

La homogeneización cultural y pérdida de diversidad

Otro riesgo significativo es la posible homogeneización cultural. Los sistemas de IA podrían representar excesivamente ciertas culturas, resultando en una estandarización del pensamiento y la expresión cultural.

Este fenómeno, que podríamos denominar “starbucksización cultural”, amenaza con erosionar la rica diversidad cultural de España. Las administraciones públicas, especialmente aquellas con competencias en cultura y educación, enfrentan el desafío de preservar la pluralidad lingüística y cultural del país frente a algoritmos que tienden a priorizar contenidos y enfoques dominantes.

A medida que las tecnologías se integran en la vida cotidiana, existe el riesgo de que prácticas culturales tradicionales, lenguas minoritarias y formas de vida únicas desaparezcan, reemplazadas por una homogeneización impulsada por la tecnología. La administración pública tiene la responsabilidad de proteger este patrimonio cultural diverso, especialmente en un país con la riqueza lingüística y cultural de España.

La opacidad algorítmica y falta de transparencia

La falta de transparencia en el uso de algoritmos e IA por parte de las administraciones públicas constituye otro desafío fundamental. A pesar de que la legislación ya contempla obligaciones en este ámbito, la realidad muestra importantes carencias.

En España, la Ley 1/2022 de Transparencia y Buen Gobierno de la Comunitat Valenciana fue pionera al obligar a las administraciones públicas a publicar “la relación de sistemas de inteligencia artificial de alto riesgo” y los “sistemas automatizados y sistemas de inteligencia artificial de uso general cuyo empleo impacte de manera significativa en los procedimientos administrativos o la prestación de los servicios públicos”.

Sin embargo, la implementación efectiva de estas obligaciones de transparencia sigue siendo limitada. Como ocurre en el ámbito privado, donde un estudio revela que las empresas españolas suspenden en transparencia algorítmica, la administración pública se enfrenta a retos similares.

El dilema ético: ¿ocultar o declarar el uso de IA?

El caso de Cluely, una herramienta de asistencia invisible basada en inteligencia artificial, plantea una reflexión crucial para la administración pública: ¿sigue siendo ético si la IA simplemente ayuda a dar lo mejor del servicio público sin declarar su uso?

Este dilema se extiende a diversos sectores públicos. Profesionales de ámbitos como la medicina pública o la educación podrían argumentar que no usar IA sería una desventaja competitiva, o incluso una negligencia frente a las posibilidades de mejora. Sin embargo, la transparencia en el uso de estas herramientas es fundamental para mantener la confianza ciudadana en las instituciones.

Tecnologías como ChatGPT (modelos más recientes), Adobe Firefly o Microsoft Copilot están integrando marcas de agua invisibles y etiquetas de procedencia para identificar claramente si un contenido fue generado por IA. La administración pública debería adoptar y exigir estas prácticas para garantizar la transparencia en sus comunicaciones y servicios.

Soluciones y aproximaciones para la administración pública española

Implementación de registros centrales de algoritmos e IA

Una solución concreta y ya demandada por organizaciones civiles es la creación de un registro central de algoritmos transparente. La coalición IA Ciudadana ha solicitado al Gobierno español esta medida para evitar discriminaciones derivadas del uso de la inteligencia artificial.

Este registro permitiría conocer qué sistemas de IA utiliza cada administración, sus finalidades, las bases de datos empleadas y los criterios que guían sus decisiones. La experiencia pionera de la Comunitat Valenciana, con su obligación legal de publicar los sistemas de IA utilizados, podría servir como modelo para una implementación a nivel nacional.

Desarrollo de marcos éticos específicos para la administración pública

La administración pública requiere marcos éticos específicos que aborden los dilemas particulares del sector público. Estos marcos deberían:

  1. Establecer criterios claros sobre cuándo y cómo utilizar la IA en procesos administrativos.
  2. Definir protocolos de transparencia que garanticen el derecho de los ciudadanos a saber cuándo están interactuando con sistemas automatizados.
  3. Incorporar mecanismos de supervisión humana en todas las decisiones críticas.
  4. Asegurar que los sistemas de IA respetan y promueven la diversidad cultural y lingüística.

Refuerzo de las capacidades técnicas y formativas

La Estrategia de IA 2024 ya contempla el refuerzo de las capacidades para el desarrollo de la IA, incluyendo inversiones significativas en supercomputación. Esta iniciativa debe complementarse con:

  1. Programas específicos de formación para funcionarios públicos sobre el uso ético y responsable de la IA.
  2. Creación de unidades especializadas en evaluación de riesgos algorítmicos dentro de las administraciones.
  3. Colaboración con universidades y centros de investigación para desarrollar soluciones adaptadas a las necesidades específicas del sector público.

Un ejemplo destacado es el laboratorio de innovación puesto en marcha por el Ministerio para la Transformación Digital, que centraliza los casos piloto de IA y el desarrollo de soluciones innovadoras para el sector público nacional, con 35 casos de uso seleccionados para su implementación.

Implementación de sistemas de marcado y trazabilidad

Siguiendo el ejemplo de empresas tecnológicas como Amazon, TikTok o Meta, que utilizan el protocolo C2PA para etiquetar automáticamente el contenido generado por IA, la administración pública debería:

  1. Adoptar estándares de marcado para todos los contenidos generados por IA.
  2. Implementar sistemas de trazabilidad que permitan conocer el origen y proceso de creación de cada documento o decisión automatizada.
  3. Establecer requisitos de transparencia para proveedores externos de soluciones de IA.

Protección activa de la diversidad cultural

Para contrarrestar el riesgo de homogeneización cultural, la administración pública española debería:

  1. Desarrollar programas específicos para digitalizar y preservar expresiones culturales minoritarias.
  2. Exigir que los sistemas de IA utilizados en ámbitos culturales y educativos incorporen criterios de diversidad.
  3. Financiar investigaciones sobre cómo la IA puede contribuir a preservar y promover la diversidad cultural, en lugar de erosionarla.

Conclusiones y recomendaciones finales

La administración pública española se encuentra en un momento decisivo para definir su relación con la inteligencia artificial. Si bien el marco regulatorio europeo y las iniciativas nacionales recientes marcan un camino prometedor, es necesario traducir estos principios en acciones concretas.

Las recomendaciones clave para la administración pública española incluyen:

  1. Priorizar la transparencia: Establecer un registro nacional de sistemas de IA utilizados por todas las administraciones públicas, accesible a los ciudadanos.
  2. Garantizar la supervisión humana: Asegurar que todas las decisiones significativas basadas en IA mantengan un “humano en el circuito” capaz de revisar y, si es necesario, corregir las recomendaciones automatizadas.
  3. Invertir en formación: Desarrollar programas específicos para que los funcionarios públicos comprendan las capacidades y limitaciones de la IA.
  4. Proteger activamente la diversidad: Implementar políticas que aseguren que los sistemas de IA respetan y promueven la diversidad cultural y lingüística de España.
  5. Fomentar la participación ciudadana: Crear mecanismos para que los ciudadanos puedan contribuir al diseño de políticas sobre IA y reportar problemas relacionados con sistemas automatizados.

El futuro de la administración pública española dependerá en gran medida de su capacidad para aprovechar el potencial de la IA mientras gestiona eficazmente sus riesgos. Las decisiones que se tomen ahora definirán el marco de relación entre ciudadanía, tecnología y administraciones públicas durante las próximas décadas.


Actualización 04/2025

La IA en Emiratos Árabes: retos y aprendizajes

En muchas conversaciones sobre transformación digital en el sector público español, solemos poner el foco casi siempre en Estados Unidos, que es el máximo referente. Ni siquiera en Europa se ha avanzado a ese nivel para allanar el paso de la inteligencia artificial en la administración pública. Pero Emiratos Árabes Unidos ha sido quizá, hasta la fecha, el país más disruptivo a este respecto al integrar la inteligencia artificial en su administración. O al menos, en definir los primeros pasos para ello.

Un ecosistema de inteligencia regulatoria basado en IA

El Consejo de Ministros de los Emiratos, presidido por el jeque Mohammed bin Rashid Al Maktoum, acaba de aprobar el “primer ecosistema mundial de inteligencia regulatoria basado en IA” con el objetivo de modernizar y mejorar su administgración pública. Básicamente, han metido inteligencia artificial hasta en el proceso legislativo. Y no solo para automatizar, sino para hacerlo más ágil, conectado y estratégico.

¿Qué aprendizajes podemos traer a España?

El contexto político y cultural de Emiratos Árabes es diferente al nuestro. Ocurre algo similar con China, Pero la idea de fondo —usar la IA para gestionar mejor lo público— me parece clave. No se trata de copiar su modelo, sino de inspirarse. De ver qué se puede adaptar. De asumir que innovar en el sector público no es solo poner apps nuevas, sino rediseñar procesos, medir impactos en tiempo real y anticiparse a los problemas. La mentalidad de repensar cómo usamos la tecnología para mejorar procesos que llevan años haciéndose igual.

Y sobre todo, de no tener miedo a experimentar. Porque si no lo hacemos aquí, alguien lo hará fuera… y nos tocará ponernos al día demasiado tarde.

En mi día a día como consultor SEO, veo constantemente cómo la automatización y el análisis de datos pueden cambiar la forma de trabajar en cualquier sector. Aplicado a la administración, esto puede significar pasar de documentos eternos en PDF que nadie lee, a sistemas que entienden, resumen, alertan y recomiendan. No es ciencia ficción. Ya existe.

Y si te suena a utopía, piensa que hace solo unos años usar IA para resumir textos, detectar fraudes o predecir patrones de comportamiento también parecía cosa de Silicon Valley. Hoy, con herramientas como ChatGPT, esto ya está al alcance de cualquier persona u organización.

En mi opinión, convertir la innovación digital en un proyecto estratégico dentro de la administración pública no debería ser una opción. Debería ser una prioridad. Ya no hablamos solo de modernizar trámites o poner formularios online. Estamos hablando de replantear desde dentro cómo se toman decisiones, cómo se redactan leyes, cómo se priorizan recursos.

La IA no va a resolver todos los problemas de la administración. Pero ignorarla sí puede crearnos unos cuantos nuevos