
La Inteligencia Artificial está aquí. No es futurismo, es presente. Se usa a diario y, cómo no, también en la Administración Pública.
Pero la gran pregunta es: ¿están preparados nuestros funcionarios y responsables para manejarla?
Y aún más grave: ¿tienen derecho a alimentar modelos de IA extranjeros con nuestros datos personales, sin que lo sepamos ni lo consintamos?
La cruda realidad
Esta semana se ha hecho público un artículo demoledor: hay ayuntamientos y oficinas públicas en España que están usando ChatGPT y otros modelos de lenguaje «a mansalva, sin control alguno». Empleados que copian y pegan expedientes completos en herramientas generativas sin anonimizar. Sin guía. Sin estrategia… Sin formación.
Lo confirmo desde la experiencia: imparto muchas formaciones en inteligencia artificial y automatizaciones a profesionales del sector privado que usan ChatGPT o DeepSeek a diario, y la mayoría no tienen ni idea de cómo funciona ni de los riesgos que implica, por no hablar de su implementación ética.
¿Qué podemos esperar entonces del sector público,
que va siempre tres pasos por detrás?
En Aragón y sus entidades locales, como en muchas otras comunidades autónomas, ya se están utilizando herramientas de IA en el sector público de forma dispersa, sin planificación global ni formación institucional. No existe —al menos por ahora— un marco claro que guíe a los empleados públicos en el uso responsable de estas tecnologías.
Y lo preocupante es que la implantación está llegando por necesidad o por simple curiosidad, no como resultado de una estrategia consciente.
El elefante en la habitación: falta de formación institucional
No hay programas estructurados de alfabetización digital. No existen protocolos claros sobre cómo usar herramientas como Gemini (Google), ChatGPT (OpenAI), Copilot (Microsoft) o Claude (Anthropic).
Y la consecuencia es doble:
- Riesgo para los derechos de los ciudadanos: tus datos, los míos, los nuestros, están siendo tratados por IA sin garantías legales.
- Riesgo para los propios funcionarios: porque usa estas herramientas sin saber si está cometiendo una infracción grave o no.
¿Cesión de soberanía de datos?
Hablamos de la “materia prima del siglo XXI”. El dato. Si una administración carga documentos oficiales en una IA de OpenAI (EE. UU.) o en modelos chinos, como DeepSeek, sin auditar ni certificar nada, lo que hace es entregar soberanía nacional en bandeja.
¿Tiene derecho la Administración a hacer eso? ¿A ceder datos personales a modelos cuyo código ni siquiera entienden?
Como ciudadano, no he dado (ni daré) mi consentimiento para que mis trámites o expedientes alimenten sistemas privados extranjeros. Y como profesional de la IA, esto me parece una negligencia institucional gravísima… con implicaciones legales, éticas y sociales que apenas se están empezando a entender.
No es tarde, pero el reloj avanza
La IA es una oportunidad extraordinaria para agilizar trámites, liberar tiempo y modernizar el sector público. Pero sin estrategia, sin gobernanza y sin formación, es una amenaza.
Ya hay comunidades autónomas como Extremadura, Asturias y Galicia que, pese a no destacar en el impulso público ni privado de la IA, ya están marcando el camino con marcos normativos propios. Y eso es lo que necesitamos a nivel estatal: un plan serio, transparente y responsable.
Pero podríamos y deberíamos exigir mucho más: la idea de un marco común internacional basado en principios éticos y auditabilidad, que aúne la agilidad anglosajona con la cautela —a veces excesiva— de la tradición reguladora europea. Esto es, una arquitectura regulatoria interoperable que podría ser la solución para un mercado global de IA, pues sólo así se podrá construir un ecosistema público de IA justo, robusto y sostenible.
Claves para una implementación pública y responsable
Evitar los riesgos actuales y aprovechar el verdadero potencial de la inteligencia artificial en el sector público exige medidas concretas y urgentes.
Estas son algunas de las líneas de actuación que podrían considerarse imprescindibles para garantizar un uso ético, legal y estratégico de la IA en las administraciones públicas:
- Formación masiva, intensiva, obligatoria y adaptada para empleados públicos.
- Normativa nacional clara sobre el uso de IA generativa en el sector público.
- Prohibición expresa del uso de datos personales en modelos no certificados.
- Transparencia en la contratación tecnológica: no más «IA a ciegas».
¿Realmente nos hemos parado a pensar dónde están yendo nuestros datos?
Porque, siendo honestos, la inteligencia artificial no es el problema. El problema es una Administración que actúa sin inteligencia… y sin responsabilidad.
Artículo publicado en Aragón Digital >