Contenidos mínimos del Programa de actualización en Agentes de IA, Gobierno y Administración Pública: de la teoría a la implementación de la inteligencia artificial en el Sector Público

Módulo 1 – Fundamentos de la Inteligencia Artificial y Gobernanza de datos en el Sector Público

Objetivo: comprender el mapa de IA (tradicional, generativa y agentes), oportunidades y límites en AP.

Contenidos: Este módulo introduce los principios básicos de la inteligencia artificial, su evolución histórica y las transformaciones que ha impulsado en distintos ámbitos de la sociedad y del Estado. Se revisa el camino desde los sistemas expertos y la automatización clásica hasta la irrupción de la inteligencia artificial generativa y los agentes autónomos. Asimismo, se explican los fundamentos algorítmicos del aprendizaje automático y de los modelos de lenguaje de gran escala, lo que permite comprender por qué estas tecnologías han adquirido un papel central en la actualidad.

Un aspecto clave es la incorporación del paradigma agéntico por diseño y el análisis de cómo impacta en la gestión pública, configurando nuevas formas de organización y de interacción entre personas y máquinas. Finalmente, se abordan los grandes retos estratégicos que enfrenta el sector público en la materia, como la soberanía tecnológica, la necesidad de asegurar transparencia y explicabilidad en los procesos, y el desafío de diseñar mecanismos de gobernanza adecuados.

Conceptos fundamentales y evolución de la IA: IA tradicional, IA generativa y agentes de IA.

Desarrollo histórico y técnico: fundamentos algorítmicos, automatización y paradigma agéntico por diseño.

Organizaciones Centauro: entornos híbridos humano-agénticos; niveles de implementación; agentes orientados al usuario vs. integrados en procesos.

Retos y desafíos en la Administración Pública: privacidad, uso proporcional, transparencia, explicabilidad, gobernanza y compatibilidad competitiva.

Casos de éxito y oportunidades de aplicación para políticas públicas, servicios ciudadanos y eficiencia operativa.

Los laboratorios complementan la teoría con una exploración práctica de herramientas de IA aplicadas al sector público y un ejercicio de mapeo de procesos para detectar áreas con potencial de mejora.

Laboratorios asociados:

Laboratorio 1 (4 h) Exploración guiada multi‑plataforma (ChatGPT/Gemini/Grok).
Prompting básico y buenas prácticas.

Laboratorio 2 (4h) Mapeo de procesos y detección de cuellos de botella por área (canvas de procesos + quick‑wins).

Módulo 2 – IA de los usuarios: agentes base y experiencia ciudadana

Objetivo: operar agentes base con memoria, proyectos y conexión a apps; diseñar workflows de escritorio.

Contenidos: En este módulo se muestra cómo los agentes base de inteligencia artificial se convierten en herramientas concretas para que cada funcionario pueda automatizar sus propias tareas cotidianas y, al mismo tiempo, brindar un servicio público más ágil, con menos errores y mayor capacidad de respuesta.

Se examina la evolución desde los primeros asistentes conversacionales hasta los agentes generativos personalizados, capaces de adaptarse a distintos contextos y necesidades. Se explica el funcionamiento de los modelos de lenguaje, destacando sus capacidades de memoria persistente, multimodalidad e integración con aplicaciones de gestión pública. El foco está en cómo estas funciones permiten reducir la carga administrativa, estandarizar la producción de documentos, mejorar la precisión en la gestión de trámites y liberar tiempo de los agentes públicos para tareas de mayor valor.

Se incluyen ejemplos en los que los agentes base permiten a un área optimizar la atención ciudadana, disminuir la posibilidad de error humano y asegurar mayor trazabilidad y transparencia en cada interacción.

IA centrada en el usuario: de asistentes conversacionales a agentes base de IA generativa con herramientas y “prompt‑clic”.
LLMs como base tecnológica: arquitectura, capas de atención, tipos de modelos (razonamiento vs. GPT), capacidades y casos de uso.
Herramientas avanzadas: memoria persistente, personalización (GPTs, Gems, Copilot), multimodalidad, conexión con apps, proyectos y búsqueda profunda.
Casos de uso en la Administración Pública.

Laboratorios asociados:

Laboratorio 3 (4 h) Gestión documental en agentes base (carga, interpretación, edición, voz; trabajo en Lienzo).
Laboratorio ? (4 h) Personalización (GPTs/Gems/Copilot) + integración con Drive/Calendar/YouTube.

Módulo 3 — Riesgos, sesgos, evaluación de impacto y privacidad por diseño

Objetivo: Fortalecer la capacidad de los agentes públicos para identificar y mitigar riesgos en soluciones de inteligencia artificial aplicadas a la gestión pública.

Contenidos: Este módulo aborda los principales elementos que deben considerarse al diseñar, implementar y evaluar soluciones de inteligencia artificial en la administración pública, con foco en la prevención de impactos negativos sobre los derechos y en la promoción de una gobernanza responsable.

Se introducen herramientas de evaluación de impacto ético, en derechos y en privacidad, aplicadas a casos concretos de automatización de procesos públicos. Se analizan las recomendaciones de organismos internacionales como UNESCO y OCDE para promover el desarrollo y uso responsable de la IA, con énfasis en la necesidad de incorporar desde el inicio principios como la proporcionalidad en el uso de datos, la privacidad por diseño, y la seguridad de la información.

A lo largo del módulo, se trabaja la colaboración de múltiples partes interesadas (jurídicas, técnicas, institucionales y sociales) en la definición de salvaguardas, así como la incorporación de mecanismos efectivos de transparencia y explicabilidad, tanto en los procesos internos como en los resultados que producen los sistemas.

También se profundiza en la importancia de contar con mecanismos de rendición de cuentas que asignen responsabilidades claras y faciliten vías de reclamo ante eventuales afectaciones. Finalmente, se abordan criterios de sostenibilidad de las soluciones tecnológicas, junto con la necesidad de implementar controles internos, monitoreos y auditorías permanentes, que garanticen su funcionamiento ético y legal en el tiempo.

Evaluación de impacto centrada en ética, derechos, privacidad y gobernanza algorítmica.

Recomendaciones internacionales de UNESCO y OCDE sobre diseño, desarrollo y uso responsable de sistemas de IA.

Principios clave: proporcionalidad, minimización de datos, seguridad y confidencialidad de la información.

Enfoque colaborativo y multisectorial en el desarrollo de soluciones tecnológicas.

Transparencia y explicabilidad en los procesos automatizados y en los resultados generados.

Mecanismos de rendición de cuentas, con asignación de responsabilidades claras y vías de reclamo.

Sostenibilidad e impacto a largo plazo de las soluciones impulsadas por IA en contextos públicos.

Controles internos, monitoreo continuo y auditoría permanente como componentes estructurales de la gobernanza tecnológica.

Laboratorios asociados:

Laboratorio 5 (4 h): Detección de sesgos y brechas de datos en el uso de herramientas de IA.

Laboratorio G (4 h): Diseño de salvaguardas éticas en soluciones de IA: trazabilidad, supervisión humana, controles de acceso y privacidad por diseño.

Módulo 4 — IA de los procesos: flujos agénticos y automatización

Objetivo: Este módulo aborda la aplicación de la inteligencia artificial en los procesos administrativos, más allá de la interacción directa con los usuarios.

Contenido: Se estudian los principios de diseño de flujos agénticos, caracterizados por su modularidad, coordinación entre tareas, adaptabilidad y la necesidad de mantener una supervisión humana significativa en todo momento. Se analizan las diferentes arquitecturas de despliegue de agentes en entornos públicos, desde los casos más sencillos hasta los más complejos, y se subraya la importancia de garantizar la seguridad, la trazabilidad y el monitoreo constante de las operaciones.

Principios de flujos agénticos: modularidad, coordinación, adaptabilidad, integración con herramientas, supervisión humana significativa.

Arquitecturas y despliegue según entorno y objetivos.

Gobernanza y diseño ético de flujos auténticos y automatizaciones low code: trazabilidad, privacidad, seguridad, validación humana (Human-in-the-Loop / Human-in-Command), alineación institucional.

Experiencia de uso, seguridad y monitoreo continuo.

Casos de éxito de agentes de IA en servicios públicos.

Laboratorios asociados:

Laboratorio N° 7 (4 h) – Rediseño de procesos con agentes: diagnóstico y riesgos.

Laboratorio N° 8 (4 h) – Prototipado de bajo y alto nivel de flujos con salvaguardas y validación humana.

Entregables:

Diagrama de proceso sencillo / prototipo del flujo agéntico.

Módulo 5 — Soluciones impulsadas por IA: del diseño ético al prototipado asistido

Objetivo: Presentar la noción de soluciones de software impulsadas por inteligencia artificial como un enfoque integral que combina diseño ético, prototipado rápido y validación interdisciplinaria.

Contenido: Se estudian los principios para concebir estas soluciones en el sector público, destacando la importancia de que respondan a necesidades reales, sean auditables y respeten derechos fundamentales. Se introduce el prototipado asistido por IA, aprovechando metodologías no-code y low-code, que permiten generar versiones iniciales funcionales en plazos reducidos y con equipos mixtos.

El módulo también resalta la necesidad de involucrar a múltiples actores en el proceso de diseño, incluyendo tecnólogos, juristas, funcionarios y ciudadanos, lo cual asegura que las soluciones contemplen diferentes perspectivas y sean más robustas. A lo largo de la formación se analizan experiencias y casos de éxito en los que el prototipado asistido se transformó en soluciones escaladas institucionalmente.

Inmersión en Lovable, V0, Bolt y Google AI Studio para convertir especificaciones en maquetas funcionales y prototipos navegables. Énfasis en embebido de principios éticos y cumplimiento normativo (protección de datos, transparencia activa, acceso a la información, trazabilidad de decisiones).

Laboratorios:

Laboratorio N° 8 (4 h) – Prototipado asistido por IA: flujo funcional inicial.

Laboratorio N° U (4 h) – Integración de feedback de actores y salvaguardas éticas.

Entregables:

Especificación de prototipo (1–2 págs.) + roadmap de iteración + checklist de ética y cumplimiento embebido.

Módulo G — Aplicaciones sectoriales (salud, educación, empleo, social, servicios, compras)

Objetivo: Ajustar soluciones al contexto sectorial con métricas de valor público.

Contenidos: Este módulo propone un enfoque aplicado por dominio, analizando cómo la inteligencia artificial puede integrarse de manera responsable en sectores estratégicos de la administración pública, como salud, educación, empleo, políticas sociales, servicios al ciudadano y compras públicas. Se parte de un diagnóstico por dominio, que permite identificar desafíos específicos, fuentes de datos disponibles, procesos críticos y objetivos de política pública, a fin de alinear cualquier solución con las necesidades reales del sector.

Se trabaja también la interoperabilidad, entendida no sólo como capacidad técnica de los sistemas para compartir información, sino como requisito institucional para articular políticas públicas integradas, con respeto por los principios de legalidad, finalidad y minimización de datos.

Otro eje clave es la trazabilidad, abordada como mecanismo de registro y supervisión de decisiones automatizadas, garantizando que las soluciones puedan auditarse, corregirse y explicarse, tanto desde dentro del Estado como frente a la ciudadanía.

Finalmente, se analiza el marco normativo y operativo de la contratación pública responsable de sistemas de IA, incluyendo cláusulas éticas, exigencias de transparencia, mecanismos de supervisión humana y criterios de evaluación que consideren no solo costos y eficiencia, sino también impacto social, equidad y derechos.

Diagnóstico sectorial: salud, educación, empleo, seguridad social, servicios ciudadanos.

Rediseño bajo paradigma agéntico: interoperabilidad, eficiencia y supervisión humana.

Laboratorios (rutas sectoriales):

Laboratorio 10 (4 h): Análisis de desafíos sectoriales y diagnóstico asistido por IA (salud, educación, empleo, servicios, compras) + identificación de oportunidades de mejora con foco en valor público y equidad.

Laboratorio 11 (4 h): Diseño de soluciones sectoriales con trazabilidad e interoperabilidad + simulación de criterios para compras públicas responsables (cláusulas éticas, métricas de impacto, seguimiento y revisión humana).

Entregables:

Ficha de caso sectorial con diagnóstico, propuesta de solución ajustada al dominio y definición de métricas de valor público + esquema de trazabilidad e interoperabilidad asociado al caso.

Módulo 7 — Talento, reconversión y gestión del cambio hacia organizaciones humano - agénticas

Objetivo: planificar reconversión de roles y capacidades; instalar academias internas y comunidades de práctica.

Contenidos: Alinear la estrategia de IA con una agenda de capital humano que habilite el pasaje a organizaciones agénticas (humanos + agentes de IA) sin pérdida de legitimidad ni capacidad técnica. El módulo provee un marco de reconversión profesional y diseño de nuevas figuras interdisciplinarias que operen con seguridad jurídica, estándares de calidad y métricas de valor público.

Este módulo parte de un diagnóstico de brechas de capacidades en el sector público para, luego, rediseñar perfiles, roles y trayectorias. Se estudian modelos de upskilling/reskilling integrados a hojas de ruta tecnológicas, con foco en el trabajo conjunto entre juristas, tecnólogos, científicos de datos, PMs, equipos de ética, seguridad y privacidad. La propuesta integra un enfoque de “talento por misión” (mission-based teams) donde los agentes de IA son parte del organigrama operativo y se rigen por mecanismos de supervisión humana significativa.

Se delinean nuevos roles estratégicos para el diseño e implementación sostenible, ética y respetuosa de los derechos de soluciones de inteligencia artificial en el sector público. Entre ellos se encuentra: el AI Product Owner público, responsable de alinear soluciones con necesidades institucionales y marcos normativos; el/la Arquitecto/a de flujos agénticos, que diseña la lógica operativa de los agentes inteligentes; el/la Especialista en evaluación de impacto y privacidad, encargado/a de incorporar principios éticos y salvaguardas desde etapas tempranas; el perfil de MLOps/LLMOps para el sector público, que asegura el monitoreo y mantenimiento responsable de modelos desplegados.

Se incorpora también el rol emergente del/de la Diseñador/a y prototipador/a de soluciones IA con plataformas no-code, capaz de crear y validar software impulsado por inteligencia artificial mediante herramientas accesibles, sin necesidad de conocimientos de programación, articulando interfaces funcionales, flujos automatizados e interacciones éticamente seguras entre personas y sistemas. Se completan estos perfiles con el/la Responsable de seguridad y monitoreo de agentes, el/la Diseñador/a de experiencia con agentes (Agent‑UX), y el/la Enlace jurídico‑técnico.

Cada uno de estos roles se mapea con competencias observables, rutas formativas y criterios de desempeño, para que las áreas de recursos humanos puedan utilizarlos como insumo para concursos, descripciones de puesto y evaluaciones orientadas a nuevos perfiles públicos.

La gestión del cambio incluye identificación de riesgos laborales (desplazamiento de tareas, no de personas), y estrategias de transición justa con comunicación interna, participación y acuerdos de reconversión.
Laboratorio asociado:

Laboratorio 12 (4 h) Mapa de reconversión por familia de puestos + descripciones y criterios de evaluación.

Entregables:

Plan de capacitación interna.

Módulo 8 — Sensibilización, legislación y escalado institucional

Objetivo: Asegurar la sostenibilidad, la legitimidad democrática y la alineación normativa e institucional de las soluciones impulsadas por inteligencia artificial, generando condiciones habilitantes para su adopción y escalado responsable en el sector público.

Contenidos: Este módulo se enfoca en las condiciones institucionales, jurídicas y culturales necesarias para que las soluciones de IA desarrolladas o adoptadas por el Estado se implementen de forma ética, sostenible y aceptable para la ciudadanía. Se analizan los marcos regulatorios vigentes, tanto vinculantes (leyes, decretos, normas sectoriales) como de soft law (recomendaciones, principios y estándares éticos), y su impacto sobre el diseño y la implementación de sistemas inteligentes.

Se abordan modelos de comités de ética y gobernanza de IA, destacando su rol como órganos consultivos y/o decisorios que permiten evaluar riesgos, canalizar objeciones, promover la inclusión de actores relevantes y garantizar la legitimidad de los desarrollos tecnológicos dentro del Estado.

Asimismo, se trabajan mecanismos de rendición de cuentas, tanto ex ante como ex post, que permiten garantizar la supervisión humana significativa, la explicación de las decisiones automatizadas, y la posibilidad de revisión o reclamo por parte de los afectados.

Por último, se introduce la noción de indicadores de preparación y madurez institucional, útiles para planificar el escalado de pilotos o prototipos, identificar cuellos de botella regulatorios o técnicos, y establecer rutas de implementación progresiva. Se brindan herramientas para evaluar cuándo y cómo una solución basada en IA puede sostenerse en el tiempo, escalarse con legitimidad y ser auditada bajo estándares públicos.

Laboratorios finales:

Laboratorio 1? (4 h): Análisis regulatorio para la aplicación de la propuesta desarrollada.

Laboratorio 15 (4 h): Demo Day por equipos: presentación del mini‑PoC ante una mesa simulada de autoridades (TI, legales, dirección) + redacción colaborativa de un memo ejecutivo que explique el problema, la solución propuesta y los próximos pasos para su adopción o escalado.

Entregables: Propuesta de implementación, justificación técnica y funcional, flujo de trabajo propuesto y tecnología elegida + memo ejecutivo para toma de decisión y traspaso a áreas responsables.