Transformación responsable: AI agéntica para el sector público

levi-meir-clancy-VX1qnjEc9fw-unsplash.jpg

El mundo experimenta una transformación y la inteligencia artificial, especialmente la AI agéntica, se está integrando con rapidez en los sectores privado y público. 

Para las agencias gubernamentales, las fuerzas del orden y las organizaciones de misión crítica, adoptar esta nueva realidad es un desafío único. Por un lado, la AI agéntica promete mejoras medibles: flujos de trabajo de TI modernizados, análisis más rápido, mejores servicios a los ciudadanos y eficiencia operativa. Sin embargo, las restricciones regulatorias, las exigencias de cumplimiento y las preocupaciones por la seguridad de los datos a menudo generan dudas en torno a la adopción de la AI.

Ahora, la AI agéntica puede ayudar a las organizaciones del sector público a acelerar las decisiones esenciales sin necesidad de una guía humana paso a paso. Los agentes de AI mejoran la visibilidad y la transparencia para mantener una gobernanza coherente de la AI.

En este artículo, desglosamos los puntos clave del webinar Devolver la responsabilidad a la RAG y a la AI agéntica.

Anticipación y vacilación

Esta es la pregunta: ¿se pueden desplegar agentes de AI de forma segura en el sector público? La respuesta corta es sí, pero solo si la responsabilidad y la gobernanza se integran intencionalmente en su forma de operar.

Los datos son la base de la AI. Pero en el sector público, los datos son muy sensibles, y una brecha puede tener consecuencias para la seguridad nacional. Eso convierte a la seguridad de los datos en el mayor obstáculo para su adopción. Aunque estas preocupaciones generan dudas comprensibles, coexisten con una creciente expectativa sobre lo que la AI puede hacer posible.

Cuando se despliega de manera responsable, la AI agéntica puede modernizar los flujos de trabajo tradicionales de TI, optimizar los procesos internos y ayudar a las organizaciones a operar de manera más eficiente. Los agentes de AI funcionan de manera autónoma con una interacción humana mínima.

En el sector público, la AI agentiva puede mejorar los servicios a los ciudadanos, reforzar la transparencia y ayudar a reducir la brecha de confianza entre las instituciones y la ciudadanía, al tiempo que mejora la experiencia diaria de los funcionarios que prestan esos servicios.

Una organización de defensa neerlandesa, el departamento de Datos del Comando de Material e IT (COMMIT), ofrece un ejemplo convincente. Desarrolló un modelo de lenguaje grande (LLM) interno, aislado, que operaba completamente en una red cerrada. Al aislar el sistema de internet, se aseguró de que la información confidencial permaneciera segura.

La conclusión: el despliegue seguro de la AI agéntica en el sector público es posible. Pero requiere una investigación rigurosa, una sólida arquitectura de seguridad, métricas de éxito claramente definidas y un caso de negocio convincente para guiar la implementación.

Integre inteligentemente: razones para invertir en IA

Para muchas empresas, la adopción de AI puede parecer excesivamente compleja y demandante en recursos, especialmente cuando no hay claridad sobre los resultados que se esperan. La presión del entorno, el FOMO o el “porque lo dicen los expertos” no son razones válidas para invertir en AI. La adopción sostenible comienza con un propósito claro. 

Las razones correctas para invertir en AI agéntica son concretas: 

  • Resolver un problema operativo específico 

  • Mejorar los servicios al ciudadano 

  • Mejorar las condiciones de trabajo para los servidores públicos

Por ejemplo, integrar una búsqueda basada en AI en los sitios web de acceso público puede mejorar en gran medida la accesibilidad, y permitir a los ciudadanos encontrar información en un lenguaje sencillo en lugar de tener que navegar por complejas estructuras institucionales. Esto no solo mejora la experiencia del usuario, sino que también reduce la presión sobre el personal de primera línea al disminuir el volumen de llamadas y las consultas repetitivas.

Internamente, los agentes de AI pueden automatizar tareas administrativas que consumen mucho tiempo, y liberar a los empleados para que se concentren en trabajos más impactantes. En un sector que históricamente lucha con la escasez de personal, mejorar la calidad del trabajo impacta directamente en el reclutamiento y la retención.

Libertad total vs. confinamiento total: navegando el acceso a las herramientas de IA

No hay forma de evitar la AI. Las herramientas de AI generativa (GenAI) están ampliamente disponibles para los ciudadanos, y los empleados ya están experimentando con ellas en su vida diaria. Como consecuencia, las organizaciones del sector público no pueden simplemente quedar al margen.

El acceso sin restricciones a herramientas públicas de AI agéntica puede poner en riesgo datos ciudadanos altamente confidenciales. Sin una supervisión adecuada, las organizaciones se exponen a violaciones de privacidad, incumplimientos normativos y filtraciones de datos.

El bloqueo total suele dar lugar a agentes de AI en la sombra. Los empleados recurren a herramientas no autorizadas sin supervisión, lo que aumenta el riesgo de filtraciones de datos, ahora sin visibilidad ni gobernanza.

La solución radica en tomar una decisión deliberada y estratégica sobre en qué punto del espectro de acceso a la AI debe ubicarse tu organización, según su perfil de riesgo específico y su tolerancia.

La infraestructura segura desde el diseño es clave:

  • Modelos de lenguaje grande (LLM) aislados u hospedados localmente cuando sea necesario

  • Pipelines de despliegue controlados

  • Gobernanza clara que define quién puede usar qué herramientas y cómo

Basarse en estándares abiertos refuerza la resiliencia a largo plazo, evita la dependencia de proveedores y prepara tu solución para el futuro.

Ten en cuenta que la preparación para el futuro es tanto una cuestión técnica como organizacional. La tecnología que no se puede comprender, gestionar o mejorar a nivel interno genera dependencia de proveedores externos.

Crear un centro interno de conocimiento y experiencia en AI permite que la organización desarrolle la capacidad de evaluar herramientas de forma crítica, implementarlas de manera responsable y optimizar su uso de forma continua. Al invertir en la capacitación de los usuarios y en el desarrollo de experiencia interna, reduces la dependencia de proveedores externos y fortaleces la resiliencia a largo plazo.

Beneficios de una solución de RAG

La implementación de agentes de AI en el sector gubernamental depende de desafíos clave: seguridad de datos, acceso controlado a la información y una necesidad crítica de relevancia y precisión. Aquí es donde la retrieval augmented generation (RAG) entra en juego. 

Una interacción típica con un modelo de AI generativa es susceptible a la exposición de datos confidenciales y, a menudo, puede producir alucinaciones porque el modelo se basa en datos de Internet obsoletos. Al aislar tu modelo e integrar tu base de conocimiento en el proceso, puedes controlar qué datos usa para generar respuestas, centralizar el acceso y habilitar la trazabilidad de los resultados de la AI.

En otras palabras, RAG basa las respuestas de la AI agéntica en la propia base de conocimientos verificada de una organización, lo que permite a los modelos generar respuestas basadas únicamente en datos internos aprobados. 

Pero implementar RAG introduce un nuevo desafío: el despliegue efectivo de RAG requiere accesibilidad a los datos, y en la mayoría de las organizaciones del sector público, esos datos están muy fragmentados. Las bases de datos estructuradas, los sistemas NoSQL y las vastas cantidades de documentos no estructurados están dispersos por todo el ecosistema. 

Una malla de datos puede ayudar a conectar estos sets de datos distribuidos, permitiéndoles funcionar como una capa de conocimiento unificada para aplicaciones de AI. El resultado es una capacidad de búsqueda y asistente inteligente y segura, una que puede potenciar casos de uso avanzados como soluciones de búsqueda impulsadas por AI o incluso el descubrimiento de ataques dentro de un entorno de RAG controlado sin comprometer la soberanía de los datos.

Mejores prácticas para la AI agéntica

La AI agéntica en el gobierno es posible, pero debe ser reflexiva y enfocada. Para habilitar la AI agéntica en el sector público, necesitas diseñar un ecosistema de herramientas. Luego, el LLM decide qué herramientas usar para qué respuestas. Esto puede volverse bastante complicado.

La integración inteligente requiere lo siguiente:

  • Encuentra soluciones que se integren con tus sistemas actuales. Los sistemas independientes que no se integran terminan causando más problemas.

  • Considera la madurez de la AI al investigar productos. No te dejes atrapar por las expectativas.

  • Integra poco a poco. Los despliegues pequeños y específicos, junto con las revisiones periódicas para comprobar que se cumplen tus criterios de éxito, te permiten mantener el control.

  • Mantén a las personas en el circuito. Es una cuestión de observabilidad, trazabilidad y responsabilidad. 

Regístrate para ver el webinar Devolver la responsabilidad a la RAG y a la AI agéntica bajo demanda y profundiza en las estrategias de adopción de AI, las mejores prácticas y los casos de uso. O contáctanos.

El momento del lanzamiento de cualquiera de las características o funcionalidades descritas en esta publicación queda a exclusivo criterio de Elastic. Es posible que algunas características o funcionalidades que no estén disponibles en este momento no se lancen a tiempo o no se lancen en absoluto.

En esta publicación del blog, es posible que hayamos usado o nos hayamos referido a herramientas de IA generativa de terceros, que son propiedad de sus respectivos propietarios y están gestionadas por ellos. Elastic no tiene ningún control sobre las herramientas de terceros y no tenemos ninguna responsabilidad por su contenido, operación o uso, ni por ninguna pérdida o daño que pueda surgir de tu uso de dichas herramientas. Ten cuidado al usar herramientas de IA con información personal, sensible o confidencial. Cualquier dato que envíes puede usarse para el entrenamiento de IA u otros fines. No se garantiza que la información que proporciones se mantenga segura o confidencial. Debes familiarizarte con las prácticas de privacidad y los términos de uso de cualquier herramienta de IA generativa antes de usarla. 

Elastic, Elasticsearch y las marcas asociadas son marcas comerciales, logotipos o marcas comerciales registradas de Elasticsearch B.V. en los Estados Unidos y otros países. Todos los demás nombres de empresas y productos son marcas comerciales, logotipos o marcas comerciales registradas de sus respectivos dueños.