Transformation responsable : l'IA agentique pour le secteur public

levi-meir-clancy-VX1qnjEc9fw-unsplash.jpg

Le monde est en train de se transformer, et l'intelligence artificielle, en particulier l'IA agentique, s'intègre rapidement dans les secteurs privé et public. 

Pour les organismes gouvernementaux, les forces de l'ordre et les organisations aux missions essentielles, l'adoption de cette nouvelle réalité représente un défi de taille. D'un côté, l'IA agentique promet des améliorations tangibles (modernisation des workflows informatiques, accélération des analyses, services aux citoyens améliorés et efficacité opérationnelle accrue), de l'autre, les contraintes réglementaires, les exigences de conformité et les préoccupations liées à la sécurité des données freinent souvent son adoption.

L'IA agentique peut désormais aider les organismes du secteur public à accélérer la prise de décisions cruciales sans nécessiter d'intervention humaine à chaque étape. Les agents IA améliorent la visibilité et la transparence afin de garantir une gouvernance cohérente de l'IA.

Dans cet article, nous analysons les points clés du webinar "Responsabiliser la RAG et l'IA agentique".

Anticipation et hésitation

Voici la question : les agents IA peuvent-ils être déployés en toute sécurité dans le secteur public ? La réponse est oui, mais à condition que la responsabilité et la gouvernance soient intégrées de manière délibérée à leur mode de fonctionnement.

Les données sont le fondement de l'IA. Or, dans le secteur public, elles sont extrêmement sensibles et toute violation peut avoir des conséquences graves pour la sécurité nationale. C'est pourquoi la sécurité des données représente le principal obstacle à l'adoption de l'IA. Si ces préoccupations suscitent naturellement des hésitations, elles coexistent avec un enthousiasme croissant quant aux possibilités qu'offre l'IA.

Lorsqu'elle est déployée de manière responsable, l'IA agentique peut moderniser les workflows IT traditionnels, rationaliser les processus internes et aider les organisations à fonctionner plus efficacement. Les agents IA fonctionnent de manière autonome avec une interaction humaine minimale.

Dans le secteur public, l'IA agentique peut améliorer les services aux citoyens, renforcer la transparence et contribuer à combler le déficit de confiance entre les institutions et le public, tout en améliorant le quotidien des fonctionnaires qui fournissent ces services.

Un organisme de défense néerlandais, le département DATA du Commandement du matériel et des technologies de l'information (COMMIT), en offre un exemple convaincant. Il a développé un grand modèle de langage (LLM) fonctionnant entièrement sur un réseau fermé. En isolant le système d'Internet, il a garanti la sécurité des informations sensibles. 

Le point à retenir : Le déploiement sûr d'une IA agentique dans le secteur public est possible. Cependant, cela nécessite une recherche rigoureuse, une architecture de sécurité robuste, des métriques de réussite clairement définies et un cas d'utilisation métier convaincant pour guider la mise en œuvre.

Intégrer intelligemment : les raisons d'investir dans l'IA

Pour de nombreuses entreprises, l'adoption de l'IA peut sembler d'une complexité insurmontable et nécessiter des ressources considérables, surtout si les attentes ne sont pas clairement définies. La pression des pairs, la peur de passer à côté de quelque chose (FOMO) ou le simple fait de "suivre l'avis des experts" ne sont pas des raisons valables d'investir dans l'IA. Une adoption durable commence par la définition d'un objectif précis. 

Les bonnes raisons d'investir dans l'IA agentique sont concrètes : 

  • Résoudre un problème opérationnel spécifique 

  • Améliorer les services aux citoyens 

  • Amélioration des conditions de travail pour les fonctionnaires

Par exemple, l'intégration d'une recherche pilotée par l'IA dans les sites web publics peut considérablement améliorer l'accessibilité, permettant aux citoyens de trouver des informations en langage clair plutôt que de se perdre dans des structures institutionnelles complexes. Cela améliore non seulement l'expérience utilisateur, mais réduit également la pression sur le personnel de première ligne en diminuant le volume d'appels et les demandes répétitives.

En interne, les agents IA peuvent automatiser les tâches administratives chronophages, permettant ainsi aux employés de se concentrer sur des tâches plus importantes. Dans un secteur qui a toujours été confronté à des pénuries de main-d'œuvre, l'amélioration de la qualité des emplois a un impact direct sur le recrutement et la fidélisation du personnel.

Liberté totale ou verrouillage total : comment gérer l'accès aux outils d'IA

Impossible d'échapper à l'IA. Les outils d'IA générative sont largement accessibles au grand public, et les employés les utilisent déjà au quotidien. Par conséquent, les organismes du secteur public ne peuvent pas simplement faire l'impasse sur cette technologie.

L'accès sans restriction aux outils d'IA grand public peut compromettre les données hautement sensibles des citoyens. En l'absence d'une surveillance adéquate, les organismes s'exposent à des atteintes à la vie privée, à des manquements à la conformité et à des fuites de données.

La verrouillage total entraîne souvent l'apparition d'agents IA parallèles. Les employés se tournent vers des outils non autorisés et échappant à tout contrôle, ce qui accroît le risque de fuite de données, mais cette fois sans aucune visibilité ni gouvernance

La solution consiste à faire un choix délibéré et stratégique quant à la place que votre organisation doit occuper dans le spectre d'accès à l'IA, en fonction de son profil de risque et de sa tolérance spécifiques.

Une infrastructure sécurisée dès sa conception est essentielle :

  • Des LLM air gap ou hébergés localement, si nécessaire

  • Pipelines de déploiement contrôlés

  • Une gouvernance claire qui définit qui peut utiliser quels outils et comment

S'appuyer sur des normes ouvertes renforce la résilience à long terme, évite le verrouillage des fournisseurs et garantit la pérennité de votre solution.

N'oubliez pas que la pérennité est à la fois technique et organisationnelle. Une technologie qui ne peut être comprise, gérée ou améliorée en interne crée une dépendance à l'égard des fournisseurs externes.

Construire un hub interne de connaissances et d’expertise en IA garantit que votre organisation développe la capacité d’évaluer les outils de manière critique, de les mettre en œuvre de manière responsable et d’optimiser continuellement leur utilisation. En investissant dans l'éducation des utilisateurs et l'expertise interne, vous réduisez la dépendance aux prestataires externes et créez une résilience à long terme.

Les avantages d'une solution RAG

La mise en œuvre d'agents IA dans le secteur public repose sur des défis majeurs : la sécurité des données, le contrôle de l'accès à l'information et l'exigence absolue de pertinence et de précision. C'est là que la génération augmentée par récupération (RAG) entre en jeu.

Une interaction classique avec un modèle d'IA générative expose les données sensibles à des risques et peut souvent générer des hallucinations, car le modèle s'appuie sur des données Internet obsolètes. En isolant physiquement votre modèle et en intégrant votre base de connaissances dans le processus, vous pouvez contrôler les données utilisées par le modèle pour produire des résultats, ce qui permet de centraliser les accès et d'assurer la traçabilité des sorties de l'IA.

En d'autres termes, la RAG ancre les réponses de l'IA agentique dans la base de connaissances vérifiée d'une organisation, permettant aux modèles de générer des réponses basées uniquement sur des données internes approuvées. 

Mais la mise en œuvre de la RAG pose un nouveau défi : pour que le déploiement de la RAG soit efficace, il faut pouvoir accéder aux données. Or, dans la plupart des organismes du secteur public, ces données sont très fragmentées ; des bases de données structurées, des systèmes NoSQL et d'immenses quantités de documents non structurés sont disséminés dans l'écosystème. 

Une approche de maillage de données peut aider à connecter ces ensembles de données distribués, leur permettant de fonctionner comme une couche de connaissances unifiée pour les applications d'IA. Résultat : une capacité de recherche et d'assistance sécurisée et intelligente, capable de prendre en charge des cas d'utilisation avancés tels que des solutions de recherche pilotées par l'IA ou même la détection d'attaques au sein d'un environnement RAG contrôlé, sans compromettre la souveraineté des données.

Bonnes pratiques pour l'IA agentique

L'IA agentique au sein des administrations est envisageable, mais elle doit être mûrement réfléchie et ciblée. Pour la mettre en œuvre dans le secteur public, il est nécessaire de construire un écosystème d'outils. Ensuite, le modèle de LLM détermine quels outils utiliser pour quelles réponses. Cela peut s'avérer complexe.

L’intégration intelligente exige que vous :

  • Trouviez des solutions qui s'intègrent à vos systèmes actuels. Les systèmes autonomes qui ne s'intègrent pas finissent par causer davantage de problèmes. 

  • Teniez compte du niveau de maturité de l'IA lors de l'évaluation des produits. Ne vous laissez pas emporter par l'engouement médiatique. 

  • Intégrez progressivement. De petits déploiements spécifiques avec des vérifications régulières par rapport à vos critères de réussite vous permettent de garder le contrôle.

  • Gardiez les humains dans la boucle. C'est une question d'observabilité, de traçabilité et de responsabilité.

Inscrivez-vous pour regarder le webinar à la demande Responsabiliser la RAG et l'IA agentique et explorez en profondeur les stratégies d'adoption de l'IA, les bonnes pratiques et les cas d'utilisation. Ou contactez-nous.

La publication et la date de publication de toute fonctionnalité ou fonction décrite dans le présent article restent à la seule discrétion d'Elastic. Toute fonctionnalité ou fonction qui n'est actuellement pas disponible peut ne pas être livrée à temps ou ne pas être livrée du tout.

Dans cet article, nous sommes susceptibles d'avoir utilisé ou mentionné des outils d'IA générative tiers appartenant à leurs propriétaires respectifs qui en assurent le fonctionnement. Elastic n'a aucun contrôle sur les outils tiers et n'est en aucun cas responsable de leur contenu, de leur fonctionnement, de leur utilisation, ni de toute perte ou de tout dommage susceptible de survenir à cause de l'utilisation de tels outils. Veuillez faire preuve de prudence lorsque vous utilisez des outils d'IA avec des informations personnelles, sensibles ou confidentielles. Toute donnée que vous soumettez peut être utilisée pour entrainer l'IA ou à d'autres fins. Vous n'avez aucune garantie que la sécurisation ou la confidentialité des informations renseignées sera assurée. Vous devriez vous familiariser avec les pratiques en matière de protection des données personnelles et les conditions d'utilisation de tout outil d'intelligence artificielle générative avant de l'utiliser. 

Elastic, Elasticsearch et les marques associées sont des marques commerciales, des logos ou des marques déposées d'Elasticsearch B.V. aux États-Unis et dans d'autres pays. Tous les autres noms de produits et d'entreprises sont des marques commerciales, des logos ou des marques déposées appartenant à leurs propriétaires respectifs.