Repenser l'IA dans le secteur public : 5 changements pour améliorer les résultats des missions

Le secteur public connaît une transformation opérationnelle majeure. Par le passé, l'intelligence artificielle (IA) servait principalement d'outil d'amélioration de la productivité individuelle. Les analystes utilisaient des modèles génératifs pour synthétiser des documents, élaborer des projets de politiques et planifier les workflows.
Ces gains d'efficacité localisés étaient nécessaires pour tâter le terrain. Aujourd'hui, le discours a évolué. Les organismes du secteur public vont désormais au-delà de l'aide ponctuelle à certaines tâches pour orchestrer des processus organisationnels de bout en bout. L'IA agentique est désormais appliquée à des workflows complexes à plusieurs étapes qui permettent de résoudre des problèmes concrets, de l'amélioration des services aux citoyens à la détection des fraudes et des risques.
Cette transition exige bien plus que de nouveaux algorithmes et des modèles différents. Elle requiert une refonte fondamentale de l'architecture des données, des frameworks de gouvernance et du lien entre l'expertise humaine et l'automatisation. Les responsables informatiques doivent désormais s'attacher à connecter en toute sécurité les données distribuées aux agents IA afin de générer un impact mesurable et à grande échelle au sein de leur administration.
1. Investir dans une IA qui produit un impact mesurable
Les organismes du secteur public consacrent une part importante de leurs budgets de fonctionnement à s'assurer que ces capacités produisent des résultats concrets.
Selon Massimiliano Claps, directeur de recherche chez IDC, les agences réallouent une part importante de leurs fonds d'innovation à l'IA. "Nous avons recueilli des données d'enquête auprès de plus de 600 entités du secteur public à travers les États-Unis, dont 152 relèvent du gouvernement fédéral. 65 % des agences interrogées prévoient d'allouer 11 % ou plus de leur budget informatique à l'IA en 2026 et au-delà", explique M. Claps.1 En conséquence, les agences gouvernementales doivent lier directement leurs investissements technologiques à l'amélioration de la prestation de services et à la continuité des opérations.
De plus, environ 80 % de ces agences s'attendent à une valeur mesurable dans les 12 mois et anticipent un retour sur investissement multiplié par deux en deux ans.1 Ces délais serrés ne laissent aucune place aux silos de données isolés. Les responsables informatiques ont besoin d'une plateforme unifiée offrant une visibilité immédiate sur l'ensemble de leur infrastructure opérationnelle.
2. Repenser l'architecture pour un impact scalable
Il est facile de tester l'IA en important manuellement quelques fichiers PDF dans une interface de chat. Mais comment appliquer cette méthode aux données historiques de toute une organisation ?
Transformer des données fragmentées en une base prête pour l'IA nécessite une architecture ouverte et flexible qui connecte les informations entre les différents environnements. Comme le souligne Dave Erickson, architecte émérite du secteur public chez Elastic : "De nombreuses organisations réfléchissent à la manière de garantir une architecture ouverte afin de ne pas créer un nouveau silo de données centré sur un seul cloud ou un seul fournisseur." Il ajoute : "Il faut y penser et privilégier la modularité et l'ouverture. OpenTelemetry est important car il offre un certain niveau d'agnosticisme."
Ce besoin d'ouverture va au-delà de l'architecture et concerne également la manière dont les données sont stockées et consultées. "On ne peut pas se contenter de stocker les données dans des buckets statiques et s'attendre à ce que l'IA en tire comme par magie des informations utiles", ajoute James Garside, spécialiste senior en stratégie clients chez Elastic.
Cette évolution architecturale nécessite du temps et de la rigueur. Évoquant le parcours du Royaume-Uni, M. Garside ajoute : "Nous avons assurément mis un peu plus de temps à la mettre en œuvre… simplement pour nous assurer de bien faire les choses."
Pour tirer le meilleur parti de ces données, les équipes doivent pouvoir effectuer des recherches instantanées et précises dans des pétaoctets d'informations. Ce niveau de performance exige une architecture conçue pour la recherche et la récupération à grande échelle et à haut débit.
3. Redéfinir le contrôle : de l'humain dans la boucle à l'humain aux commandes
"Selon notre récente enquête américaine menée auprès de 152 responsables informatiques et de missions fédéraux, 0 % ont déclaré ne souhaiter aucune supervision humaine", observe M. Claps.1 "C'est très révélateur."
À mesure que l'automatisation prend en charge des processus plus complexes, le rôle de l'opérateur humain évolue. Le modèle "humain dans la boucle", où un analyste se contente de cliquer sur un bouton d'approbation, cède la place à une approche "humain aux commandes". Dans ce modèle, l'IA agit comme un assistant dédié, traitant les données à grande échelle tandis que l'humain définit la stratégie et prend la décision finale.
Dave Erickson partage cet avis. "Le contexte et le savoir institutionnel proviennent essentiellement des personnes. Le rôle de l'IA est d'automatiser les tâches que nous maîtrisons déjà parfaitement", souligne-t-il. Ainsi, les personnes conservent le contrôle, ce qui leur permet d'orienter et d'affiner les résultats, tout en garantissant que le savoir institutionnel essentiel demeure le fil conducteur de chaque décision.
Vous voulez savoir où nous nous sommes trompé à propos de l'IA ? Regardez le webinar à la demande pour découvrir d'autres analyses des experts d'IDC et d'Elastic.
4. Gérer la gouvernance et la confiance dans des environnements à fort enjeu
La confiance peut constituer un frein à l'adoption généralisée de l'IA dans les environnements fortement réglementés. Si une machine commet une erreur qui échappe à l'attention humaine, cela peut engendrer des corrections coûteuses et potentiellement nuire à la confiance du public.
Instaurer la confiance exige une gouvernance rigoureuse. Cela implique de décomposer les processus de bout en bout et d'appliquer différents niveaux d'automatisation en fonction du risque associé à chaque étape. Par exemple, la synthèse des données peut nécessiter une supervision minimale, tandis que la détermination de l'admissibilité à une subvention fédérale requiert une validation rigoureuse.
"Il faut pouvoir appliquer une gouvernance appropriée lorsqu'on effectue des recherches sur un si grand nombre d'ensembles de données dans un environnement fédéré", explique Massimiliano Claps. "L'auditabilité est nécessaire tant au niveau du modèle qu'au niveau des données."
C'est la transparence des données qui, en fin de compte, instaure cette confiance. Si les analystes comprennent les données d'entrée et peuvent retracer la logique des résultats, ils seront bien plus enclins à considérer l'IA comme un levier de croissance plutôt que comme une boîte noire présentant un risque.
"J'emploie toujours le terme 'éducation', mais il s'agit surtout de la confiance que les gens accordent aux machines", observe James Garside. "Nous devons instaurer un climat de confiance avant que les gens n'acceptent de se passer de l'humain."
5. Autonomie stratégique et l'impératif souverain de l'IA
Alors que les données deviennent le carburant essentiel des workflows automatisés, il est primordial de contrôler leur emplacement et les personnes qui y ont accès. L'IA souveraine s'est imposée comme une priorité mondiale pour les organisations qui traitent des informations sensibles ou classifiées.
Selon IDC, 46 % des entités fédérales interrogées utilisent actuellement une forme d'IA souveraine, et 38 % prévoient de le faire dans les 12 prochains mois.1 Cela traduit une prise de conscience croissante du fait que l'IA souveraine est très différente de l'autosuffisance. Il ne s'agit pas d'isoler, mais bien de contrôler où se trouvent les données, comment elles sont échangées, et qui y a accès avec quels droits. Pour préserver l'indépendance de leur architecture technique, les responsables informatiques doivent s'assurer qu'ils contrôlent leur pile technologique, à commencer par la couche de données fondamentale.
Prioriser vos prochaines étapes pour l'intégration de l'IA
La transition de la productivité individuelle à l'impact sur la mission est déjà en cours. Pour rester compétitives, les organisations doivent dépasser les expérimentations isolées et se concentrer sur les fondements architecturaux qui permettent le déploiement de l'IA à grande échelle.
Commencez par auditer votre environnement de données actuel afin d'identifier les silos qui entravent l'accès en temps réel. Mettez en place des frameworks de gouvernance qui privilégient un modèle opérationnel centré sur l'humain, garantissant ainsi à vos équipes le contrôle ultime des décisions critiques. Enfin, investissez dans une plateforme flexible qui assure la visibilité et préserve l'autonomie stratégique sur vos informations les plus sensibles.
Il est essentiel de connecter vos données distribuées aux experts qui les utilisent au quotidien pour exploiter pleinement le potentiel de l'IA. Découvrez comment bâtir les fondations de votre réussite en participant à notre webinar.
1. IDC, "US Government and Education Buyer Intelligence Survey" (résultats de l'enquête, février 2026), N=152.
La publication et la date de publication de toute fonctionnalité ou fonction décrite dans le présent article restent à la seule discrétion d'Elastic. Toute fonctionnalité ou fonction qui n'est actuellement pas disponible peut ne pas être livrée à temps ou ne pas être livrée du tout.