Intelligence artificielle, sécurité et stratégie publique – la lecture de l’Agence CIA Bourges
TL;DR — L’Agence CIA Bourges vous résume
👉 En 2026, l’État n’a plus le droit de jouer à l’apprenti sorcier avec l’intelligence artificielle.
👉 Les IA bricolées en interne créent plus de risques que de valeur (shadow IA, fuites de données, rejet des agents).
👉 La seule voie crédible : des outils éprouvés, gouvernés, sécurisés et compris par les utilisateurs.
👉 L’IA n’est pas un projet DSI, c’est un projet d’organisation.
👉 L’Agence CIA Bourges, agence de conseil en IA, défend une approche pragmatique : clarté, cadre, usages réels, zéro bullshit.
Pourquoi la promesse Intelligence artificielle 2026 arrive (enfin) au bon moment
Soyons honnêtes deux minutes.
Pendant des années, l’administration française a observé l’intelligence artificielle comme on regarde un objet volant non identifié : intéressant, fascinant… mais surtout à distance.
Résultat côté terrain :
- des POC empilés sans lendemain,
- des outils internes sous-dimensionnés,
- des agents livrés à eux-mêmes face à des injonctions contradictoires.
Pendant ce temps-là, le privé avançait. Parfois trop vite, parfois mal, mais avec une certitude : l’IA ne s’industrialise pas avec du bricolage.
La promesse de l’État pour 2026 marque (enfin) une rupture de posture :
- l’intelligence artificielle n’est plus un gadget,
- elle devient un outil de travail quotidien,
- elle doit être sécurisée, gouvernée et utile.
Sur le papier, c’est solide.
Dans la réalité, tout dépendra d’un point clé : les choix technologiques.
Le problème n°1 : des projets d’IA pensés par la DSI… pour la DSI
C’est un grand classique, et l’administration n’y échappe pas.
Historiquement, les outils numériques publics sont souvent :
- techniquement propres,
- conceptuellement complexes,
- opérationnellement pénibles.
Avec l’intelligence artificielle, ce travers devient explosif.
Quand la DSI veut “son” IA souveraine
On voit alors apparaître :
- des chatbots internes peu performants,
- des modèles “souverains” sous-entraînés,
- des interfaces lourdes et mal intégrées.
Le tout emballé dans un argument magique :
« au moins, les données restent chez nous ».
Sauf que :
- sécurité ≠ efficacité,
- souveraineté ≠ inutilisabilité.
Le scénario est toujours le même :
👉 les agents testent
👉 les agents comparent
👉 les agents retournent… vers des outils grand public, discrètement
Shadow IA : le vrai sujet que l’État ne peut plus balayer
Le shadow IT existait déjà.
Le shadow IA est bien pire.
C’est quoi, concrètement, le shadow IA ?
C’est quand :
- un agent colle un texte sensible dans une IA publique,
- un service utilise un outil non validé “pour aller plus vite”,
- des données sortent du périmètre officiel sans contrôle.
Pas par malveillance.
Par pragmatisme.
Quand l’outil officiel est lent, imprécis ou pénible, l’humain s’adapte. Toujours.
👉 Plus on bride, plus on contourne.
👉 Plus on bricole, plus on perd le contrôle.
Fuite de données : un risque structurel, pas un accident isolé
On adore parler de cyberattaques spectaculaires.
Dans la réalité, la majorité des fuites liées à l’intelligence artificielle viennent :
- d’un copier-coller maladroit,
- d’un prompt trop bavard,
- d’un outil mal gouverné.
Dans le secteur public, les données sont :
- personnelles,
- sensibles,
- parfois politiquement explosives.
Improviser avec l’IA dans ce contexte, c’est jouer au Jenga réglementaire.
Et spoiler : le RGPD ne pardonne pas l’amateurisme.
Sécurité, conformité, gouvernance : le trio indissociable
Parler d’intelligence artificielle dans l’administration sans parler de gouvernance, c’est comme parler de voiture sans freins.
Ce que l’État doit impérativement mettre en place
- Un cadre clair d’outils autorisés
- Des règles d’usage simples (lisibles par des humains)
- Une traçabilité des usages IA
- Une formation minimale mais sérieuse des agents
Pas besoin de 400 pages de PDF.
Besoin de cohérence, pédagogie et constance.
C’est exactement ce que défend une agence de conseil en IA comme :
mettre la gouvernance au service des usages, pas l’inverse.
La vraie rupture : adopter des produits IA éprouvés
Il faut le dire clairement :
👉 utiliser un produit IA éprouvé n’est PAS renoncer à la souveraineté.
C’est choisir :
- un outil audité,
- contractuellement cadré,
- maintenu dans le temps,
- sécurisé par design.
À quoi ressemble un bon outil d’intelligence artificielle pour le public ?
- architecture sécurisée,
- garanties contractuelles sur les données,
- interopérabilité avec l’existant,
- amélioration continue du modèle.
Bref, tout ce que les IA bricolées en interne n’offrent pas.
Industrialiser l’IA ≠ la démocratiser n’importe comment
Autre erreur classique : croire que “mettre de l’IA partout” suffit.
Industrialiser, c’est :
- déployer les bons outils,
- adapter l’IA aux métiers (pas l’inverse),
- accompagner humainement le changement.
Un agent bien équipé, c’est :
- moins de tâches répétitives,
- plus de temps pour l’analyse,
- moins d’erreurs,
- plus de satisfaction au travail.
Et oui, politiquement, ça compte.
Un service public efficace, ça se voit.
Former plutôt que surveiller : le vrai changement culturel
Interdire ne fonctionne pas.
Bloquer encore moins.
Former, en revanche, change tout.
Quand un agent comprend :
- ce qu’il peut faire avec l’intelligence artificielle,
- ce qu’il ne doit pas faire,
- pourquoi certaines règles existent,
… il devient un allié, pas un risque.
C’est l’approche défendue par , portée au sein de l’Agence CIA Bourges :
pédagogie, pragmatisme, terrain, et zéro discours hors-sol.
Ce que l’État a à gagner en arrêtant (vraiment) de bricoler
Si la promesse 2026 est tenue, les bénéfices sont massifs :
- baisse réelle du shadow IA,
- réduction des risques de fuite de données,
- gains de productivité mesurables,
- image modernisée de la fonction publique,
- agents plus sereins et mieux outillés.
Mais à une condition non négociable :
👉 accepter que l’intelligence artificielle n’est pas un projet DSI.
👉 c’est un projet d’organisation.
Conclusion : 2026, tournant historique ou rendez-vous manqué ?
L’État a une opportunité rare :
- sortir de l’expérimentation permanente,
- assumer des choix technologiques matures,
- faire confiance à des solutions éprouvées.
Continuer à bricoler, c’est :
- nourrir le shadow IA,
- exposer les données,
- épuiser les agents.
Passer à une stratégie claire, gouvernée et assumée, c’est :
- reprendre le contrôle,
- sécuriser l’innovation,
- moderniser réellement l’action publique.
👉 2026 arrive vite.
Cette fois, il ne suffira pas de promettre.
Et pour celles et ceux qui veulent une approche lucide, opérationnelle et sans bullshit :
Agence CIA Bourges — agence de conseil en IA, là où l’intelligence artificielle est pensée pour être utile, maîtrisée… et durable.
Rapport de la cour des comptes sur l’utilisation de l’ia en France en 2026
Rapport de la Cour des comptes sur l’usage de l’IA par France Travail
La Cour des comptes publie un rapport le 8 janvier 2026 analysant plus de 10 ans d’usage de l’intelligence artificielle par France Travail (ex-Pôle emploi), premier opérateur de l’État par ses effectifs.
Le constat est globalement positif, avec des gains d’efficience significatifs. L’IA est déployée depuis 2015, principalement pour assister les agents dans leur mission d’accompagnement des demandeurs d’emploi.
Historique et programmes phares
Premières expérimentations (2015)
France Travail lance ses premiers usages de l’IA en 2015 avec l’outil « La bonne boîte », destiné à améliorer la mise en relation entre offres et demandeurs d’emploi.
Programme « Intelligence emploi » (2019-2022)
- Budget : 20 millions d’euros (cofinancement)
- Objectifs :
- Création d’une plateforme IA
- Mise en place d’une Fabrique IA
- Résultats :
- Dépassement budgétaire de 29 %
- Économie estimée à 205 ETP
Programme « Data IA » (depuis 2024)
- Budget initial renforcé à 15 millions d’euros en 2025
- Ambition :
- Généralisation de l’IA générative
- Transformation en profondeur des pratiques professionnelles
Principaux cas d’usage de l’IA
Déploiement des outils (avril 2025)
- 27 outils en production
- 16 outils en phase de test
- 56 % des agents utilisateurs
- dont 9 % en usage quotidien
Exemples d’usages concrets
- Analyse automatique de CV
→ utilisée pour 75 % des demandeurs d’emploi - Détection d’offres illégales (outil Lego)
- Gestion automatisée des courriels (CVM)
- ChatFT, assistant interne déployé depuis novembre 2024 pour les 56 000 agents
Répartition des bénéfices
- 80 % des usages bénéficient principalement aux agents
- Les services à destination directe des usagers restent minoritaires
- Certaines missions critiques (notamment l’indemnisation) sont encore sous-couvertes
Bilan économique et gains d’efficience
Investissements et retours
- 93 millions d’euros investis entre 2017 et 2024
- Gains estimés : 85 à 120 millions d’euros
- Équilibre global entre coûts et bénéfices
Impact sur les effectifs
- Contribution de l’IA à 779 ETP
- Intégration dans le plan d’efficience 2025-2027
Recommandations de la Cour des comptes
Points de vigilance identifiés
- Retards en conformité RGPD
- Quasi absence d’AIPD réalisées
- Faible couverture éthique
- Seulement 18 cas évalués sur 87
Recommandations clés pour 2026
La Cour formule huit recommandations, dont notamment :
- Définir une stratégie pluriannuelle claire et chiffrée
- Mettre en place un suivi rigoureux des gains d’efficience
- Généraliser la conformité RGPD et RIA dès la conception
- Renforcer le rôle et les moyens du comité éthique
Conclusion
Le rapport confirme que l’IA, lorsqu’elle est structurée, industrialisée et pilotée, peut produire des gains mesurables dans la sphère publique.
Mais il rappelle aussi une réalité incontournable : performance sans gouvernance, c’est de la dette future.



