L’État arrête (enfin) de bricoler avec l’IA : pourquoi 2026 doit marquer le vrai tournant

L’AGENCE CIA – Conseil en Intelligence Artificielle à Bourges

Intelligence artificielle, sécurité et stratégie publique – la lecture de l’Agence CIA Bourges


TL;DR — L’Agence CIA Bourges vous résume

👉 En 2026, l’État n’a plus le droit de jouer à l’apprenti sorcier avec l’intelligence artificielle.
👉 Les IA bricolées en interne créent plus de risques que de valeur (shadow IA, fuites de données, rejet des agents).
👉 La seule voie crédible : des outils éprouvés, gouvernés, sécurisés et compris par les utilisateurs.
👉 L’IA n’est pas un projet DSI, c’est un projet d’organisation.
👉 L’Agence CIA Bourges, agence de conseil en IA, défend une approche pragmatique : clarté, cadre, usages réels, zéro bullshit.


Pourquoi la promesse Intelligence artificielle 2026 arrive (enfin) au bon moment

Soyons honnêtes deux minutes.
Pendant des années, l’administration française a observé l’intelligence artificielle comme on regarde un objet volant non identifié : intéressant, fascinant… mais surtout à distance.

Résultat côté terrain :

  • des POC empilés sans lendemain,
  • des outils internes sous-dimensionnés,
  • des agents livrés à eux-mêmes face à des injonctions contradictoires.

Pendant ce temps-là, le privé avançait. Parfois trop vite, parfois mal, mais avec une certitude : l’IA ne s’industrialise pas avec du bricolage.

La promesse de l’État pour 2026 marque (enfin) une rupture de posture :

  • l’intelligence artificielle n’est plus un gadget,
  • elle devient un outil de travail quotidien,
  • elle doit être sécurisée, gouvernée et utile.

Sur le papier, c’est solide.
Dans la réalité, tout dépendra d’un point clé : les choix technologiques.


Le problème n°1 : des projets d’IA pensés par la DSI… pour la DSI

C’est un grand classique, et l’administration n’y échappe pas.

Historiquement, les outils numériques publics sont souvent :

  • techniquement propres,
  • conceptuellement complexes,
  • opérationnellement pénibles.

Avec l’intelligence artificielle, ce travers devient explosif.

Quand la DSI veut “son” IA souveraine

On voit alors apparaître :

  • des chatbots internes peu performants,
  • des modèles “souverains” sous-entraînés,
  • des interfaces lourdes et mal intégrées.

Le tout emballé dans un argument magique :

« au moins, les données restent chez nous ».

Sauf que :

  • sécurité ≠ efficacité,
  • souveraineté ≠ inutilisabilité.

Le scénario est toujours le même :

👉 les agents testent
👉 les agents comparent
👉 les agents retournent… vers des outils grand public, discrètement


Shadow IA : le vrai sujet que l’État ne peut plus balayer

Le shadow IT existait déjà.
Le shadow IA est bien pire.

C’est quoi, concrètement, le shadow IA ?

C’est quand :

  • un agent colle un texte sensible dans une IA publique,
  • un service utilise un outil non validé “pour aller plus vite”,
  • des données sortent du périmètre officiel sans contrôle.

Pas par malveillance.
Par pragmatisme.

Quand l’outil officiel est lent, imprécis ou pénible, l’humain s’adapte. Toujours.

👉 Plus on bride, plus on contourne.
👉 Plus on bricole, plus on perd le contrôle.


Fuite de données : un risque structurel, pas un accident isolé

On adore parler de cyberattaques spectaculaires.
Dans la réalité, la majorité des fuites liées à l’intelligence artificielle viennent :

  • d’un copier-coller maladroit,
  • d’un prompt trop bavard,
  • d’un outil mal gouverné.

Dans le secteur public, les données sont :

  • personnelles,
  • sensibles,
  • parfois politiquement explosives.

Improviser avec l’IA dans ce contexte, c’est jouer au Jenga réglementaire.
Et spoiler : le RGPD ne pardonne pas l’amateurisme.


Sécurité, conformité, gouvernance : le trio indissociable

Parler d’intelligence artificielle dans l’administration sans parler de gouvernance, c’est comme parler de voiture sans freins.

Ce que l’État doit impérativement mettre en place

  1. Un cadre clair d’outils autorisés
  2. Des règles d’usage simples (lisibles par des humains)
  3. Une traçabilité des usages IA
  4. Une formation minimale mais sérieuse des agents

Pas besoin de 400 pages de PDF.
Besoin de cohérence, pédagogie et constance.

C’est exactement ce que défend une agence de conseil en IA comme :
mettre la gouvernance au service des usages, pas l’inverse.


La vraie rupture : adopter des produits IA éprouvés

Il faut le dire clairement :
👉 utiliser un produit IA éprouvé n’est PAS renoncer à la souveraineté.

C’est choisir :

  • un outil audité,
  • contractuellement cadré,
  • maintenu dans le temps,
  • sécurisé par design.

À quoi ressemble un bon outil d’intelligence artificielle pour le public ?

  • architecture sécurisée,
  • garanties contractuelles sur les données,
  • interopérabilité avec l’existant,
  • amélioration continue du modèle.

Bref, tout ce que les IA bricolées en interne n’offrent pas.


Industrialiser l’IA ≠ la démocratiser n’importe comment

Autre erreur classique : croire que “mettre de l’IA partout” suffit.

Industrialiser, c’est :

  • déployer les bons outils,
  • adapter l’IA aux métiers (pas l’inverse),
  • accompagner humainement le changement.

Un agent bien équipé, c’est :

  • moins de tâches répétitives,
  • plus de temps pour l’analyse,
  • moins d’erreurs,
  • plus de satisfaction au travail.

Et oui, politiquement, ça compte.
Un service public efficace, ça se voit.


Former plutôt que surveiller : le vrai changement culturel

Interdire ne fonctionne pas.
Bloquer encore moins.

Former, en revanche, change tout.

Quand un agent comprend :

  • ce qu’il peut faire avec l’intelligence artificielle,
  • ce qu’il ne doit pas faire,
  • pourquoi certaines règles existent,

… il devient un allié, pas un risque.

C’est l’approche défendue par , portée au sein de l’Agence CIA Bourges :
pédagogie, pragmatisme, terrain, et zéro discours hors-sol.


Ce que l’État a à gagner en arrêtant (vraiment) de bricoler

Si la promesse 2026 est tenue, les bénéfices sont massifs :

  • baisse réelle du shadow IA,
  • réduction des risques de fuite de données,
  • gains de productivité mesurables,
  • image modernisée de la fonction publique,
  • agents plus sereins et mieux outillés.

Mais à une condition non négociable :
👉 accepter que l’intelligence artificielle n’est pas un projet DSI.
👉 c’est un projet d’organisation.


Conclusion : 2026, tournant historique ou rendez-vous manqué ?

L’État a une opportunité rare :

  • sortir de l’expérimentation permanente,
  • assumer des choix technologiques matures,
  • faire confiance à des solutions éprouvées.

Continuer à bricoler, c’est :

  • nourrir le shadow IA,
  • exposer les données,
  • épuiser les agents.

Passer à une stratégie claire, gouvernée et assumée, c’est :

  • reprendre le contrôle,
  • sécuriser l’innovation,
  • moderniser réellement l’action publique.

👉 2026 arrive vite.
Cette fois, il ne suffira pas de promettre.

Et pour celles et ceux qui veulent une approche lucide, opérationnelle et sans bullshit :
Agence CIA Bourges — agence de conseil en IA, là où l’intelligence artificielle est pensée pour être utile, maîtrisée… et durable.

Rapport de la cour des comptes sur l’utilisation de l’ia en France en 2026

Rapport de la Cour des comptes sur l’usage de l’IA par France Travail

La Cour des comptes publie un rapport le 8 janvier 2026 analysant plus de 10 ans d’usage de l’intelligence artificielle par France Travail (ex-Pôle emploi), premier opérateur de l’État par ses effectifs.
Le constat est globalement positif, avec des gains d’efficience significatifs. L’IA est déployée depuis 2015, principalement pour assister les agents dans leur mission d’accompagnement des demandeurs d’emploi.


Historique et programmes phares

Premières expérimentations (2015)

France Travail lance ses premiers usages de l’IA en 2015 avec l’outil « La bonne boîte », destiné à améliorer la mise en relation entre offres et demandeurs d’emploi.

Programme « Intelligence emploi » (2019-2022)

  • Budget : 20 millions d’euros (cofinancement)
  • Objectifs :
  • Création d’une plateforme IA
  • Mise en place d’une Fabrique IA
  • Résultats :
  • Dépassement budgétaire de 29 %
  • Économie estimée à 205 ETP

Programme « Data IA » (depuis 2024)

  • Budget initial renforcé à 15 millions d’euros en 2025
  • Ambition :
  • Généralisation de l’IA générative
  • Transformation en profondeur des pratiques professionnelles

Principaux cas d’usage de l’IA

Déploiement des outils (avril 2025)

  • 27 outils en production
  • 16 outils en phase de test
  • 56 % des agents utilisateurs
  • dont 9 % en usage quotidien

Exemples d’usages concrets

  • Analyse automatique de CV
    → utilisée pour 75 % des demandeurs d’emploi
  • Détection d’offres illégales (outil Lego)
  • Gestion automatisée des courriels (CVM)
  • ChatFT, assistant interne déployé depuis novembre 2024 pour les 56 000 agents

Répartition des bénéfices

  • 80 % des usages bénéficient principalement aux agents
  • Les services à destination directe des usagers restent minoritaires
  • Certaines missions critiques (notamment l’indemnisation) sont encore sous-couvertes

Bilan économique et gains d’efficience

Investissements et retours

  • 93 millions d’euros investis entre 2017 et 2024
  • Gains estimés : 85 à 120 millions d’euros
  • Équilibre global entre coûts et bénéfices

Impact sur les effectifs

  • Contribution de l’IA à 779 ETP
  • Intégration dans le plan d’efficience 2025-2027

Recommandations de la Cour des comptes

Points de vigilance identifiés

  • Retards en conformité RGPD
  • Quasi absence d’AIPD réalisées
  • Faible couverture éthique
  • Seulement 18 cas évalués sur 87

Recommandations clés pour 2026

La Cour formule huit recommandations, dont notamment :

  • Définir une stratégie pluriannuelle claire et chiffrée
  • Mettre en place un suivi rigoureux des gains d’efficience
  • Généraliser la conformité RGPD et RIA dès la conception
  • Renforcer le rôle et les moyens du comité éthique

Conclusion

Le rapport confirme que l’IA, lorsqu’elle est structurée, industrialisée et pilotée, peut produire des gains mesurables dans la sphère publique.
Mais il rappelle aussi une réalité incontournable : performance sans gouvernance, c’est de la dette future.

Partagez ce contenu :
Image de AGENT RW
AGENT RW

Agence CIA Bourges est une agence de conseil en IA spécialisée dans l’intégration stratégique de l’intelligence artificielle au service des organisations publiques et privées.
Fondée par André Gentit, entrepreneur depuis 2011, l’Agence CIA Bourges accompagne les décideurs dans des usages concrets, gouvernés et utiles de l’intelligence artificielle : cadrage, acculturation, formation et déploiement opérationnel.
Ici, l’IA n’est ni un gadget ni un effet de mode, mais un levier maîtrisé au service du métier, de la performance et du sens.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

L'actu IA en bref

Gagnez du temps dans la rédaction de prompts optimisés