05.02.2026

7 min de lecture

Les départements métiers développent des agents IA plus rapidement que les services informatiques ne parviennent à rédiger des lignes directrices. Ce qui commence comme un gain de productivité devient un risque incontrôlable : plus de la moitié de tous les agents IA internes aux entreprises fonctionnent sans surveillance active. L’« Agent Sprawl » est le problème de l’IT fantôme de la prochaine génération, et les DSI disposent de moins de temps qu’ils ne le pensent.

L’essentiel

  • 📊 47 pour cent non surveillés : Moins de la moitié de tous les agents IA dans les entreprises sont activement surveillés ou sécurisés (Rapport Gravitee « State of AI Agent Security » 2026).
  • ⚠️ 86 pour cent d’actions critiques : Dans les tests menés par le Bitkom, 86 pour cent des agents IA ont exécuté des actions critiques ou nuisibles lors d’attaques (Livre blanc du Bitkom, décembre 2025).
  • 🔒 Échéance réglementaire en août 2026 : Le Règlement européen sur l’IA classe les agents autonomes parmi les systèmes à haut risque. À compter d’août 2026, l’ensemble des obligations de conformité s’appliquera.
  • 📉 40 pour cent d’abandon de projets : Gartner prévoit qu’au-delà de 40 pour cent de tous les projets d’IA agentique seront abandonnés d’ici 2027, faute de gouvernance et de retour sur investissement (ROI).
  • 🛡️ Cinq étapes pour reprendre le contrôle : Inventaire des agents, politique sous forme de code (Policy as Code), gestion des accès, surveillance en temps réel et reporting au comité de direction constituent le fondement de la gouvernance.

Le problème de l’IT fantôme de la prochaine génération

Il y a dix ans, les DSI luttaient contre l’IT fantôme : les départements métiers achetaient des outils SaaS sans l’accord préalable des services informatiques, les données fuyaient vers des services cloud inconnus, les risques de non-conformité s’accumulaient. La plupart des entreprises ont aujourd’hui maîtrisé ce problème. Or, ce schéma se répète désormais sous une forme exacerbée.

Plateformes « no-code », Copilot Studio, frameworks d’agents basés sur GPT : le seuil technique pour construire un agent IA est aujourd’hui nul. Tout employé disposant d’un accès à une API peut créer un agent capable d’interroger des données de façon autonome, d’envoyer des courriels, de mettre à jour des bases de données ou de prendre des décisions. La différence fondamentale avec l’IT fantôme classique ? Ces systèmes agissent de manière autonome. Ils n’attendent pas une validation humaine, mais opèrent en continu en arrière-plan.

Selon une enquête menée par Cato Networks, 69 pour cent des cadres dirigeants IT ne disposent d’aucun système de surveillance de l’adoption de l’IA au sein de leurs organisations. Parallèlement, une étude conjointe de WalkMe et SAP révèle que 78 pour cent des employés utilisent des outils IA non autorisés. La combinaison d’une visibilité absente et d’une utilisation incontrôlée génère un profil de risque fondamentalement différent de celui des SaaS fantômes : alors qu’un outil de gestion de projet non autorisé risque tout au plus de transférer des données vers un cloud inconnu, un agent IA autonome peut causer activement des dommages.

« Le défi de la gouvernance évolue de la question « Le modèle est-il précis ? » vers la question « Qui est responsable si le système agit ? ». L’autonomie n’est pas une fonctionnalité. Elle constitue une délégation de pouvoirs décisionnels. »
McKinsey, « Trust in the Age of Agents » (mars 2026), reformulé d’après Rich Isenberg

Les chiffres derrière la prolifération

L’ampleur du problème ne devient perceptible que lorsqu’on confronte les différentes études actuelles. Le rapport « Gravitee State of AI Agent Security Report 2026 », fondé sur une enquête menée auprès de 750 DSI, DTC et vice-présidents ingénierie, aboutit à une conclusion sévère : seuls 14,4 pour cent de tous les agents IA entrent en production avec une validation complète en matière de sécurité et d’informatique. En moyenne, seulement 47,1 pour cent des agents internes aux entreprises sont activement surveillés.

Les écarts sectoriels sont minimes. Dans le secteur manufacturier, 50 pour cent des agents fonctionnent sans surveillance, dans le secteur financier 47 pour cent, dans les télécommunications 49 pour cent. Aucun secteur ne maîtrise ce problème. 88 pour cent des entreprises interrogées ont connu, au cours de l’année écoulée, au moins un incident de sécurité avéré ou suspect impliquant des agents IA.

Gartner quantifie la vitesse de croissance : moins de 5 pour cent des applications d’entreprise disposaient, en 2025, de fonctions d’agents IA. D’ici fin 2026, ce chiffre atteindra 40 pour cent. Un facteur 8 en moins de deux ans. D’ici 2028, 33 pour cent de toutes les applications logicielles d’entreprise intégreront une IA agentique. Les structures de gouvernance ne progressent pas à un rythme comparable.

53 %
des agents IA non surveillés (Gravitee 2026)
86 %
ont exécuté des actions critiques
40 %
des projets seront abandonnés

Sources : Gravitee 2026, Bitkom 2025, Gartner 2025

Pourquoi la gouvernance IT classique échoue

La plupart des entreprises s’appuient sur des modèles de gouvernance conçus pour des systèmes informatiques stables et déterministes. Processus de gestion des changements, validations basées sur des tickets, audits de risques trimestriels. Ces outils ne fonctionnent pas avec des agents IA autonomes, car ils ignorent une caractéristique fondamentale de ces systèmes : les agents prennent des décisions en temps réel, de façon continue et sans validation humaine intermédiaire.

McKinsey décrit précisément le problème : dans l’organisation agentique, la gouvernance ne peut plus rester une pratique périodique et papier. Si les agents opèrent en continu, la gouvernance doit fonctionner en temps réel, être pilotée par les données et intégrée aux processus, avec les humains comme instance ultime de responsabilité. L’écart entre cette exigence et la réalité est considérable. Selon Gravitee, 82 pour cent des cadres dirigeants interrogés sont convaincus que leurs lignes directrices existantes les protègent contre les actions non autorisées des agents. Les faits techniques contredisent clairement cette auto-évaluation.

Un exemple illustre le danger : un agent de programmation autonome devait réaliser des tâches de maintenance pendant une période de gel du code (code freeze). Il a ignoré des instructions explicites, supprimé une base de données de production, puis créé 4 000 comptes utilisateurs factices et des journaux système erronés afin de masquer sa propre action. L’incident n’a été détecté que plusieurs heures plus tard. De tels scénarios ne sont plus hypothétiques. Selon McKinsey, 80 pour cent des entreprises ont déjà observé des comportements à risque de la part d’agents IA, allant de la divulgation inappropriée de données à l’accès non autorisé aux systèmes.

Ce que révèle le test du Bitkom sur les agents IA allemands

Particulièrement instructif est le livre blanc du Bitkom « Security of AI Agents », publié en décembre 2025. L’association professionnelle a testé 44 agents IA dans des conditions contrôlées. Les résultats devraient figurer dans tout reporting au comité de direction.

86 pour cent des agents testés ont exécuté des actions critiques ou nuisibles lors d’attaques : transmission de données à des tiers non autorisés, actions systémiques non autorisées, contournement de règles de sécurité. Plus de 80 pour cent des attaques réussies reposaient exclusivement sur une manipulation textuelle, dite « Prompt Injection ». Aucun accès technique au système n’était requis. Il suffit à un attaquant de trouver les bons mots.

Plus de 30 pour cent des agents ont accepté des commandes dangereuses : envoi d’e-mails sensibles à des destinataires externes, suppression d’enregistrements de données, contournement de règles de sécurité. Sur les 44 agents testés, seuls 3 disposaient de mécanismes de sécurité proactifs et fonctionnels, tels que des filtres d’entrée ou une séparation des rôles. La conclusion du Bitkom est sans appel : la majorité des agents IA disponibles sur le marché ne sont pas adaptés à un usage sécurisé en entreprise.

Le sandwich réglementaire : Règlement européen sur l’IA, NIS2 et RGPD

Le paysage réglementaire accentue la pression à agir. Le Règlement européen sur l’IA, pleinement applicable à partir d’août 2026, classe les agents IA autonomes comme systèmes à haut risque. Le problème ? Ce règlement a été rédigé pour les déploiements classiques d’IA, définis autour d’un cas d’usage fixe au moment de leur conception. Les agents génériques, capables de décider de façon autonome de leur prochaine action, ne s’intègrent pas aisément dans les catégories prévues. En cas de doute, la classification « haut risque » s’applique, jusqu’à preuve du contraire.

Parallèlement, la loi allemande de transposition de la directive NIS2 est entrée en vigueur en décembre 2025. Son application effective débutera en octobre 2026. Environ 29 500 entreprises sont concernées ; l’article 30 de la loi BSI (Office fédéral de la sécurité informatique) exige la mise en œuvre de mesures techniques et organisationnelles appropriées pour assurer la disponibilité, l’intégrité et la confidentialité. Les agents IA ayant accès aux systèmes relèvent sans aucun doute du champ d’application.

Pour les DSI, cela crée un triple empilement de conformité : NIS2 pour la sécurité, Règlement européen sur l’IA pour la classification des risques, et RGPD pour la protection des données. Un seul agent IA qui accède à des données clients et prend une décision erronée peut simultanément déclencher les trois obligations de notification. Qui souffre d’« Agent Sprawl » porte un risque juridique qui se multiplie.

Cinq étapes vers une gouvernance des agents

1. Constituer un inventaire des agents. La première étape semble banale, mais échoue souvent en pratique. Les entreprises doivent recenser tous les agents IA qui opèrent dans leur environnement. Pas uniquement ceux officiellement fournis, mais aussi ceux créés indépendamment par les départements métiers. Cela exige des outils techniques de découverte (discovery) et des processus organisationnels. Gartner recommande de traiter cette étape comme une condition préalable à toute autre mesure de gouvernance.

2. Mettre en œuvre la politique sous forme de code (Policy as Code). Les lignes directrices de gouvernance rédigées dans des documents PDF ne sont pas lues par des agents IA autonomes. Les politiques doivent exister sous une forme lisible par machine et être intégrées directement à l’infrastructure des agents. Concrètement, cela signifie : restrictions d’accès, classifications de données et seuils d’escalade codés, et non rédigés en prose. Chaque agent doit connaître ses garde-fous avant d’exécuter sa première action.

3. Gérer les accès selon le principe du moindre privilège (Least-Privilege). Chaque agent IA ne reçoit que les autorisations strictement nécessaires. Aucun agent n’a besoin d’un accès complet à l’ensemble de la base de données clients s’il ne fait que classer des tickets de support. La séparation des rôles entre agents autorisés à lire et agents autorisés à écrire ou à communiquer n’est pas une option, mais une obligation. Cela vaut particulièrement pour les agents interagissant avec des systèmes externes : les accès API doivent être configurés de façon granulaire, et non globale. Un agent chargé d’agréger des données de marché n’a pas besoin d’un droit d’écriture sur le CRM.

4. Mettre en place une surveillance en temps réel. Les agents opèrent de façon continue. Des audits trimestriels ne suffisent pas. Les entreprises ont besoin d’une surveillance en temps réel de toutes les actions des agents, avec des alertes automatisées en cas d’anomalies. Cela inclut : quelles données l’agent a-t-il interrogées ? Quelles décisions a-t-il prises ? Quels systèmes externes a-t-il contactés ? Sans traçabilité (audit-trail), pas de conformité.

5. Établir un reporting au comité de direction. La gouvernance des agents n’est pas un sujet IT, mais un sujet stratégique relevant du comité de direction. Les DSI doivent rendre compte régulièrement au comité de direction : combien d’agents sont en activité ? Quels risques existent ? Quels incidents se sont produits ? Les indicateurs clés de performance (KPI) correspondants n’existent encore dans la plupart des entreprises et doivent être définis. La gouvernance de l’IA appartient à l’ordre du jour du PDG, et non au département IT. Des KPI possibles pour le reporting sur les agents : nombre total d’agents actifs, proportion d’agents bénéficiant d’une validation complète en matière de sécurité, nombre d’incidents de sécurité par trimestre, proportion d’agents ayant accès à des données à caractère personnel, et délai moyen de détection (Time-to-Detection) des anomalies.

Perspective DACH : entre pression à agir et déficit de maturité

Les entreprises allemandes font face à un défi particulier. Les obligations NIS2 sont ancrées dans la loi, le Règlement européen sur l’IA sera appliqué à compter de l’été 2026, mais la réalité montre un déficit important d’implémentation. Heise Online a rapporté que les entreprises allemandes ignoraient massivement leurs obligations NIS2. Si l’application de prescriptions de sécurité établies bute déjà, la probabilité est faible que la gouvernance des agents IA soit mise en place volontairement et de façon proactive.

Pourtant, le marché allemand connaît une croissance fulgurante. Le Bitkom a lancé, en mars 2026, une formation certifiante dédiée aux spécialistes des agents IA. Le message est clair : le secteur reconnaît qu’une expertise manque pour exploiter en toute sécurité des systèmes autonomes. Les entreprises qui ne mettent pas en place dès maintenant des structures de gouvernance s’exposeront, dans douze mois, au même problème qu’au moment de l’entrée en vigueur du RGPD en 2018 : des corrections précipitées sous pression temporelle et un risque accru de coûts.

Ce que les DSI doivent décider dès maintenant

L’« Agent Sprawl » n’est pas un problème futur. Il existe déjà. La question n’est pas de savoir si une entreprise dispose ou non d’agents IA incontrôlés, mais combien elle en a et avec quel profil de risque. Selon le Forum économique mondial (WEF) et Capgemini, 82 pour cent des cadres dirigeants prévoient de déployer une IA agentique au cours des un à trois prochaines années. L’écart entre l’expérimentation accélérée et une gouvernance mature ne cesse de s’élargir, il ne se réduit pas.

Gartner prévoit qu’au-delà de 40 pour cent de tous les projets d’IA agentique seront abandonnés d’ici fin 2027, en raison de coûts explosifs, d’un valeur métier incertaine ou d’une gestion des risques insuffisante. L’alternative à l’abandon n’est pas la réticence, mais une montée en puissance contrôlée, accompagnée d’une gouvernance intégrée.

Concrètement, cela signifie pour les DSI : d’ici mi-2026, un inventaire des agents doit être constitué. D’ici août 2026, date d’entrée en vigueur des obligations du Règlement européen sur l’IA, les agents à haut risque doivent être classifiés et documentés. Et au plus tard d’ici octobre 2026, date de démarrage de l’application effective de NIS2, un système de surveillance opérationnel doit couvrir tous les agents IA ayant accès aux systèmes. Celui qui n’a pas encore mis en place aujourd’hui un programme de gouvernance pour les systèmes IA autonomes ne perd pas seulement le contrôle de son paysage IT. Il s’expose à une responsabilité personnelle au regard des nouvelles réglementations européennes.

Questions fréquentes

Qu’est-ce exactement que l’« Agent Sprawl » ?

L’« Agent Sprawl » désigne la prolifération incontrôlée d’agents IA autonomes au sein des entreprises. Les départements métiers créent eux-mêmes des agents sans validation préalable des services informatiques ni vérification de sécurité. Contrairement à l’IT fantôme classique, ces systèmes agissent de façon autonome et peuvent, sans surveillance humaine, traiter des données, prendre des décisions et interagir avec des systèmes externes.

Combien d’agents IA fonctionnent en moyenne sans surveillance dans une entreprise type ?

Selon le rapport « Gravitee State of AI Agent Security Report 2026 », seuls 47 pour cent de tous les agents IA internes aux entreprises sont activement surveillés en moyenne. Cela signifie que plus de la moitié opèrent sans contrôle de sécurité actif. Seulement 14 pour cent des agents obtiennent une validation complète en matière de sécurité avant leur mise en production.

Quels risques réglementaires engendrent les agents IA incontrôlés ?

À compter d’août 2026, les obligations liées aux systèmes à haut risque du Règlement européen sur l’IA s’appliqueront. Les agents autonomes sont généralement classés comme systèmes à haut risque. Parallèlement, la loi allemande de transposition de NIS2 exige, à compter d’octobre 2026, des mesures de sécurité vérifiables pour tous les systèmes informatiques des entreprises concernées. Le RGPD s’ajoute pour la protection des données à caractère personnel. Un seul incident peut déclencher simultanément les trois obligations de notification.

Qu’est-ce que la « Policy as Code » et pourquoi est-elle essentielle pour la gouvernance des agents ?

La « Policy as Code » consiste à coder les lignes directrices de gouvernance sous une forme lisible par machine et à les intégrer directement dans l’infrastructure des agents. Les agents IA autonomes ne lisent pas les lignes directrices en format PDF. Les règles d’accès, les classifications de données et les seuils d’escalade doivent être codées afin d’être appliquées en temps réel.

À quelle date les DSI doivent-ils avoir mis en place un programme de gouvernance des agents ?

Les échéances sont claires : d’ici mi-2026, un inventaire des agents doit être constitué. D’ici août 2026, les agents à haut risque doivent être classifiés conformément au Règlement européen sur l’IA. D’ici octobre 2026, un système de surveillance doit être opérationnel pour tous les agents IA ayant accès aux systèmes, afin de démontrer la conformité à NIS2. Les entreprises qui commencent aujourd’hui disposent d’environ six mois de délai.

Suggestions de lecture de la rédaction

Source de l’image principale : Tima Miroshnichenko / Pexels

Partager cet article :

Plus d'articles

11.04.2026

Directeur IA 2026 : Vraie fonction ou simple titre ?

Tobias Massow

⏰ 9 min de lecture Le Chief AI Officer est le poste au niveau C le plus souvent annoncé et le moins ...

Lire l'article
08.04.2026

Gouvernance de l’IA 2026 : Seulement 14 % ont clarifié qui est responsable

Tobias Massow

7 Min. de lecture 87 % des entreprises augmentent leurs budgets en intelligence artificielle. Mais seulement ...

Lire l'article
07.04.2026

18 % d’écart de rémunération, une échéance de l’UE et peu de préparation : transparence des salaires à partir de juin 2026

Benedikt Langer

8 Min. de lecture À partir de juin 2026, les fourchettes salariales devront figurer dans les offres ...

Lire l'article
06.04.2026

Découvrez des solutions innovantes pour la cybersécurité IT et OT

Benedikt Langer

Vom 22. bis 24. Oktober 2024 versammelt sich die IT-Sicherheitsbranche in Nürnberg zur it-sa Expo ...

Lire l'article
06.04.2026

Retour sur le sommet du numérique 2024

Benedikt Langer

Fin octobre s'est tenu à Francfort-sur-le-Main le sommet du numérique 2024 organisé par le gouvernement ...

Lire l'article
06.04.2026

Avec la numérisation, tout le monde gagne

Dr. Sophie Chung

Le système de santé allemand est un domaine du quotidien qui est jusqu'ici peu numérisé. Il n'est ...

Lire l'article
Un magazine de Evernine Media GmbH