12.11.2025

En bref

L’essentiel en bref

  • L’IA agentique désigne des systèmes d’intelligence artificielle capables de planifier, d’exécuter et d’évaluer des tâches de manière autonome – sans intervention humaine intermédiaire.
  • Le marché des agents d’IA connaît une croissance explosive en 2025 : Salesforce, Microsoft, Google et SAP proposent désormais des plateformes d’agents dédiées aux entreprises.
  • Le défi majeur ne réside pas dans la technologie, mais dans la gouvernance : quelles décisions un agent peut-il prendre de manière autonome ?
  • Les implémentations réussies commencent par des cas d’usage clairement délimités et étendent progressivement le degré d’autonomie.
  • Les entreprises qui ignorent l’IA agentique s’exposent à un retard de productivité de 30 à 50 % par rapport aux early adopters.

La première vague de l’IA en entreprise était réactive : des chatbots répondant aux questions, des copilotes suggérant des actions, des assistants agissant sur instruction. La deuxième vague est radicalement différente : des agents d’IA qui agissent de manière autonome.

 

L’IA agentique planifie des tâches à plusieurs étapes, accède à des outils, prend des décisions intermédiaires et livre des résultats – sans qu’un humain doive valider chaque étape. Le potentiel est immense : des processus qui prennent aujourd’hui des heures pourraient être exécutés en quelques minutes. Mais la question que tout dirigeant doit se poser est délicate : quelle autonomie accorder à une machine ?

Du Copilote à l’Agent : un bond qualitatif

La différence entre un copilote et un agent n’est pas progressive, mais fondamentale. Un copilote complète les décisions humaines. Un agent remplace des étapes de décision humaines.

Concrètement : un copilote propose une réponse à un e-mail, que l’humain valide et envoie. Un agent lit l’e-mail, évalue la demande, recherche dans le CRM les informations pertinentes, élabore une proposition de solution, envoie la réponse – et n’escalade que si certains seuils sont dépassés.

Les gains d’efficacité sont impressionnants. Les premières implémentations chez ServiceNow, Klarna et Mercado Libre révèlent des gains de productivité de 30 à 60 pour cent dans des processus clairement définis. Mais elles montrent aussi les risques : lorsque les agents commettent des erreurs, ils les commettent rapidement et à grande échelle.

Le paysage des agents d’entreprise en 2025

En 2025, chaque grand éditeur de technologies a lancé sa propre plateforme d’agents :

Microsoft Copilot Studio permet de créer des agents capables d’agir à travers Microsoft 365, Dynamics 365 et les services Azure. Son principal atout réside dans son intégration à l’infrastructure Microsoft existante.

Salesforce Agentforce se concentre sur l’interaction client : des agents commerciaux, des agents de service et des agents marketing qui opèrent de manière autonome au sein du CRM.

SAP Joule introduit des agents dans l’univers des ERP : des agents d’approvisionnement, des agents financiers et des agents RH qui automatisent les processus métiers standard.

Google Vertex AI Agent Builder offre la plus grande flexibilité pour des agents sur mesure, mais exige davantage de compétences techniques.

La question stratégique pour les DSI : opter pour une approche Best-of-Suite (un seul fournisseur pour tous les agents) ou Best-of-Breed (des agents spécialisés par cas d’usage) ? La réponse dépend de l’infrastructure IT existante et du niveau de flexibilité souhaité.

 

Gouvernance : la question centrale et délicate

La mise en œuvre technique des agents est maîtrisable. La question de la gouvernance, en revanche, ne l’est souvent pas – car elle touche aux principes mêmes de la direction d’entreprise.

Quelles décisions un agent peut-il prendre de manière autonome ? Jusqu’à quel montant un agent d’approvisionnement peut-il déclencher des commandes ? Un agent de service peut-il accorder un avoir à un client ? Un agent de recrutement peut-il rejeter des candidats ?

La bonne pratique repose sur un modèle d’autonomie à plusieurs niveaux :
– Niveau 1 : l’agent effectue des recherches et formule des recommandations, l’humain prend la décision.
– Niveau 2 : l’agent décide dans le cadre de paramètres définis, l’humain supervise.
– Niveau 3 : l’agent décide de manière autonome, l’humain n’intervient qu’en cas d’exceptions.

Le passage du niveau 1 au niveau 3 doit être guidé par les données : ce n’est que lorsque, sur plusieurs semaines, un agent prend des décisions objectivement meilleures ou équivalentes à celles des humains que son degré d’autonomie est augmenté.

Premiers pas : trois cas d’usage pour les 90 premiers jours

Plutôt que de se lancer dans des programmes de transformation ambitieux, il est recommandé d’opter pour un démarrage ciblé avec trois cas d’usage éprouvés :

1. Agent du helpdesk IT : Traitement des tickets de niveau 1 – réinitialisations de mots de passe, installations logicielles, problèmes de VPN. Un processus clairement défini, un risque faible et une fréquence élevée. Taux d’automatisation typique : 60 à 80 %.

2. Agent d’approvisionnement : Automatisation des commandes routinières en dessous d’un seuil prédéfini. L’agent vérifie les stocks, compare les fournisseurs, déclenche les commandes et les documente dans l’ERP. Gain de temps : 70 % du délai de traitement.

3. Agent d’analyse de documents : Traitement des contrats, factures ou documents de conformité entrants. L’agent extrait les informations pertinentes, les vérifie par rapport aux règles en vigueur et génère des synthèses structurées. Particulièrement efficace dans les services juridique, financier et achats.

Point commun : ces trois cas d’usage reposent sur des entrées claires, des processus définis et des résultats mesurables. Des atouts qui en font des candidats idéaux pour un démarrage – tout en fournissant les données nécessaires pour étayer le business case d’initiatives plus larges autour des agents.

Questions fréquentes

Qu’est-ce qui distingue l’IA agentique (Agentic AI) de l’automatisation traditionnelle ?

L’automatisation classique (RPA, workflows) suit des règles prédéfinies. L’IA agentique, en revanche, peut planifier, improviser et réagir à des situations imprévues. L’agent décide lui-même quels outils utiliser et dans quel ordre exécuter les étapes. Cette flexibilité rend les agents plus adaptables, mais aussi plus difficiles à contrôler.

À quel point les agents d’IA sont-ils sécurisés ?

La sécurité dépend de la mise en œuvre. Les mesures critiques incluent : des permissions minimales (les agents n’ont accès qu’aux données strictement nécessaires), des journaux d’audit pour toutes les actions des agents, une escalade automatique en cas d’anomalies et des tests réguliers de type red team. Les agents ne devraient jamais disposer de plus de droits que le collaborateur humain qu’ils assistent.

Contexte DACH : Les tests red team sont une pratique courante dans les entreprises allemandes, suisses et autrichiennes pour évaluer la résilience des systèmes face à des attaques simulées, conformément aux normes de sécurité comme l’ISO 27001 ou le BSI-Grundschutz.

Les employés vont-ils perdre leur emploi à cause de l’IA agentique ?

À court terme, l’IA agentique transforme davantage les rôles qu’elle ne supprime des postes. Les collaborateurs qui prenaient auparavant des décisions routinières deviennent des superviseurs d’agents, chargés de gérer les exceptions et de garantir la qualité. À long terme, l’impact sur l’emploi dépendra de la manière dont les entreprises utiliseront les gains de productivité : pour stimuler la croissance ou réduire les coûts.

Comment mesurer le retour sur investissement (ROI) d’un agent d’IA ?

Quatre indicateurs clés : l’augmentation du débit (nombre d’opérations par unité de temps), la réduction du temps de traitement, le taux d’erreur comparé à un traitement humain, et le coût par opération. Pour les agents bien implémentés, le seuil de rentabilité est généralement atteint en trois à six mois.

Avez-vous besoin de vos propres modèles de langage (LLM) pour l’IA agentique ?

Dans la plupart des cas, non. Les plateformes d’agents d’entreprise utilisent les LLM des grands fournisseurs (GPT-4, Claude, Gemini) via des API. Développer ses propres modèles ne se justifie que dans des cas extrêmes, comme des exigences strictes en matière de protection des données ou des domaines hautement spécialisés. Pour démarrer, les plateformes disponibles sont amplement suffisantes.

Contexte DACH : En Allemagne, en Autriche et en Suisse, les entreprises sont particulièrement sensibles aux questions de souveraineté des données, notamment en raison du RGPD (Règlement général sur la protection des données) et des réglementations locales comme la loi fédérale suisse sur la protection des données (LPD).

 

Source de l’image d’en-tête : Unsplash / Possessed Photography

Partager cet article :

Plus d'articles

11.04.2026

Directeur IA 2026 : Vraie fonction ou simple titre ?

Tobias Massow

⏰ 9 min de lecture Le Chief AI Officer est le poste au niveau C le plus souvent annoncé et le moins ...

Lire l'article
08.04.2026

Gouvernance de l’IA 2026 : Seulement 14 % ont clarifié qui est responsable

Tobias Massow

7 Min. de lecture 87 % des entreprises augmentent leurs budgets en intelligence artificielle. Mais seulement ...

Lire l'article
07.04.2026

18 % d’écart de rémunération, une échéance de l’UE et peu de préparation : transparence des salaires à partir de juin 2026

Benedikt Langer

8 Min. de lecture À partir de juin 2026, les fourchettes salariales devront figurer dans les offres ...

Lire l'article
06.04.2026

Découvrez des solutions innovantes pour la cybersécurité IT et OT

Benedikt Langer

Vom 22. bis 24. Oktober 2024 versammelt sich die IT-Sicherheitsbranche in Nürnberg zur it-sa Expo ...

Lire l'article
06.04.2026

Retour sur le sommet du numérique 2024

Benedikt Langer

Fin octobre s'est tenu à Francfort-sur-le-Main le sommet du numérique 2024 organisé par le gouvernement ...

Lire l'article
06.04.2026

Avec la numérisation, tout le monde gagne

Dr. Sophie Chung

Le système de santé allemand est un domaine du quotidien qui est jusqu'ici peu numérisé. Il n'est ...

Lire l'article
Un magazine de Evernine Media GmbH