Directeur IA 2026 : Vraie fonction ou simple titre ?
Tobias Massow
⏰ 9 min de lecture Le Chief AI Officer est le poste au niveau C le plus souvent annoncé et le moins ...
La première vague de l’IA en entreprise était réactive : des chatbots répondant aux questions, des copilotes suggérant des actions, des assistants agissant sur instruction. La deuxième vague est radicalement différente : des agents d’IA qui agissent de manière autonome.
L’IA agentique planifie des tâches à plusieurs étapes, accède à des outils, prend des décisions intermédiaires et livre des résultats – sans qu’un humain doive valider chaque étape. Le potentiel est immense : des processus qui prennent aujourd’hui des heures pourraient être exécutés en quelques minutes. Mais la question que tout dirigeant doit se poser est délicate : quelle autonomie accorder à une machine ?
La différence entre un copilote et un agent n’est pas progressive, mais fondamentale. Un copilote complète les décisions humaines. Un agent remplace des étapes de décision humaines.
Concrètement : un copilote propose une réponse à un e-mail, que l’humain valide et envoie. Un agent lit l’e-mail, évalue la demande, recherche dans le CRM les informations pertinentes, élabore une proposition de solution, envoie la réponse – et n’escalade que si certains seuils sont dépassés.
Les gains d’efficacité sont impressionnants. Les premières implémentations chez ServiceNow, Klarna et Mercado Libre révèlent des gains de productivité de 30 à 60 pour cent dans des processus clairement définis. Mais elles montrent aussi les risques : lorsque les agents commettent des erreurs, ils les commettent rapidement et à grande échelle.
En 2025, chaque grand éditeur de technologies a lancé sa propre plateforme d’agents :
Microsoft Copilot Studio permet de créer des agents capables d’agir à travers Microsoft 365, Dynamics 365 et les services Azure. Son principal atout réside dans son intégration à l’infrastructure Microsoft existante.
Salesforce Agentforce se concentre sur l’interaction client : des agents commerciaux, des agents de service et des agents marketing qui opèrent de manière autonome au sein du CRM.
SAP Joule introduit des agents dans l’univers des ERP : des agents d’approvisionnement, des agents financiers et des agents RH qui automatisent les processus métiers standard.
Google Vertex AI Agent Builder offre la plus grande flexibilité pour des agents sur mesure, mais exige davantage de compétences techniques.
La question stratégique pour les DSI : opter pour une approche Best-of-Suite (un seul fournisseur pour tous les agents) ou Best-of-Breed (des agents spécialisés par cas d’usage) ? La réponse dépend de l’infrastructure IT existante et du niveau de flexibilité souhaité.
La mise en œuvre technique des agents est maîtrisable. La question de la gouvernance, en revanche, ne l’est souvent pas – car elle touche aux principes mêmes de la direction d’entreprise.
Quelles décisions un agent peut-il prendre de manière autonome ? Jusqu’à quel montant un agent d’approvisionnement peut-il déclencher des commandes ? Un agent de service peut-il accorder un avoir à un client ? Un agent de recrutement peut-il rejeter des candidats ?
La bonne pratique repose sur un modèle d’autonomie à plusieurs niveaux :
– Niveau 1 : l’agent effectue des recherches et formule des recommandations, l’humain prend la décision.
– Niveau 2 : l’agent décide dans le cadre de paramètres définis, l’humain supervise.
– Niveau 3 : l’agent décide de manière autonome, l’humain n’intervient qu’en cas d’exceptions.
Le passage du niveau 1 au niveau 3 doit être guidé par les données : ce n’est que lorsque, sur plusieurs semaines, un agent prend des décisions objectivement meilleures ou équivalentes à celles des humains que son degré d’autonomie est augmenté.
Plutôt que de se lancer dans des programmes de transformation ambitieux, il est recommandé d’opter pour un démarrage ciblé avec trois cas d’usage éprouvés :
1. Agent du helpdesk IT : Traitement des tickets de niveau 1 – réinitialisations de mots de passe, installations logicielles, problèmes de VPN. Un processus clairement défini, un risque faible et une fréquence élevée. Taux d’automatisation typique : 60 à 80 %.
2. Agent d’approvisionnement : Automatisation des commandes routinières en dessous d’un seuil prédéfini. L’agent vérifie les stocks, compare les fournisseurs, déclenche les commandes et les documente dans l’ERP. Gain de temps : 70 % du délai de traitement.
3. Agent d’analyse de documents : Traitement des contrats, factures ou documents de conformité entrants. L’agent extrait les informations pertinentes, les vérifie par rapport aux règles en vigueur et génère des synthèses structurées. Particulièrement efficace dans les services juridique, financier et achats.
Point commun : ces trois cas d’usage reposent sur des entrées claires, des processus définis et des résultats mesurables. Des atouts qui en font des candidats idéaux pour un démarrage – tout en fournissant les données nécessaires pour étayer le business case d’initiatives plus larges autour des agents.
L’automatisation classique (RPA, workflows) suit des règles prédéfinies. L’IA agentique, en revanche, peut planifier, improviser et réagir à des situations imprévues. L’agent décide lui-même quels outils utiliser et dans quel ordre exécuter les étapes. Cette flexibilité rend les agents plus adaptables, mais aussi plus difficiles à contrôler.
La sécurité dépend de la mise en œuvre. Les mesures critiques incluent : des permissions minimales (les agents n’ont accès qu’aux données strictement nécessaires), des journaux d’audit pour toutes les actions des agents, une escalade automatique en cas d’anomalies et des tests réguliers de type red team. Les agents ne devraient jamais disposer de plus de droits que le collaborateur humain qu’ils assistent.
Contexte DACH : Les tests red team sont une pratique courante dans les entreprises allemandes, suisses et autrichiennes pour évaluer la résilience des systèmes face à des attaques simulées, conformément aux normes de sécurité comme l’ISO 27001 ou le BSI-Grundschutz.
À court terme, l’IA agentique transforme davantage les rôles qu’elle ne supprime des postes. Les collaborateurs qui prenaient auparavant des décisions routinières deviennent des superviseurs d’agents, chargés de gérer les exceptions et de garantir la qualité. À long terme, l’impact sur l’emploi dépendra de la manière dont les entreprises utiliseront les gains de productivité : pour stimuler la croissance ou réduire les coûts.
Quatre indicateurs clés : l’augmentation du débit (nombre d’opérations par unité de temps), la réduction du temps de traitement, le taux d’erreur comparé à un traitement humain, et le coût par opération. Pour les agents bien implémentés, le seuil de rentabilité est généralement atteint en trois à six mois.
Dans la plupart des cas, non. Les plateformes d’agents d’entreprise utilisent les LLM des grands fournisseurs (GPT-4, Claude, Gemini) via des API. Développer ses propres modèles ne se justifie que dans des cas extrêmes, comme des exigences strictes en matière de protection des données ou des domaines hautement spécialisés. Pour démarrer, les plateformes disponibles sont amplement suffisantes.
Contexte DACH : En Allemagne, en Autriche et en Suisse, les entreprises sont particulièrement sensibles aux questions de souveraineté des données, notamment en raison du RGPD (Règlement général sur la protection des données) et des réglementations locales comme la loi fédérale suisse sur la protection des données (LPD).
Source de l’image d’en-tête : Unsplash / Possessed Photography