Directeur IA 2026 : Vraie fonction ou simple titre ?
Tobias Massow
⏰ 9 min de lecture Le Chief AI Officer est le poste au niveau C le plus souvent annoncé et le moins ...
7 min de lecture
L’IA générative (GenAI) accroît la productivité. C’est prouvé. Mais une effets secondaire, largement absente des cas d’usage métier, accompagne ce gain : la capacité à penser de façon autonome diminue. Gartner prévoit que d’ici fin 2026, la moitié de toutes les organisations dans le monde mettront en place des évaluations de compétences « sans IA » – car elles ne sont plus certaines que leurs collaborateurs soient capables de prendre des décisions valides sans l’aide d’un copilote IA. La question inconfortable pour tout DSI qui déploie actuellement la GenAI : et si les gains de productivité d’aujourd’hui coûtaient la capacité de réflexion de demain ?
Les Prévisions stratégiques de Gartner d’octobre 2025 formulent la situation sobrement : l’utilisation de la GenAI entraîne une atrophie des capacités critiques de réflexion. C’est pourquoi 50 % des organisations mondiales imposeront des évaluations de compétences sans assistance par l’IA. Il s’agit de l’une des rares prévisions de Gartner qui ne contient aucune promesse technologique, mais bien une mise en garde.
Que signifie l’atrophie des compétences liée à l’IA ? L’atrophie des compétences désigne la perte progressive de capacités qui ne sont plus régulièrement exercées. Lorsqu’un analyste utilise quotidiennement la GenAI pour produire des synthèses, des présentations ou des notes décisionnelles, il s’entraîne à piloter l’IA – pas à approfondir analytiquement le sujet. Au bout de 12 à 18 mois, le résultat est mesurable : la capacité à mener une analyse autonome s’affaiblit nettement.
Il ne s’agit pas d’un phénomène marginal. L’analyse de CIO Dive sur les prévisions de Gartner le résume avec précision : « L’IA vous vole vos compétences » – un effet comportemental de la technologie, non un défaut technique. Le copilote fonctionne parfaitement. Le problème se trouve devant l’écran.
L’atrophie des compétences liée à l’IA survient dans un contexte déjà tendu. Les données de McKinsey montrent que 87 % des organisations connaissent soit déjà des écarts de compétences (43 %), soit les anticipent dans les cinq prochaines années (44 %). La crise des compétences IT touchera vraisemblablement 90 % de toutes les organisations mondiales d’ici 2026.
Le dommage économique est quantifiable : 5,5 milliards de dollars américains de valeur ajoutée potentielle sont menacés – à cause de transformations retardées, de projets avortés et d’opportunités commerciales manquées. Ce n’est pas une prédiction lointaine. C’est la réalité qui se traduit par des cycles allongés de time-to-market, des coûts de projet croissants et une dépendance accrue à l’égard de consultants externes.
Sources : Prévisions stratégiques de Gartner (2025), Enquête McKinsey sur les écarts de compétences, Enquête Gartner auprès des DSI (2025)
L’ironie ? La GenAI est déployée comme solution à la pénurie de talents. « L’IA augmentera 50 % des travailleurs de bureau d’ici 2026 », prévoit Gartner. Cela est exact. Toutefois, augmentation et substitution de la capacité de réflexion ne sont pas synonymes. Celui qui fournit à son équipe de la GenAI pour combler des manques de capacité, tout en laissant s’éroder sa faculté de pensée autonome, échange un problème à court terme contre un risque à long terme.
Secteur financier : L’évaluation des risques, l’interprétation de la conformité et les décisions de crédit exigent un jugement qui ne peut être automatisé. Si les analystes ont pris l’habitude de laisser l’IA préparer leurs analyses de risque, ils perdent leur « sixième sens » pour détecter les anomalies – précisément ce « sixième sens » forgé par des années d’analyse autonome. Les régulateurs européens exigeront bientôt des tests de résistance sans IA pour les processus décisionnels critiques. Le règlement DORA (Digital Operational Resilience Act) et la loi européenne sur l’IA (EU AI Act) fournissent déjà le cadre juridique nécessaire.
Secteur de la santé : Les outils d’IA diagnostique atteignent, dans certaines études, des taux de réussite supérieurs à ceux des radiologues. Mais que se passe-t-il lorsque le médecin chargé de vérifier la recommandation de l’IA n’a plus la compétence nécessaire pour la remettre en question ? La FDA (Food and Drug Administration) et l’EMA (European Medicines Agency) examinent déjà la possibilité d’intégrer la compétence humaine de vérification comme critère d’autorisation pour les dispositifs médicaux basés sur l’IA.
Secteur juridique : Les assistants juridiques IA accélèrent considérablement la due diligence et l’analyse contractuelle. L’envers de la médaille : les jeunes avocats qui travaillent principalement à partir de projets générés par l’IA ne développent pas la même profondeur de raisonnement juridique que leurs aînés. Des cabinets signalent déjà des problèmes de qualité dans les mémoires rédigés de façon autonome. Le constat est cohérent à travers tous les secteurs : la première génération à travailler pleinement avec la GenAI développe une expertise poussée des outils – mais une expertise disciplinaire plus superficielle. Or, dans les secteurs réglementés, cette expertise disciplinaire devient un facteur de responsabilité.
Les partisans d’un usage non encadré de l’IA argumentent ainsi : la calculatrice n’a pas détruit la pensée mathématique. Le GPS n’a pas anéanti notre capacité d’orientation. La GenAI ne remplacera pas la pensée critique, mais la transformera. La compétence centrale évolue ainsi du « réaliser soi-même l’analyse » vers le « poser la bonne question et évaluer la réponse de l’IA ».
Cet argument possède une réelle substance. La capacité à évaluer de façon critique la sortie de l’IA et à formuler les bons prompts constitue une nouvelle compétence qu’il faut impérativement former. La question est : peut-on évaluer la sortie d’une IA si l’on n’a jamais maîtrisé soi-même la discipline sous-jacente ? Un analyste expérimenté qui utilise l’IA dispose de cadres de référence permettant de détecter les erreurs. Un débutant qui travaille avec un copilote dès son premier jour ne possède pas ces cadres de référence.
C’est précisément pourquoi Gartner prévoit ces évaluations sans IA : non pas pour freiner le déploiement de l’IA, mais pour garantir que les personnes qui pilotent l’IA soient aussi capables de penser sans elle. Il s’agit de préserver la capacité de repli – pas de céder à la nostalgie.
1. Mettre en place des évaluations de compétences sans IA : Non pas comme une sanction, mais comme un état des lieux. Où en sont les équipes lorsque le copilote est désactivé ? Les résultats indiquent précisément où un upskilling ciblé est nécessaire. Dans des secteurs tels que la finance et la santé, les exigences réglementaires imposeront de toute façon de tels tests dans les 18 prochains mois.
2. Définir des plages de « travail approfondi » sans outils IA : Deux à trois heures par semaine consacrées à la rédaction d’analyses, de documents stratégiques ou de notes décisionnelles sans aucune assistance de GenAI. Cela peut sembler une perte de temps. En réalité, c’est un investissement dans la « musculature cognitive », qui fera la différence, à long terme, entre une qualité moyenne et une qualité exceptionnelle des décisions.
3. Mettre en place des structures de mentorat pour les « natifs IA » : Les nouveaux entrants, qui utilisent la GenAI dès leur premier jour, ont besoin de collègues expérimentés capables de leur montrer comment la discipline fonctionne sans IA. Pas comme un cours d’histoire, mais comme une calibration : comment reconnaître que la sortie de l’IA est absurde, si l’on ne maîtrise pas soi-même le sujet ?
4. Mesurer séparément la compétence IA et la compétence disciplinaire : La plupart des systèmes de performance évaluent la quantité et la qualité des livrables. Ils ne distinguent pas si ceux-ci sont produits de façon humaine ou assistée par l’IA. Le Skills-based Talent Management (passage de 46 % à 90 % d’ici 2027 selon Gartner) doit intégrer ces deux dimensions : à quel point une personne utilise-t-elle efficacement l’IA ? Et à quel point travaille-t-elle efficacement sans elle ?
La GenAI est l’outil de productivité le plus puissant depuis le tableur. Mais les outils puissants ont des effets secondaires. La prévision de Gartner concernant les évaluations sans IA n’est pas de l’alarmisme – c’est la conséquence logique d’une observation que toute organisation IT peut faire elle-même : les équipes qui travaillent depuis 18 mois avec un copilote livrent plus vite. Mais leur capacité à livrer sans copilote a nettement diminué. Les DSI qui agissent dès maintenant préservent la qualité décisionnelle de leur organisation. Les autres ne s’en rendront compte que le jour où le copilote sera indisponible – ou lorsqu’il se trompera, sans que personne ne s’en aperçoive.
Les tests de compétence sans IA sont des procédures d’évaluation dans lesquelles les candidats ou les collaborateurs doivent accomplir des tâches sans avoir accès à des outils d’IA générative. Leur objectif est de mesurer les capacités analytiques et créatives autonomes. Gartner prévoit que 50 % des organisations mettront en place de tels tests d’ici fin 2026. Ces tests ne remplacent pas les évaluations basées sur l’IA, mais les complètent en isolant et en mesurant spécifiquement le jugement humain.
La pensée critique est une capacité qui se maintient grâce à un exercice régulier. Lorsque les analyses, les synthèses et les notes décisionnelles sont systématiquement produites par la GenAI, disparaît le travail cognitif nécessaire à l’entraînement de ces compétences. Après 12 à 18 mois d’utilisation intensive de la GenAI, les entreprises rapportent des baisses mesurables de la qualité des documents rédigés de façon autonome.
Trois méthodes s’avèrent pertinentes : premièrement, des évaluations régulières sans IA, reposant sur des tâches standardisées (analyse, synthèse, note décisionnelle) ; deuxièmement, une comparaison de la qualité des livrables avec et sans assistance IA, suivie dans le temps ; troisièmement, des revues qualitatives par les pairs, au cours desquelles des collègues expérimentés évaluent le travail réalisé de façon autonome. La combinaison de ces trois approches permet de déterminer si la capacité de réflexion reste stable ou diminue.
Non. Une restriction serait une perte de productivité sans bénéfice stratégique. L’approche adéquate est différenciée : utiliser la GenAI comme outil par défaut pour les tâches répétitives, tout en instaurant délibérément des périodes sans IA pour les tâches exigeant une réflexion autonome. À l’instar des sportifs qui, malgré l’existence des machines, s’entraînent aussi avec des poids libres – non pas parce que les machines sont mauvaises, mais parce que les muscles stabilisateurs ne se développent qu’en l’absence de machine.
Le DSI est responsable du déploiement de la GenAI et donc aussi de ses effets secondaires. Cela implique d’intégrer le suivi des compétences liées à l’IA dès la stratégie de déploiement – et non comme une réflexion postérieure. Concrètement : réaliser des évaluations de référence avant le déploiement, effectuer des suivis semestriels et définir clairement les critères déclenchant des mesures correctives. 90 % des DSI mettront en œuvre, d’ici 2027, des stratégies de gestion des talents fondées sur les compétences – le paradoxe « pensée IA » doit y trouver sa place.
Source de l’image : Pexels / Vlada Karpovich (px:6114964)