Directeur IA 2026 : Vraie fonction ou simple titre ?
Tobias Massow
⏰ 9 min de lecture Le Chief AI Officer est le poste au niveau C le plus souvent annoncé et le moins ...
4 min de lecture
De plus en plus d’entreprises rapatrient des charges de travail depuis le cloud public vers leurs propres centres de données ou des environnements de cloud privé. Ce phénomène, appelé « Cloud-Repatriation », va à l’encontre du mantra « cloud-first » qui prévalait jusqu’alors. Pour les directeurs des systèmes d’information (DSI), il ne s’agit pas d’un recul, mais bien d’une maturité stratégique : celui qui comprend où chaque charge de travail est la mieux placée optimise simultanément coûts, conformité et contrôle.
Le paradigme « cloud-first » a dominé la dernière décennie. Les entreprises y ont massivement migré leurs charges de travail, attirées par les promesses de flexibilité, de capacité d’évolutivité et par le désir de se libérer de la gestion du matériel. Or, après plusieurs années d’utilisation, les aspects négatifs commencent à apparaître : des coûts qui augmentent sans contrôle, un verrouillage fournisseur (« vendor lock-in ») qui complique tout changement, et des exigences de conformité difficiles à remplir avec les hyperscalers américains.
IDC a constaté, dans une étude récente, que 71 % des entreprises ont déjà rapatrié des charges de travail depuis le cloud public. Les motifs sont multiples : l’optimisation des coûts arrive en tête, suivie de la souveraineté des données et des exigences de performance. Dans la région DACH (Allemagne, Autriche, Suisse), le paysage réglementaire joue un rôle croissant : les directives NIS2, DORA et le règlement européen sur l’intelligence artificielle imposent des exigences strictes en matière de contrôle des données, incompatibles avec certaines configurations cloud.
Le cas le plus médiatisé est celui de 37signals, l’entreprise derrière Basecamp et HEY. Son fondateur, David Heinemeier Hansson, a documenté le transfert complet de ses services depuis AWS vers son propre matériel, annonçant des économies projetées de 7 millions de dollars sur cinq ans. Bien que ce scénario ne soit pas directement transposable au moyen secteur allemand, il illustre un principe fondamental : à partir d’une certaine taille et d’une prévisibilité suffisante des charges de travail, une infrastructure propriétaire devient économiquement plus avantageuse que la location dans le cloud.
« La décision de rapatrier des charges de travail depuis le cloud public est, dans la plupart des cas, une décision motivée par les coûts. Les entreprises disposant de charges de travail prévisibles peuvent réaliser des économies de 30 à 50 % en optant pour une infrastructure propriétaire. »
IDG/Supermicro Cloud Survey (2024)
Moteur 1 : la vérité des coûts après plusieurs années d’utilisation du cloud. De nombreuses entreprises n’ont établi leur coût total de possession (TCO) réel qu’après plusieurs années d’utilisation du cloud. Les frais de sortie (« egress costs »), les coûts de stockage, le support premium et la charge de travail liée à l’architecture cloud s’additionnent. Selon Flexera, le gaspillage moyen dans le cloud s’élève à 29 %. Pour des charges de travail prévisibles et à charge stable, une infrastructure propriétaire est souvent 30 à 50 % moins chère qu’une configuration cloud équivalente. Le seuil de rentabilité dépend de la taille de l’infrastructure, mais se situe typiquement entre 100 et 200 machines virtuelles, ou une charge équivalente en conteneurs.
Moteur 2 : les exigences réglementaires en matière de souveraineté des données. Le règlement européen sur les données (EU Data Act), la directive NIS2 et le règlement européen sur l’intelligence artificielle renforcent les exigences relatives au contrôle des données. Le CLOUD Act américain permet aux autorités américaines d’accéder aux données détenues par des entreprises américaines, indépendamment de l’emplacement physique des serveurs. Un centre de données européen exploité par AWS ou Microsoft ne protège donc pas automatiquement contre cet accès. Pour les données sensibles dans des secteurs fortement réglementés, cela signifie : cloud souverain ou infrastructure propriétaire, tertium non datur.
Moteur 3 : performance et latence. Certaines charges de travail profitent d’une proximité physique avec la source des données. Les applications industrielles IoT, les analyses en temps réel dans les usines et certains cas d’usage d’inférence IA nécessitent des temps de latence inférieurs à 10 millisecondes – objectif que les architectures cloud ne garantissent pas toujours. L’informatique en périphérie (Edge Computing) et l’infrastructure sur site (« on-premises ») offrent ici des avantages inaccessibles avec les solutions cloud.
La repatriation dans le cloud ne signifie pas que toutes les charges de travail doivent revenir. Les DSI ont besoin d’un cadre différencié permettant d’évaluer chaque charge de travail individuellement. La décision dépend de quatre facteurs : les coûts, la conformité, la performance et la capacité d’évolutivité.
Sources : IDC 2025, Flexera State of Cloud 2026, blog de 37signals
Le cloud reste pertinent pour : l’entraînement de modèles d’IA avec pics de GPU, les applications mondiales à trafic variable, la reprise après sinistre (disaster recovery) et les sauvegardes, les environnements de développement et de test, ainsi que les applications SaaS dotées d’un écosystème bien établi. Ici, les avantages liés à l’évolutivité et à la flexibilité l’emportent sur la prime coûts.
La repatriation est justifiée pour : les charges de travail de production stables et à charge prévisible, les bases de données à fort besoin d’entrées/sorties (I/O), les données réglementairement sensibles dans la région DACH, les applications anciennes (« legacy ») qui nécessiteraient une refonte complète pour devenir natives du cloud, et les charges de travail HPC avec une utilisation constante des GPU supérieure à 70 %. Ces charges de travail bénéficient de coûts unitaires réduits et d’un contrôle total sur les données.
L’approche hybride comme voie royale : la majorité des entreprises aboutiront à un modèle hybride. Les charges de travail critiques sur le plan réglementaire et celles générant des coûts élevés seront hébergées sur une infrastructure propriétaire ou souveraine, tandis que les charges de travail variables et mondiales resteront dans le cloud public. Le défi ne réside pas dans la prise de décision, mais dans sa mise en œuvre : interconnexion réseau, synchronisation des données et gestion unifiée entre les deux environnements exigent des investissements en ingénierie de plateforme et en compétences multi-cloud.
Le principal défi réside dans la communication. « Nous quittons le cloud » donne l’impression d’un recul. Les DSI doivent reformuler ce message comme une preuve de maturité stratégique : « Nous optimisons notre architecture IT sur la base de quatre années d’expérience cloud. Les charges de travail qui sont plus coûteuses dans le cloud que sur notre infrastructure propriétaire, et qui ne tirent aucun avantage spécifique du cloud, sont rapatriées. Cela permet d’économiser X euros par an, tout en maintenant ou en améliorant notre niveau de conformité. »
Le business case doit être concret : comparaison du TCO par charge de travail sur une période de trois à cinq ans, amélioration de la conformité grâce à la souveraineté des données, gains de performance pour les applications sensibles à la latence, et réduction des risques liés au verrouillage fournisseur. Avec ces chiffres, la repatriation dans le cloud devient la conséquence logique d’une décision fondée sur les données – et non l’aveu d’une stratégie erronée.
La Cloud-Repatriation désigne le transfert de charges de travail depuis le cloud public vers ses propres centres de données, des environnements de cloud privé ou des sites de colocation. Ce phénomène est porté par l’optimisation des coûts, les exigences réglementaires et les considérations de performance.
Les charges de travail de production stables et à charge prévisible, les bases de données à fort besoin d’entrées/sorties (I/O), les données réglementairement sensibles et les applications anciennes (« legacy ») en tirent le plus grand bénéfice. Le seuil de rentabilité se situe typiquement entre 100 et 200 machines virtuelles, ou une charge équivalente en conteneurs.
Selon le profil des charges de travail, les entreprises rapportent des économies de 30 à 50 % pour des charges de travail prévisibles. L’exemple le plus connu est celui de 37signals, avec des économies projetées de 7 millions de dollars sur cinq ans. Les économies réelles dépendent de la structure spécifique de chaque charge de travail.
Non. La repatriation n’est pas une déclaration anti-cloud, mais un signe de maturité stratégique. La plupart des entreprises adoptent un modèle hybride : les charges de travail critiques sur le plan réglementaire et coûteuses sur le plan économique sont hébergées sur une infrastructure propriétaire, tandis que les charges de travail variables et mondiales restent dans le cloud public.
Les principaux risques sont l’investissement initial requis pour l’infrastructure propriétaire, le besoin accru de personnel qualifié pour son exploitation, et la complexité inhérente à une architecture hybride. Les DSI devraient démarrer par une analyse du TCO sur au moins trois ans avant de prendre une décision définitive.
Source de l’image : Brett Sayles / Pexels