Directeur IA 2026 : Vraie fonction ou simple titre ?
Tobias Massow
⏰ 9 min de lecture Le Chief AI Officer est le poste au niveau C le plus souvent annoncé et le moins ...
6 min de lecture
1 451 dispositifs médicaux basés sur l’intelligence artificielle sont autorisés aux États-Unis. En Allemagne, des groupes hospitaliers pionniers déploient déjà le diagnostic par IA dans leur activité courante. Or, dans la plupart des conseils d’administration, l’IA dans le domaine de la santé reste encore considérée comme un sujet informatique. Il s’agit là d’une erreur stratégique. Car si un système d’IA manque un diagnostic, ce n’est pas le directeur des systèmes d’information (DSI) qui comparaîtra devant les tribunaux – mais la direction générale.
La plupart des conseils d’administration hospitaliers traitent le diagnostic par IA comme une simple décision d’achat : la radiologie a besoin d’un nouvel outil, les services informatiques l’évaluent, les achats négocient. Cette approche est dangereusement réductrice. L’IA en diagnostic constitue une aide à la décision clinique qui influe sur les parcours thérapeutiques, soulève des questions de responsabilité et déclenche des obligations réglementaires. Elle doit donc figurer à l’ordre du jour stratégique, et non au sein du comité de pilotage informatique.
La raison en est simple : si un système d’IA, lors de l’analyse d’un scanner, manque un accident vasculaire cérébral et qu’un patient subit un préjudice, il ne s’agit pas d’un simple bug logiciel. Il s’agit d’une décision thérapeutique fondée sur une recommandation algorithmique. L’obligation de diligence du médecin demeure, mais la direction générale assume quant à elle l’obligation d’organisation. Le conseil d’administration s’est-il assuré que le système d’IA était validé ? Que les médecins avaient reçu une formation adéquate ? Qu’un processus de secours était prévu ? Dans le cas contraire, la situation devient délicate.
À compter d’août 2027, les exigences applicables aux systèmes à haut risque du Règlement IA européen s’appliqueront aux systèmes d’IA médicaux. Le MDR régule la sécurité des produits ; le Règlement IA ajoute une couche supplémentaire : gestion des risques spécifique à l’IA, exigences relatives à la qualité des données d’entraînement, documentation technique allant au-delà des normes du MDR, ainsi que systèmes permettant une surveillance humaine efficace.
Concrètement, pour les conseils d’administration hospitaliers, cela signifie que tout système d’IA utilisé en diagnostic ou dans la planification thérapeutique doit être intégré dans un cadre de gouvernance. Celui-ci englobe la sélection (quelle IA, sur quelle base scientifique ?), l’intégration (comment l’intégrer dans le flux de travail clinique ?), le suivi (qui surveille ses performances ?) et le dispositif de secours (que se passe-t-il en cas de panne du système ?).
L’étude Vara-PRAIM montre comment procéder correctement : 463 094 dépistages mammographiques, publiés dans Nature Medicine, avec une augmentation de 17,6 % du taux de détection du cancer du sein. Il ne s’agit pas d’un projet pilote, mais d’une preuve clinique de haut niveau. Toutefois, même cette étude ne change rien au fait que la direction générale assume la responsabilité ultime de l’usage du système.
« La question n’est plus de savoir si l’IA fonctionne en diagnostic. Elle est désormais de savoir comment nous pouvons réussir le transfert de ces résultats d’études vers l’activité courante – sur les plans réglementaire, organisationnel et économique. » – Prof. Alexander Berens, Université de Tübingen (2025)
1. Qui décide de l’implémentation – et qui supervise ? Le diagnostic par IA nécessite un responsable clairement désigné au niveau du C-level. Pas le DSI, pas uniquement le directeur médical, mais un membre du conseil d’administration capable de maîtriser à la fois la dimension clinique et la dimension réglementaire. Dans les établissements qui déploient l’IA avec succès, on trouve un « comité IA » ou un Chief Medical Information Officer (CMIO) chargé de faire le lien entre ces deux univers.
2. Sur quelle base scientifique le système a-t-il été sélectionné ? 24 % des dispositifs IA autorisés par la FDA ne reposent sur aucune étude clinique. Pour un conseil d’administration qui acquiert un tel système, la question ne doit pas être : « Est-il autorisé ? », mais bien : « A-t-il été validé sur une population de patients comparable ? » Un marquage CE ou une autorisation de la FDA est nécessaire, mais non suffisant. La diligence raisonnable lors de la sélection du produit relève pleinement de la responsabilité du conseil d’administration.
3. Que se passe-t-il si le système échoue ? Toute implémentation d’un système d’IA doit comporter un dispositif de secours documenté. Si Aidoc ne peut plus prioriser la liste des diagnostics en raison d’une panne, le flux de travail doit basculer sans heurt vers un examen manuel. Cela paraît trivial, mais représente un défi opérationnel majeur – et doit être exercé en amont, et non seulement en situation d’urgence.
C’est une objection légitime : si chaque déploiement d’IA exige un cadre de gouvernance, cela ne freine-t-il pas son adoption ? La réponse est : oui, partiellement. Mais l’alternative – un conseil d’administration qui introduit le diagnostic par IA sans responsabilité structurée – est pire. Non pas à cause de la réglementation, mais en raison de la responsabilité civile. Le premier procès dans lequel un tribunal demandera à la direction générale : « Quel cadre de gouvernance aviez-vous mis en place pour ce système d’IA ? » changera radicalement le secteur. Mieux vaut y être préparé.
Asklepios démontre, avec le déploiement d’Aidoc dans plus de 25 établissements, que gouvernance et rapidité d’implémentation ne s’excluent pas mutuellement. La subvention KHZG finance la technologie, tandis que l’organisation est assurée par l’exploitant hospitalier lui-même. Ce modèle fonctionne parce qu’il est piloté au niveau du C-level, et non par le département informatique.
Le MDR régit la responsabilité du fabricant en tant que producteur. L’obligation de diligence du médecin traitant demeure inchangée. La direction générale assume l’obligation d’organisation : elle doit garantir que le système est validé, que le personnel est formé et que des procédures de secours sont définies. Une clarification définitive par la jurisprudence est encore attendue.
Les exigences complètes applicables aux systèmes à haut risque du Règlement IA européen entreront en vigueur le 2 août 2027. Les systèmes d’IA médicaux relevant du MDR ou du IVDR seront automatiquement classés comme « à haut risque ».
Il n’existe aucun registre national. Asklepios utilise Aidoc dans plus de 25 établissements. L’étude Vara-PRAIM a porté sur 463 094 dépistages réalisés dans des centres allemands spécialisés dans le cancer du sein. Le G-BA soutient, via le programme xR.AI, le déploiement régulier de l’IA en radiologie. L’Allemagne est loin d’un déploiement généralisé.
Les coûts liés exclusivement au cadre de gouvernance (définition des processus, documentation, formation) s’élèvent, selon l’expérience, entre 50 000 et 150 000 euros. Les systèmes d’IA eux-mêmes sont financés via les aides du KHZG. Les coûts récurrents liés au suivi et à la conformité dépendent du nombre de systèmes déployés.
Source de l’image : Pexels / Tima Miroshnichenko (px:4226119)