Directeur IA 2026 : Vraie fonction ou simple titre ?
Tobias Massow
⏰ 9 min de lecture Le Chief AI Officer est le poste au niveau C le plus souvent annoncé et le moins ...
L’arnaque au PDG par e-mail, c’était hier. L’accès simplifié à l’intelligence artificielle permet désormais aux cybercriminels d’imiter voix et visages pour soutirer de l’argent ou des informations. Aujourd’hui, ces attaques par deepfake surviennent déjà toutes les cinq minutes.
Les deepfakes basés sur l’IA sont la raison pour laquelle les entreprises – ou plutôt leurs collaborateurs – tombent dans le piège. Derrière une voix prétendument familière se cachent de plus en plus souvent des criminels.
Ces attaques par deepfake et la falsification de documents numériques ont augmenté de 244 % en 2024, devenant une menace croissante pour les entreprises. Le vishing assisté par IA, un néologisme formé à partir de phishing et voice (soit des attaques par téléphone utilisant des voix générées par IA), représente un danger grandissant, tant pour les entreprises que pour les particuliers. Selon le cabinet de conseil Deloitte, les pertes financières liées aux attaques par deepfake assistées par IA devraient atteindre 40 milliards de dollars d’ici 2027. Cela représente plus du triple des 12,3 milliards enregistrés en 2023.
Comme le rapporte it-daily.net, cette année, un deepfake est détecté toutes les cinq minutes. Les tentatives de fraude assistées par IA gagnent en sophistication et se multiplient, les cybercriminels affinant sans cesse leurs techniques pour contourner les mécanismes de défense.
Dans la région EMEA (Europe, Moyen-Orient et Afrique), les attaques ciblent actuellement en priorité les processus d’intégration des clients. Les tentatives de fraude durant cette phase particulièrement vulnérable ont progressé de 3,1 % à 3,4 %. La situation est encore plus préoccupante en Asie-Pacifique (6,8 %) et sur le continent américain (6,2 %). Ces écarts s’expliquent notamment par des règles plus strictes en matière de KYC (Know Your Customer – « Connaître son client ») et d’onboarding en Europe, où les exigences réglementaires sont parmi les plus rigoureuses au monde.
Par ailleurs, la vérification d’identité numérique devrait constituer un pilier essentiel de tout processus d’onboarding. Cette mesure permet d’anticiper et de contrer les fraudes ainsi que la criminalité financière avant même qu’elles ne surviennent.
Malgré ces dispositifs de sécurité, les exemples d’attaques par deepfake – réussies ou tentées – se multiplient, y compris contre des entreprises de premier plan. Un grand constructeur automobile italien de luxe a récemment échappé de justesse à une escroquerie : un manager, resté méfiant, a démasqué l’imposteur se faisant passer pour le PDG en lui posant des questions ciblées.

Face à une première demande restée sans réponse par e-mail, le fraudeur a passé un appel en imitant à la perfection la voix du PDG – y compris son accent du sud de l’Italie.
Ce coup d’essai s’est soldé par un échec, mais il aurait pu coûter bien plus qu’un simple œil au beurre noir. C’est ce qu’a vécu, il y a un an, une banque basée à Hong Kong. Des escrocs y ont utilisé un deepfake vidéo du directeur financier pour soutirer 200 millions de dollars de Hong Kong – soit près de 25 millions d’euros. Un record mondial pour une fraude financière reposant sur l’IA. Et ces cas se multiplient à une vitesse alarmante.
Le secteur financier et sa clientèle sont particulièrement vulnérables aux deepfakes ou aux arnaques téléphoniques assistées par IA. Mais d’autres industries ne sont pas épargnées. Récemment, un fournisseur d’énergie britannique – et sa maison mère allemande – en ont fait les frais. Des cybercriminels ont piégé un cadre dirigeant au Royaume-Uni via une attaque de vishing (hameçonnage vocal), le poussant à virer 243 000 dollars américains, soit 217 000 euros, à un prétendu fournisseur basé en Hongrie.
Voici trois mesures clés à mettre en place, tirées des méthodes des attaquants et des réactions habituelles des entreprises ciblées :
Illustration des bonnes pratiques en cybersécurité
Pour limiter au maximum les pertes financières – voire les éviter totalement -, les entreprises doivent adopter un modèle de sécurité Zero Trust strict et exiger que chaque communication soit authentifiée après une vérification approfondie.
Par ailleurs, les nouvelles réglementations européennes imposent désormais aux entreprises de renforcer leurs dispositifs de sécurité.
Contexte réglementaire : Ces obligations s’inscrivent notamment dans le cadre du Règlement général sur la protection des données (RGPD) et de la directive NIS2, qui visent à améliorer la résilience des infrastructures critiques et des services numériques au sein de l’UE.
Source de l’image à la une : Adobe Stock / WrightStudio