L'IA ne crée pas de nouveaux problèmes de sécurité — elle expose ceux que vous aviez déjà
Il y a un discours qui gagne du terrain dans les conseils d’administration et les conférences en sécurité, et qui ressemble à ceci : l’IA crée une catégorie entièrement nouvelle de cyber-risque, et il nous faut des défenses entièrement nouvelles pour y faire face.
Réaction compréhensible — mais en grande partie fausse, selon moi. Les données racontent une histoire différente, plus inconfortable.
L’IA n’introduit pas de nouvelles catégories de risque. Elle accélère et expose celles qui étaient déjà là — les angles morts en visibilité, les flous de responsabilité et les raccourcis de gouvernance que les organisations traînent depuis des années.
Le rapport L’Évaluation des cybermenaces nationales 2025-2026, publié par le Centre canadien pour la cybersécurité, le dit clairement : l’IA est la principale force qui redéfinit le paysage des cybermenaces au pays. Non pas parce qu’elle crée des vecteurs d’attaque inédits, mais parce qu’elle rend les existants plus rapides, plus personnalisés et plus difficiles à détecter. Selon l’étude, le Canada entre dans « une nouvelle ère de cybervulnérabilité » — portée non pas par un manque d’outils, mais par l’amplification de faiblesses de longue date.
C’est un schéma que j’ai vu se répéter dans des organisations de tailles et de maturités très différentes. La technologie change. Les lacunes sous-jacentes, elles, restent.
L’effet amplificateur
Le rapport IBM 2025 sur le coût des brèches de données contient ce que je considère comme la statistique la plus révélatrice du paysage actuel de la sécurité liée à l’IA : 97 % des organisations ayant subi une brèche liée à l’IA n’avaient pas de contrôles d’accès adéquats.
Pas 97 % à qui il manquait des contrôles « spécifiques à l’IA ». Il leur manquait des contrôles d’accès de base — le type fondamental qui est un prérequis de sécurité depuis bien avant que quiconque ne parle de grands modèles de langage.
Ces organisations n’avaient pas un problème de sécurité IA. Elles avaient un problème de contrôle d’accès que l’IA a finalement rendu impossible à ignorer.
Le AI Security & Exposure Benchmark 2026 de Pentera — un sondage auprès de 300 CISO (Chief Information Security Officer, ou responsables de la sécurité de l’information) d’entreprises américaines réalisé en décembre 2025 — raconte la même histoire sous un angle différent. Trois dimensions ressortent :
La visibilité est incomplète partout. 67 % des CISO déclarent avoir une visibilité limitée sur où et comment l’IA opère dans leurs environnements. Aucun CISO — zéro — n’a rapporté une visibilité complète sans présence de shadow IA. Même les 33 % qui estiment avoir une bonne visibilité reconnaissent que des usages non autorisés ou non encadrés persistent probablement. On ne peut pas protéger ce qu’on ne voit pas, et présentement, la majorité des organisations ne voient pas le portrait complet.
La responsabilité est diluée. 56 % des CISO d’entreprise rapportent que la sécurité de l’IA est une responsabilité partagée entre plusieurs équipes — sécurité, TI, infrastructure, équipes applicatives — plutôt qu’attribuée à un seul propriétaire. Seulement 20 % la confient uniquement à l’équipe de sécurité. Quand je lis « responsabilité partagée », ce que j’entends vraiment, c’est « imputabilité floue ». C’est une lacune structurelle qui précède l’IA de loin. La plupart des organisations se débattent avec la question du partage versus la clarté de la responsabilité en sécurité depuis des années. L’IA a simplement rendu la chose impossible à ignorer.
Les outils hérités font le gros du travail. 75 % des CISO déclarent s’appuyer sur des outils traditionnels de sécurité — postes de travail, infonuagique, applications, API — pour protéger leurs systèmes d’IA. Des outils conçus pour une surface d’attaque différente. Seulement 11 % disposent d’outils de sécurité dédiés à l’IA. C’est exactement ce qui s’est passé avec l’adoption de l’infonuagique il y a dix ans : les organisations ont étendu leurs contrôles existants à un environnement fondamentalement différent, et il a fallu des années pour que la sécurité spécialisée rattrape le retard.
Si on oublie le mot « IA » un instant, on reconnaît les mêmes défis que les responsables de la sécurité rapportent depuis dix ans — avec des enjeux plus élevés et moins de marge pour reporter.
La menace qui n’a pas besoin d’un pirate
L’essentiel de la conversation sur la sécurité de l’IA porte sur les menaces externes — des attaquants qui utilisent l’IA pour créer des courriels d’hameçonnage plus convaincants, générer des hypertrucages ou automatiser l’exploitation de failles. Et ces menaces sont réelles. Le Digital Defense Report 2025 de Microsoft a conclu que les campagnes d’hameçonnage alimentées par l’IA sont trois fois plus efficaces que les campagnes traditionnelles, et KPMG Canada a rapporté en février 2026 que 81 % des entreprises canadiennes ont été victimes de tentatives ou de fraudes réussies propulsées par l’IA au cours de la dernière année.
Mais il existe un risque plus discret qui mérite davantage d’attention — un risque qui ne nécessite aucun pirate.
Quand les organisations déploient des outils d’IA internes — un copilote sur leurs dépôts de documents, un système RAG connecté à leurs bases de données internes, une recherche propulsée par l’IA dans leur base de connaissances — elles créent un nouveau canal d’accès aux données existantes. Et ce canal ne respecte pas les frontières informelles qui ont historiquement gardé l’information sensible contenue.
J’ai vu ça de mes propres yeux. Dans la plupart des organisations, un employé du marketing pourrait techniquement avoir accès en lecture à une bibliothèque SharePoint contenant des milliers de documents — incluant des projections financières, des rapports RH ou des plans stratégiques. En pratique, il ne trouverait jamais ces documents. Il ne saurait pas les chercher, ne connaîtrait pas le bon dossier, ne tomberait pas dessus dans le cours normal de son travail.
Maintenant, donnez à ce même employé un assistant IA qui peut chercher dans tout ce à quoi il a accès. Posez la bonne question — ou même la mauvaise — et soudainement, cette projection financière apparaît dans un résumé. L’IA fait exactement ce pour quoi elle a été conçue : trouver l’information pertinente. Le problème, c’est que les permissions ont toujours été trop larges. La classification des données a toujours été incomplète. Personne n’a corrigé ça parce que personne n’en avait besoin — jusqu’à maintenant.
Le Global Cybersecurity Outlook 2026 du Forum économique mondial reflète ce virage. Les fuites de données liées à l’IA générative sont désormais la préoccupation numéro un des leaders en cybersécurité, à 34 % — en hausse par rapport à 22 % l’année précédente, dépassant les préoccupations liées aux capacités adversariales de l’IA. Les responsables de la sécurité prennent conscience que l’incident IA le plus probable dans leur organisation ne viendra pas d’un attaquant sophistiqué. Il viendra d’un employé qui pose la mauvaise question à son copilote.
Les données d’IBM renforcent le constat : la shadow IA — l’usage non autorisé ou non encadré de l’IA — a été un facteur dans 20 % des brèches et a ajouté en moyenne 670 000 $ aux coûts des incidents. Gartner a constaté que 57 % des employés utilisent des comptes GenAI personnels pour le travail, et 33 % admettent y entrer des informations sensibles.
Ce n’est pas de la malveillance. C’est la même dynamique que j’ai décrite dans un article précédent sur la shadow IA : des gens qui veulent bien faire leur travail, qui utilisent les outils à leur disposition, sans cadre pour guider ce qui est approprié. La différence avec les outils d’IA internes, c’est que l’organisation a elle-même construit le canal — et souvent, elle ne réalisait pas ce qu’elle connectait.
Plus d’outils, mêmes brèches
Si le problème était simplement un manque d’investissement, on s’attendrait à ce que les organisations qui dépensent davantage en sécurité soient moins souvent victimes de brèches. Ce n’est pas le cas.
Gartner projette les dépenses mondiales en sécurité à 213 milliards de dollars en 2025, en hausse à 240 milliards en 2026 — une augmentation de 12,5 %. Le sondage Pentera a révélé que les entreprises utilisent en moyenne 47 solutions de sécurité, et que 40 % en opèrent 51 ou plus. Et 68 % ont ajouté de nouveaux outils de sécurité au cours de la dernière année.
Les organisations dépensent plus, déploient plus d’outils, et se font compromettre au même rythme. À un moment donné, la réponse à « on a été compromis » ne peut plus continuer à être « achetez un autre outil ».
C’est exactement ce que j’évoquais quand j’ai écrit sur les conseils d’administration qui doivent demander « quels sont les risques qu’on ne voit pas? » Les risques qui comptent le plus ne sont pas ceux qu’on adresse en ajoutant un outil de plus à la pile. Ce sont les fondamentaux — classification des données, gouvernance des accès, responsabilité claire, validation régulière — qui sont sur la liste des choses à faire depuis des années sans jamais atteindre le haut de la pile.
L’IA n’a pas mis ces éléments sur la liste. Mais elle est en train de les faire passer rapidement de « on va s’en occuper » à « on aurait dû s’en occuper ».
Ce qui fonctionne vraiment
Si le diagnostic est que l’IA amplifie les lacunes existantes, alors le traitement n’est pas de bâtir un « programme de sécurité IA » séparé. C’est de profiter de l’adoption de l’IA pour corriger ce qui aurait dû l’être depuis longtemps.
En me basant sur ce que je vois dans les données et dans les organisations avec lesquelles je travaille, quelques éléments distinguent celles qui gèrent bien la situation des autres.
Le premier est simplement de traiter l’IA comme un actif d’entreprise gouverné — pas un cas spécial, pas une expérience parallèle. Les systèmes d’IA sont inventoriés, classifiés et soumis à la même discipline de déploiement que toute autre technologie d’entreprise.
Ensuite, il y a la question des compétences, que je crois sous-estimée. Le principal obstacle à la sécurité de l’IA, cité par 50 % des CISO dans le sondage Pentera, est le manque d’expertise interne. La visibilité limitée sur l’utilisation de l’IA arrive en deuxième à 48 %. Les contraintes budgétaires? Seulement 17 %. Le goulot d’étranglement n’est pas l’argent — c’est le savoir. Je vois constamment des organisations tenter d’acheter leur sortie d’un problème qui est fondamentalement une question de capacité.
Le plus difficile, et celui qui rapporte le plus, c’est de corriger les fondamentaux en matière de données et d’accès. L’adoption de l’IA force une question que beaucoup d’organisations reportent depuis des années : sait-on réellement quelles données on possède, qui y a accès, et si ces permissions sont appropriées? C’était déjà la question numéro un pour les conseils d’administration qui supervisent les initiatives IA — « Nos données sont-elles réellement prêtes, ou est-ce qu’on bâtit sur du sable? » Dans un contexte de sécurité, c’est la même question avec des enjeux plus élevés. Et les organisations qui utilisent le déploiement de l’IA comme déclencheur pour enfin régler ça seront plus sécuritaires sur toute la ligne — pas seulement pour l’IA.
Enfin — et j’approfondirai ce sujet dans un prochain article — quelqu’un doit en être propriétaire. Pas une « responsabilité partagée entre les parties prenantes ». Une équipe, ou un leader, avec une imputabilité claire sur la posture de sécurité IA. L’exécution peut être distribuée. L’imputabilité, non.
La vraie question
Le réflexe dans beaucoup de conseils d’administration en ce moment est de demander : « Avons-nous une stratégie de sécurité IA? »
Je pense que c’est la mauvaise question. La bonne, c’est : est-ce que notre stratégie de sécurité est assez mature pour absorber l’IA?
Parce que si votre gouvernance des données est solide, si vos contrôles d’accès sont bien gérés, si votre visibilité sur les actifs est complète et si la responsabilité est claire — l’IA ne change pas fondamentalement l’équation. Elle ajoute de la surface. Elle accélère les échéanciers. Mais elle n’exige pas de réinventer la sécurité à partir de zéro.
Et si ces fondations ne sont pas en place? Alors vous n’avez pas un problème de sécurité IA. Vous avez un problème de sécurité — que l’IA est sur le point de rendre très visible, très rapidement.
C’est en fait la bonne nouvelle. Ce n’est pas une nouvelle discipline à maîtriser. C’est celle que vous connaissez déjà, faite correctement. Les organisations qui utilisent l’adoption de l’IA comme levier — comme raison de finalement combler les lacunes qu’elles traînent — ne seront pas seulement mieux protégées contre les menaces IA. Elles seront plus sécuritaires — tout court.
À propos de l'auteur
André Boisvert
CIO/CTO et consultant stratégique
CIO/CTO et consultant stratégique accompagnant les organisations dans l'IA, la transformation numérique et la stratégie TI. Partage de perspectives stratégiques hebdomadaires sur la technologie d'entreprise.
LinkedIn

