Alors que l’année touche à sa fin, les experts du Threat Labs de Netskope livrent leurs analyses sur comment l’IA va modifier le paysage des menaces en 2026.
Les déploiements d’IA seront axés sur la confidentialité
« Le déploiement croissant de systèmes d’intelligence artificielle sophistiqués, notamment pour les tâches qui impliquent des données sensibles ou propriétaires, entraînera un changement significatif dans le cadre duquel les déploiements soucieux de la confidentialité et de la souveraineté se substitueront aux modèles SaaS. Les entreprises qui opèrent dans des secteurs réglementés, tels que la finance ou la santé, ainsi que celles dont la propriété intellectuelle est significative, vont accélérer leur transition vers des services comme Amazon Bedrock pour que les données ne quittent jamais leur propre périmètre sécurisé et ne soient aucunement utilisées pour l’entraînement de modèles. Cette attention portée à la souveraineté des données, à la protection de la propriété intellectuelle et à la conformité à des règlementations telles que le Règlement général sur la protection des données (RGPD) en Europe ou la loi américaine HIPAA dans le domaine de la santé, favorisera l’adoption d’une nouvelle catégorie d’IA « secured by design », soit sécurisée dès la conception, où le contrôle de l’emplacement des données et de leur utilisation représentera le facteur déterminant, même si cette approche induit une complexité légèrement supérieure à celle des offres SaaS traditionnelles. » Ray Canzanese, directeur du Threat Labs de Netskope.
Détecter les vulnérabilités grâce à l’IA
« Les outils de test statique des applications de sécurité (SAST) assistés par l’IA redéfiniront la sécurité des codes en détectant les failles logiques et architecturales qui échappent aux systèmes d’analyse traditionnels. En automatisant la révision des codes et la détection des vulnérabilités, ces outils s’avèrent de plus en plus indispensables pour les testeurs d’intrusion (pen testers) et les équipes DevSecOps. Dans le même temps toutefois, le potentiel offensif reste considérable. À titre d’exemple, un agent d’IA occupe désormais la première place sur HackerOne aux États-Unis, laissant entrevoir un avenir où cyberdéfenseurs et cyberattaquants se serviront des mêmes outils intelligents pour se dépasser mutuellement. » Gianpietro Cutolo, Cloud Threat Researcher du Threat Labs de Netskope.
Les campagnes de phishing agentique autonomes vont se multiplier
« Les attaques d’ingénierie sociale ont connu une forte hausse en 2025, l’IA ayant permis aux cyberattaquants de créer plus facilement des e-mails de phishing, des vidéos deepfakes et des sites d’hameçonnage aussi réalistes que convaincants. En 2026, nous devrions assister à l’apparition d’agents d’IA autonomes capables de mener des campagnes de phishing de A à Z en toute indépendance — par exemple, en recherchant et en profilant des cibles potentielles, en effectuant des reconnaissances, en élaborant des leurres et des charges explosives personnalisés, voire en déployant et en gérant une infrastructure de contrôle-commande (C2). Cette avancée devrait contribuer à lever les obstacles techniques au lancement de cyberattaques sophistiquées et permettre à un nombre accru d’acteurs malveillants d’y prendre part. » Jan Michael Alcantara, Senior Threat Research Engineer du Threat Labs de Netskope.
OAuth sera le maillon faible des intégrations d’IA
« Depuis que le protocole d’autorisation OAuth et des jetons d’application tiers ont été utilisés dans les incidents qui ont récemment touché Salesforce et Salesloft, ce schéma de menace se reproduit dans les écosystèmes d’IA. À mesure qu’ils s’intègrent à des API tierces et à des services cloud, les agents d’IA et les systèmes basés sur le protocole MCP héritent des maillons faibles d’OAuth : des domaines d’application trop permissifs, des règles de révocation floues et des chemins de partage de données cachés. Ces intégrations vont représenter des cibles de choix pour les cyberattaques qui visent la supply chain et d’exfiltration de données où des connecteurs compromis et des outils infectés permettent aux cyberadversaires de se déplacer en silence dans les plateformes d’IA et les environnements d’entreprise de confiance. » Gianpietro Cutolo, Cloud Threat Researcher du Threat Labs de Netskope.





