90 % des entreprises font pression sur leurs équipes de sécurité pour assouplir les contrôles d’identité liés à l’IA

0
0

Cette nouvelle étude souligne un manque de visibilité sur les identités générées par l’IA, l’augmentation des risques liés aux identités non humaines (NHI) et un paradoxe quant à la confiance dans la sécurité de l’IA.

Tribune – Delinea, fournisseur pionnier de solutions de sécurisation des identités humaines et machines grâce à une autorisation centralisée et intelligente, publie une étude examinant la manière dont l’adoption rapide de l’IA redéfinit les risques liés à la sécurité des identités pour les entreprises. Selon ce rapport, intitulé « Uncovering the Hidden Risks of the AI Race » (Dévoiler les risques cachés de la course à l’IA), 90 % des organisations font pression sur leurs équipes de sécurité pour qu’elles assouplissent les contrôles d’identité afin de favoriser les initiatives liées à l’IA, et ce malgré des lacunes considérables dans la découverte, la surveillance et le contrôle des privilèges des identités liées à l’IA. Le rapport met également en lumière un paradoxe concernant la confiance dans la sécurité de l’IA, dénotant un écart entre le niveau de préparation perçu par les entreprises et leurs capacités réelles à adopter cette technologie en toute sécurité.

S’appuyant sur une enquête mondiale réalisée auprès de plus de 2 000 décideurs informatiques qui utilisent activement l’IA ou mènent des projets pilotes, ainsi que sur les analyses de l’équipe de recherche Delinea Labs portant sur des cyber-incidents réels, le rapport révèle que les entreprises peinent à maintenir la visibilité et la gouvernance à l’heure où l’automatisation pilotée par l’IA multiplie rapidement le nombre d’identités au sein de leurs environnements. Près de 90 % des personnes interrogées signalent au moins une faille en matière de visibilité des identités, la plus importante concernant les machines et les identités non humaines (NHI), y compris les comptes utilisés par les agents d’IA. Les répondants ont également souligné que ces lacunes d’identification sont les plus susceptibles de perdurer dans les environnements liés à l’IA, où elles se produisent à une fréquence près de deux fois supérieure à celle observée dans les systèmes existants (legacy) ou sur site.

« La pression pour avancer rapidement sur l’IA est bien réelle, mais la gouvernance des identités n’a pas suivi le rythme, ce qui expose les entreprises à des risques considérables », déclare Art Gilliland, PDG de Delinea. « Alors que les agents d’IA se multiplient dans les environnements d’entreprise, ces identités sont souvent celles qui font l’objet de la plus faible supervision. Les organisations qui réussiront à l’ère de l’IA seront celles qui sauront imposer un contrôle d’accès contextuel et en temps réel pour chaque identité humaine, machine et d’IA agentique. »

Voici les principales conclusions du rapport :

  • L’expansion de l’IA alimente le risque lié aux identités non humaines : 42 % des entreprises affirment que le développement de l’IA a été l’un des principaux facteurs d’augmentation du risque lié aux NHI au cours des 12 derniers mois, dépassant de loin la hausse de l’automatisation et de la vélocité CI/CD (26 %), ainsi que la croissance des charges de travail cloud-natives (26 %).

  • Une visibilité limitée sur les actions à privilèges de l’IA : 80 % des entreprises déclarent ne pas toujours être en mesure de comprendre pourquoi une NHI a exécuté une action à privilèges, ce qui met en évidence des défis majeurs en matière de traçabilité et de responsabilité pour les identités automatisées.

  • L’accès permanent reste la norme : 59 % des entreprises signalent un manque d’alternatives viables à l’accès à privilèges permanent pour les NHI et les agents d’IA, augmentant ainsi le risque que les identités automatisées conservent des autorisations persistantes susceptibles d’être exploitées.

Le paradoxe de la confiance dans la sécurité de l’IA 

Malgré des lacunes évidentes en matière de gouvernance, de nombreuses entreprises restent confiantes quant à leur préparation à l’adoption de l’IA, soulignant un décalage entre la maturité de sécurité perçue et réelle. Alors que 87 % des personnes interrogées affirment que leur posture de sécurité des identités est prête à soutenir l’automatisation pilotée par l’IA, près de la moitié (46 %) admettent que leur gouvernance des identités autour des systèmes d’IA est déficiente. Les entreprises sont également deux fois plus susceptibles de juger médiocre leur capacité à découvrir et à gouverner les identités dans les environnements liés à l’IA, par rapport aux systèmes existants (legacy). De même, si 82 % se disent confiantes dans l’identification des NHI ayant accès aux systèmes de production, moins d’une entreprise sur trois valide l’activité de ces NHI ou des agents d’IA en temps réel pour s’assurer du bon fonctionnement des processus de découverte.

À l’heure où les agents d’IA commencent à accéder aux infrastructures critiques et aux données d’entreprise, les organisations doivent se doter de moyens plus robustes pour découvrir l’ensemble des identités, gérer les privilèges et auditer l’activité des humains, des machines et des agents d’IA. Delinea propose une approche unifiée combinant l’identité cryptographique, les contrôles d’accès contextuels, les autorisations d’exécution juste-à-temps (JIT) et une visibilité complète sur les sessions, afin de garantir que l’automatisation pilotée par l’IA opère de manière sécurisée et transparente. En offrant une expérience d’accès unique à travers toute l’infrastructure, assortie de capacités d’audit intégrées et de l’application du principe de moindre privilège, Delinea permet aux entreprises d’adopter l’IA sans introduire de risques liés à des accès non gérés.

Pour en savoir plus sur la manière dont les entreprises peuvent gérer les risques liés aux identités induits par l’automatisation pilotée par l’IA, retrouvez l’intégralité du rapport ici.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Notifiez-moi des commentaires à venir via e-mail. Vous pouvez aussi vous abonner sans commenter.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.