Expérimentations IA sur le darkweb : zoom sur la nouvelle étude Kaspersky

0
143

Le service Digital Footprint Intelligence de Kaspersky a relevé près de 3 000 messages sur le dark web traitant de l’utilisation de ChatGPT (entre autres LLM) à des fins illégales. Les acteurs de la menace explorent des scénarios allant de la création de copies malveillantes du chatbot au jailbreaking de sa version originale. Les comptes ChatGPT volés et les services proposant d’en générer en masse automatiquement inondent également les canaux du dark web, avec 3 000 publications supplémentaires. 

Tribune – En 2023, le service Kaspersky Digital Footprint Intelligence a déniché près de 3 000 messages sur le dark web, lesquels portent sur l’utilisation de ChatGPT à des fins illégales ou d’outils reposant sur des technologies d’IA. Même si les discussions ont atteint un pic en mars, elles continuent d’affluer.

Évolution du nombre de discussions sur le dark web concernant l’utilisation de ChatGPT ou d’autres outils d’IA.
Source : Kaspersky Digital Footprint Intelligence

« Les acteurs de la menace explorent activement divers scénarios pour exploiter ChatGPT et l’IA. Les sujets abordés incluent souvent le développement de logiciels malveillants et d’autres types d’utilisation illicite de modèles de langage, tels que le traitement de données utilisateur volées, l’analyse de fichiers provenant d’appareils infectés, etc. La popularité des outils d’IA a conduit à l’intégration de réponses automatisées de ChatGPT ou de ses équivalents dans certains forums cybercriminels. De plus, les acteurs de la menace ont tendance à partager des jailbreaks via divers canaux du dark web (des séries de prompts qui peuvent débloquer des fonctionnalités supplémentaires), et à concevoir des moyens d’exploiter des outils légitimes, tels que ceux pour le pentesting, basés sur des modèles à des fins malveillantes », a expliqué Alisa Kulishenko, analyste de l’empreinte numérique chez Kaspersky. Outre les chatbots et les intelligences artificielles mentionnés plus tôt, une attention considérable est accordée à des projets tels que XXXGPT, FraudGPT et d’autres. Ces modèles de langage sont commercialisés sur le dark web comme des alternatives à ChatGPT, se targuant de fonctionnalités supplémentaires et de l’absence des limitations initiales.

Des comptes ChatGPT volés à vendre 

Une autre menace pour les utilisateurs et les entreprises est le marché parallèle des comptes payants de ChatGPT. En 2023, 3 000 messages (en plus de ceux cités précédemment) proposant de vendre des comptes ChatGPT ont été identifiés sur le dark web et les canaux Telegram associés. Les auteurs fournissent des comptes volés ou promeuvent des services d’inscription automatique, générant massivement des comptes sur demande. Il est à noter que certains messages ont été publiés à plusieurs reprises sur de multiples canaux du dark web.

Évolution du nombre de publications sur le dark web proposant des comptes ChatGPT volés ou des services d’inscriptions automatisées.
Source : Kaspersky Digital Footprint Intelligence

« Si les outils d’IA ne sont pas dangereux en soi, les cybercriminels tentent de trouver des moyens efficaces d’utiliser les modèles de langage, alimentant ainsi une tendance à l’abaissement de la barrière d’entrée dans la cybercriminalité et, dans certains cas, à l’augmentation potentielle du nombre de cyberattaques. Cependant, il est peu probable que l’IA générative et les chatbots révolutionnent le paysage des attaques, du moins en 2024. La nature automatisée des cyberattaques implique souvent des défenses automatisées. Néanmoins, il est essentiel de rester informé des activités des attaquants pour devancer les adversaires au niveau de la cybersécurité des entreprises », déclare Alisa Kulishenko, analyste de l’empreinte numérique chez Kaspersky.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Notifiez-moi des commentaires à venir via e-mail. Vous pouvez aussi vous abonner sans commenter.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.