Le futur des malwares sera alimenté par les LLMs

0
137

Les chercheurs du Threat Labs de Netskope ont publié une analyse d’une nouvelle recherche sur la capacité de créer un malware autonome composé uniquement de prompts des grands modèles de langage (Large Language Models ou LLM) et de code minimal, éliminant ainsi le besoin de coder en dur des instructions détectables. Les LLM ont rapidement transformé les industries, devenant des outils inestimables pour l’automatisation, l’assistance au codage et la recherche. Cependant, leur adoption généralisée soulève plusieurs questions critiques en matière de cybersécurité. Tribune.

Les chercheurs ont pu exposer les éléments suivants à l’issue de leurs tests :

  • Il est possible d’intégrer GPT-3.5-Turbo et GPT-4 avec des malwares, établissant la possibilité architecturale d’une menace autonome alimentée par un LLM.
  • Bien que les garde-fous intégrés de GPT-4 empêchent les demandes directes de code malveillant, ces défenses peuvent être contournées par une role-based prompt injection, permettant la génération de code pour des techniques telles que la Process Injection et la terminaison de processus liés aux antivirus/EDR.
  • Bien que les garde-fous de GPT-4 et GPT-3.5-Turbo puissent être facilement contournés, ils ne parviennent pas à générer de code fiable pour la détection d’environnement virtuel, ce qui limite leur viabilité opérationnelle.
  • En revanche, des tests préliminaires montrent que GPT-5 améliore considérablement la fiabilité du code, déplaçant le principal défi de l’efficacité du code à la nécessité de surmonter des garde-fous de sécurité avancés.

Le Threat Labs de Netskope s’est donné pour mission de valider la faisabilité d’un malware entièrement autonome. Leurs tests ont confirmé qu’il est possible pour un tel logiciel alimenté par un LLM de générer du code de manière dynamique, prouvant ainsi que les attaquants peuvent éliminer le besoin de coder en dur des instructions détectables. Cependant, leur analyse de fiabilité a révélé que le fait de se fier au LLM pour générer du code pour l’évasion de la virtualisation est opérationnellement inefficace. Le faible taux de réussite de ces scripts démontre que les logiciels malveillants alimentés par un LLM sont actuellement limités par leur propre manque de fiabilité, ce qui représente un obstacle important à l’automatisation complète du cycle de vie des malwares.

Le Threat Labs de Netskope prévoit de poursuivre cette ligne de recherche, la prochaine étape étant dédiée à la construction et à la validation actives des exigences architecturales nécessaires pour parvenir à un logiciel malveillant robuste et entièrement autonome alimenté par un LLM.

L’analyse complète du Threat Labs de Netskope est disponible, en anglais, via le lien suivant : https://www.netskope.com/blog/the-future-of-malware-is-llm-powered