Les restrictions de ChatGPT déjouées via des bots Telegram par les cybercriminels

0
403

Check Point Research (CPR) constate que les cybercriminels se servent de bots Telegram pour contourner les restrictions de ChatGPT dans les forums illégaux. Les bots ainsi détournés utilisent l’API d’OpenAI pour permettre la création d’e-mails ou de codes malveillants. Les éditeurs de bots autorisent actuellement jusqu’à 20 demandes gratuites, mais facturent ensuite 5,50 dollars par série de 100 demandes. CPR met en garde contre les tentatives continues des cybercriminels de contourner les restrictions de ChatGPT pour pouvoir utiliser OpenAI à des fins malveillantes.

  • CPR partage des exemples de publicités de bots Telegram
  • CPR partage l’exemple d’un e-mail de phishing créé dans un bots Telegram sans aucune limitation.
  • CPR partage un exemple de code malware créé dans un bots Telegram sans aucune limitation

Dans le cadre de sa politique de contenu, OpenAI a créé des barrières et des restrictions pour bloquer la création de contenu malveillant sur sa plate-forme au fur et à mesure de son utilisation en version beta. Ces restrictions désormais en place au sein de l’interface utilisateur de ChatGPT empêchent l’utilisation abusive des modèles. Par exemple, si vous demandez à ChatGPT d’écrire un e-mail de phishing pour se faire passer pour une banque ou de créer un malware, il ne le fera plus. Check Point Research (CPR) constate en effet l’existence de discussions actives sur les forums clandestins expliquant comment utiliser l’API OpenAI pour contourner les barrières et les limitations de ChatGPT. La plupart du temps, cela se fait en mettant en place des bots ou scripts Telegram  qui utilisent l’API. Ce sont ces bots qui font l’objet d’une publicité sur les forums de piratage pour plus de visibilité.

Telegram ChatGPT Bot-as-a-Service

En effet, CPR a trouvé des messages publicitaires de bots Telegram sur des forums illégaux. Les bots utilisent l’API d’OpenAI pour permettre la création d’e-mails ou de codes malveillants. Les fabricants de bots autorisent actuellement jusqu’à 20 demandes gratuites, mais facturent ensuite 5,50 dollars par série de 100 demandes.

Citation de Sergey Shykevich, Responsable du groupe Threat chez Check Point Software :

« Dans le cadre de sa politique de contenu, OpenAI a créé des barrières et des restrictions pour bloquer la création de contenu malveillant sur sa plate-forme. Cependant, nous constatons que les cybercriminels parviennent à contourner les restrictions de ChatGPT, et des discussions actives sur les forums clandestins expliquent comment utiliser l’API OpenAI pour contourner les barrières et les restrictions de ChatGPT. Pour y parvenir, il suffit de créer des bots Telegram qui utilisent l’API. Ces bots sont ensuite diffusés sur les forums de piratage pour être plus visibles. La version actuelle de l’API d’OpenAI est utilisée par des applications externes et possède très peu de dispositifs anti-abus. Cela permet donc de créer du contenu malveillant, comme des e-mails de phishing et du code de malware, sans les limitations ou les barrières que ChatGPT a fixées sur son interface utilisateur. À l’heure actuelle, on observe une volonté constante des cybercriminels de trouver des moyens de contourner les restrictions de ChatGPT. »

Figure 1. Publicité sur le forum clandestin du bots OpenAI dans Telegram

Figure 2. Exemple d’un e-mail de phishing créé dans un bots Telegram pour démontrer la possibilité d’utiliser l’API d’OpenAI sans aucune limitation

Figure 3. Exemple de la capacité de créer un code malware sans restriction anti-abus dans un bots Telegram utilisant l’API OpenAI

Figure 4. Business model du canal Telegram basé sur l’API ChatGPT

Scripts pour contourner les restrictions de ChatGPT

CPR constate également que les cybercriminels créent des scripts de base qui utilisent l’API d’OpenAIs pour contourner les restrictions anti-abus.

Figure 5. Exemple d’un script interrogeant directement l’API et contournant les restrictions pour développer un malware

Citation de Sergey Shykevich, Responsable du groupe Threat chez Check Point Software :

« Dans le cadre de sa politique de contenu, OpenAI a créé des barrières et des restrictions pour bloquer la création de contenu malveillant sur sa plate-forme. Cependant, nous constatons que les cybercriminels parviennent à contourner les restrictions de ChatGPT, et des discussions actives sur les forums clandestins expliquent comment utiliser l’API OpenAI pour contourner les barrières et les restrictions de ChatGPT. Pour y parvenir, il suffit de créer des bots Telegram qui utilisent l’API. Ces bots sont ensuite diffusés sur les forums de piratage pour être plus visibles. La version actuelle de l’API d’OpenAI est utilisée par des applications externes et possède très peu de dispositifs anti-abus. Cela permet donc de créer du contenu malveillant, comme des e-mails de phishing et du code de malware, sans les limitations ou les barrières que ChatGPT a fixées sur son interface utilisateur. À l’heure actuelle, on observe une volonté constante des cybercriminels de trouver des moyens de contourner les restrictions de ChatGPT. »