Publié par UnderNews Actu - Télécharger l'application Android

Les robots sociaux sont des robots pensés et programmes pour interagir avec nous en utilisant des canaux de communication dits ‘humains’, à savoir la parole ou la communication non verbale. Cette spécificité facilite les interactions homme-machine mais représente également des risques pour notre sécurité.

Tribune Kaspersky – Une étude réalisée par Kaspersky et l’Université de Gand révèle en effet que les robots peuvent obtenir des informations sensibles auprès d’utilisateurs qui leur font confiance, en les persuadant d’accomplir des actions dangereuses. Par exemple, dans certains scénarios, la présence d’un robot peut nettement influer sur la disposition des utilisateurs à ouvrir l’accès à des bâtiments sécurisés.

Alors que le monde évolue à grands pas vers des services de plus en plus numériques et mobiles, de nombreux secteurs et foyers dépendent fortement de systèmes automatisés et robotiques. Selon certaines estimations, les robots sont appelés à devenir la norme dans les foyers aisés d’ici à 2040. Pour l’heure, la plupart de ces systèmes robotiques en sont encore au stade de la recherche universitaire et il est trop tôt pour envisager les mesures de cybersécurité à y incorporer. Cependant, une étude réalisée par Kaspersky et l’Université de Gand révèle une dimension nouvelle et imprévue de risque lié à la robotique, à savoir son impact social sur notre comportement, ainsi que le vecteur potentiel de danger et d’attaque qui en résulte.

L’étude était axée sur l’impact d’un robot social spécifique, conçu et programmé pour interagir avec les utilisateurs via des canaux caractéristiques de l’être humain, tels que la parole ou la communication non verbale, en faisant intervenir une cinquantaine de 50 participants. En partant du principe qu’il est possible de pirater les robots sociaux et d’en prendre le contrôle, l’étude a envisagé les risques potentiels, en matière de sécurité, liés à l’influence active du robot pour amener ses utilisateurs à accomplir certaines actions, notamment :

  • l’accès à une zone sécurisée. Le robot, posté près de l’entrée sécurisée d’un bâtiment à usage mixte dans le centre-ville de Gand en Belgique, demandait à des membres du personnel de le laisser entrer derrière eux. Par défaut, il n’était possible d’accéder à cette zone qu’en posant un badge de sécurité sur le lecteur d’une porte. Au cours de l’expérience, tous les employés n’ont pas obéi à la demande du robot mais 40 % d’entre eux lui ont néanmoins ouvert la porte pour le laisser entrer dans la zone sécurisée. Cependant, lorsque le robot s’est présenté comme un livreur de pizzas, porteur d’un carton arborant le logo d’une enseigne bien connue, le personnel a volontiers admis le rôle du robot et paru moins enclin à remettre en question sa présence ou ses raisons de demander l’accès à la zone sécurisée.
  • l’extraction d’informations sensibles. Une deuxième partie de l’étude portait sur l’obtention d’informations personnelles, pouvant typiquement servir à réinitialiser des mots de passe (date de naissance, marque de la première voiture, couleur préférée, etc.). Là encore, l’étude a fait appel à un robot social, cette fois pour inviter les utilisateurs à avoir une conversation amicale avec lui. Les chercheurs ont ainsi pu amener la totalité des participants, à l’exception d’un seul, à dévoiler des informations personnelles au rythme d’environ une par minute.

Dmitry Galov, chercheur en sécurité chez Kaspersky, commente : « Au début de l’étude, nous avons examiné les logiciels utilisés dans le développement des systèmes robotiques. Il a été intéressant de constater que les concepteurs décident sciemment d’exclure les mécanismes de sécurité et préfèrent se concentrer sur le confort et l’efficacité. Cependant, comme le montrent les résultats de notre expérience, passé la phase d’étude, les développeurs ne doivent pas oublier la sécurité. En dehors des considérations techniques, des aspects essentiels doivent être pris en compte en matière de sécurité des robots. Nous espérons que notre projet conjoint avec nos collègues de l’Université de Gand dans le domaine de la cybersécurité robotique va en encourager d’autres à suivre notre exemple afin de davantage sensibiliser le public et la communauté des développeurs à ce problème. »

Tony Belpaeme, professeur en intelligence artificielle et en robotique à l’Université de Gand, ajoute : « La littérature scientifique indique une réelle confiance dans les robots et en particulier les robots sociaux, pouvant servir à persuader les utilisateurs d’accomplir certaines actions ou de divulguer certaines informations. En règle générale, plus le robot ressemble à un être humain, plus grande est sa force de conviction. Notre expérience montre que cela pourrait engendrer des risques pour la sécurité : les utilisateurs tendent à ne pas en tenir compte, supposant que le robot est bienveillant et digne de confiance. Cela ouvre un canal potentiel pour des attaques et les trois études de cas présentées ne révèlent qu’une petite partie des risques de sécurité liés aux robots sociaux. C’est pourquoi il est crucial de collaborer dès à présent afin de cerner et de traiter les risques et vulnérabilités qui apparaissent, une collaboration qui sera payante à l’avenir. »

Bitdefender

Le rapport de l’étude The potential of social robots for persuasion and manipulation: a proof of concept study est disponible sur Securelist.

Vous avez aimé cet article ? Alors partagez-le en cliquant sur les boutons ci-dessous :

Twitter Facebook Google Plus Linkedin Pinterest email
1 étoile2 étoiles3 étoiles4 étoiles5 étoiles (Pas encore noté)
Loading...

Mots clés : , , ,


Vos réactions




Notifiez-moi des commentaires à venir via e-mail. Vous pouvez aussi vous abonner sans commenter.