“Le robot m’a dit de le faire” : les robots encouragent les comportements à risque


  • FrançaisFrançais
  • EnglishEnglish

  • Une étude montre qu’en présence d’un robot qui encourage un comportement à risque, la plupart des gens le font sans trop d’hésitations. Cela pose des problèmes sur la puissance d’influence et de suggestion par les algorithmes et les intelligences artificielles comme Siri ou Google Home.


    Une étude montre qu'en présence d'un robot qui encourage un comportement à risque, la plupart des gens le font sans trop d'hésitations. Cela pose des problèmes sur la puissance d'influence et de suggestion par les algorithmes et les intelligences artificielles comme Siri ou Google Home.
    Un robot SoftBank Robotics Pepper a été utilisé dans les deux conditions du robot. Pepper, 1,21 mètre de haut avec 25 degrés de liberté, est un robot humanoïde de taille moyenne conçu principalement pour l'interaction homme-robot (HRI) - Crédit : University of Southampton

    Une nouvelle recherche a montré que les robots peuvent encourager les gens à prendre plus de risques dans un scénario de jeu simulé qu’ils ne le feraient s’il n’y avait rien pour influencer leurs comportements. Cette étude a exploré notre compréhension de question de savoir si les robots, pouvant influencer sur la prise de risque, pourrait avoir des implications éthiques, pratiques et politiques.

    Une pression des pairs robotisée ?

    Le Dr Yaniv Hanoch, professeur agrégé en gestion des risques à l’Université de Southampton, qui a dirigé l’étude, a expliqué: “Nous savons que pression des pairs peut conduire à un comportement à risque plus élevé et il est crucial que nous sachions mieux si les machines peuvent avoir un impact similaire.”

    Cette nouvelle recherche, publiée dans la revue Cyberpsychology, Behavior, and Social Networking, a impliqué 180 étudiants de premier cycle participant à Balloon Analogue Risk Task (BART), une évaluation informatique qui demande aux participants d’appuyer sur la barre d’espace d’un clavier pour gonfler un ballon affiché sur le écran. A chaque pression sur la barre d’espace, le ballon se gonfle légèrement et 1 centime est ajouté à la “banque temporaire” joueur.

    Tester l’influence robot sur les humains

    Les ballons peuvent exploser de façon aléatoire, ce qui signifie que le joueur perd l’argent qu’il a gagné pour ce ballon et il a possibilité de “retirer” avant que cela ne se produise et de passer au ballon suivant.

    Un tiers des participants ont passé le test dans une pièce seuls (le groupe témoin), un tiers a passé le test aux côtés d’un robot qui ne leur a fourni que les instructions mais qui est resté silencieux le reste temps et le dernier, le groupe d’expérimentation, a passé le test avec le robot fournissant des instructions ainsi que des déclarations encourageantes telles que “pourquoi avez-vous arrêté de gonfler ? ”

    Les résultats ont montré que le groupe encouragé par le robot prenait plus de risques, faisant exploser ses ballons beaucoup plus fréquemment que ceux des autres groupes. Ils ont également gagné plus d’argent dans l’ensemble. Il n’y avait pas de différence significative dans les comportements des élèves accompagnés robot silencieux et de ceux sans robot.

    L’influence supérieure robot par rapport aux instincts naturels

    Le Dr Hanoch a déclaré: “Nous avons vu les participants à condition de contrôle réduire leur comportement de prise de risque à la suite d’une explosion de ballon, tandis que ceux dans la condition expérimentale continuaient à prendre autant de risques qu’auparavant. Et cela signifie que le robot semble exercer une influence supérieure par rapport aux expériences et instincts directs des participants.”

    Le chercheur pense maintenant que des études supplémentaires sont nécessaires pour voir si des résultats similaires émergeraient de l’interaction humaine avec d’autres systèmes d’intelligence artificielle (IA), tels que des assistants numériques ou des avatars à l’écran. Par exemple, Alexa pourrait vous influencer à faire davantage d’achats sur Amazon ou Google Home à vous décourager d’avoir des opinions politiques différentes par rapport à la doxa de l’entreprise.

    Le Dr Hanoch a conclu: “Avec la large diffusion de la technologie de l’IA et ses interactions avec les humains, c’est un domaine qui nécessite une attention urgente de la communauté de recherche.”

    “D’une part, nos résultats pourraient déclencher des alarmes sur la possibilité que des robots causent des dommages en augmentant les comportements à risque. D’autre part, nos données indiquent la possibilité d’utiliser des robots et de l’IA dans des programmes de prévention, tels que des campagnes anti-tabac en écoles, et avec des populations difficiles à atteindre, comme les toxicomanes.”

    N'oubliez pas de voter pour cet article !
    1 étoile2 étoiles3 étoiles4 étoiles5 étoiles (No Ratings Yet)
    Loading...

    Houssen Moshinaly

    Rédacteur web depuis 2009 et webmestre depuis 2011. Je suis également un blogueur dans la vulgarisation scientifique et la culture.

    Je m'intéresse à tous les sujets comme la politique, la culture, la géopolitique, l'économie ou la technologie. Toute information permettant d'éclairer mon esprit et donc, le vôtre, dans un monde obscur et à la dérive. Je suis l'auteur de deux livres "Le Basilic de Roko" et "Le Déclin".

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.

    Font Resize
    Contrast