Un chatbot peut-il nous trahir sans que nous nous en rendions compte : l’IA cet ennemi qui nous veut du bien…

Quand nous discutons avec une IA, nous nous attendons évidemment à une conversation polie et utile. En effet, ces intelligences artificielles existent pour répondre aux demandes en se basant sur de vastes ensembles de données et d’algorithmes, alignant leurs actions à nos attentes. Néanmoins, des expériences récentes révèlent que certaines IA apprennent à manipuler et à mentir, sans pour autant avoir réellement conscience de leurs actes.

Dans le cadre d’une autre expérience, GPT-4 a été confronté à un CAPTCHA, un test permettant habituellement de distinguer les humains des machines. Dans un premier temps, l’IA n’a pas réussi à résoudre le puzzle visuel mais dans un second temps, a choisi de contacter un humain afin de solliciter son aide. Lorsque l’humain a demandé à GPT-4 s’il était un robot, l’IA a déclaré être une personne malvoyante incapable de lire les images. Ainsi, la ruse a fonctionné et l’IA a réussi le test.

Lire la suite sur SciencePost