ChatGPT “botte en touche” pour une vingtaine de types de questions

L’agent conversationnel ChatGPT fascine et questionne énormément. Gouverné par une série de règles dont l’objectif est d’empêcher les abus, le bot se révèle incapable de satisfaire certaines demandes. Les internautes ont en effet découvert une vingtaine de types de questions que l’intelligence artificielle préfère éviter.

Comme l’explique ZDNet dans un article du 16 février 2023, ChatGPT est concerné par plusieurs règles dont le but est d’empêcher les abus. En effet, certaines demandes peuvent déclencher des réponses cryptées, dans lesquelles l’IA refuse poliment d’accéder à la requête de l’utilisateur. Il est ainsi question d’un mode « je botte en touche ».

Il s’avère que jusqu’à il y a peu, la liste des requêtes gênantes pour l’IA restait inconnue. Néanmoins, les internautes ont finalement découvert une vingtaine de types de questions que ChatGPT refuse de traiter.

Lire la suite sur SciencePost