Aussi incroyable que cela puisse paraître, l’IA générative ChatGPT est capable d’écrire le texte d’un article scientifique, mais également et surtout d’en inventer les données ainsi que les résultats. Selon les chercheurs italiens à l’origine de ces travaux, il existe d’importants risques de fraude.
Pilotée par l’Université Magna Græcia de Catanzaro (Italie), cette étude consistait à analyser les résultats de ChatGPT dans le cadre de fausses recherches. Plus précisément, les scientifiques ont demandé à l’IA de fabriquer des données dans le but de prouver une hypothèse scientifique.
La mission de ChatGPT était de créer de toutes pièces des données démontrant qu’une technique chirurgicale de l’œil était meilleure qu’une autre pour le traitement d’un kératocône. Il s’agit d’une maladie dégénérative de l’œil où la cornée prend la forme d’un cône. Les données de 250 patients ont alors été créées, avec des consignes à respecter telles que le pourcentage de femmes dans l’échantillon, la fourchette d’acuité visuelle des patients avant l’intervention ou encore la fourchette des résultats attendus dans chaque groupe. Ces fausses données ont fait leur apparition en seulement quelques minutes, ainsi que les résultats de l’analyse statistique qui mettent positivement en avant la technique chirurgicale désignée par les chercheurs italiens.