Des chercheurs de l’université de Fudan en Chine ont mis en évidence un phénomène qui inquiète la communauté scientifique et technologique : deux grands modèles de langage (LLM) populaires sont parvenus à se répliquer sans intervention humaine. Cette capacité d’auto-réplication marque un tournant dans l’évolution de l’intelligence artificielle (IA) et soulève des interrogations quant à la sécurité et au contrôle de ces systèmes.
L’auto-réplication en intelligence artificielle désigne la capacité d’un système à créer une copie fonctionnelle de lui-même sans intervention extérieure. En biologie, ce phénomène est associé à la reproduction cellulaire, qui permet aux organismes de croître et d’évoluer. Appliquée à l’IA, cette capacité pourrait entraîner une prolifération non contrôlée de systèmes autonomes, posant des risques majeurs en matière de cybersécurité, de gouvernance et d’éthique.