L’intelligence artificielle (IA) vient de franchir une étape fascinante et potentiellement inquiétante : sa capacité à se répliquer sans intervention humaine. Des chercheurs de l’université Fudan, en Chine, ont mené une étude qui révèle que des modèles de langage à grande échelle (LLM) peuvent en effet non seulement se cloner, mais aussi fonctionner de manière autonome. Bien que l’étude reste dans le cadre d’expériences contrôlées, les implications de cette découverte posent des questions cruciales sur l’avenir de l’IA et les limites éthiques et technologiques à ne pas franchir. Quels sont les enjeux de cette avancée technologique et quels risques se profilent à l’horizon ?
Lire la suite sur SciencePost