L’intelligence artificielle (IA) est en pleine expansion, révolutionnant de nombreux secteurs d’activité. Cependant, son développement est freiné par un défi majeur : la consommation énergétique. Les modèles d’IA, notamment ceux utilisés pour l’apprentissage profond, requièrent en effet une puissance de calcul colossale, ce qui entraîne une consommation d’énergie considérable. Pour répondre à cette problématique, les chercheurs explorent de nouvelles voies. Une équipe chinoise vient de faire une avancée significative en utilisant des nanotubes de carbone pour créer une unité de traitement de tenseurs (TPU) ultra-énergétique.
En confiant ces casse-têtes au TPU, on soulage le processeur principal (le « cerveau » de l’ordinateur) et le processeur graphique (qui s’occupe des images). Grâce au TPU, l’ordinateur peut donc apprendre beaucoup plus vite et de manière plus efficace, ce qui est essentiel pour développer des intelligences artificielles toujours plus performantes.