L’arnaque qui utilise la voix de vos proches. Ce à quoi vous devez faire attention lorsque vous répondez au téléphone

Impossible d’y avoir échappé, l’IA générative fait beaucoup d’émules en ce moment. En pleine popularité, certains programmes, comme le ChatGPT, sont déjà sur toutes les lèvres et sont en passe d’envahir notre quotidien. Leurs créateurs mettent bien-sûr en avant leur formidable capacité à augmenter la productivité des utilisateurs. Mais, l’envers du décor est beaucoup plus sombre, car ces mêmes techniques peuvent être utilisées à des fins malveillantes. Notamment les modèles d’intelligence artificielle conçus pour simuler la voix d’une personne.

Vous semblez sceptique, vous n’y croyez pas trop ? Vous vous demandez comment une telle arnaque peut fonctionner ? Ce n’est pas si compliqué : ces systèmes de génération de paroles IA sont tellement sophistiqués, qu’ils ne nécessitent que quelques phrases d’échantillons d’audio pour produire un discours très convaincant. C’est tellement bluffant qu’ils reproduisent même les émotions et l’intonation de la voix de la personne. Et les victimes n’y voient que du feu, en particulier les personnes âgées, pour qui il est souvent difficile de distinguer l’authenticité d’une voix. Alors, imaginez la scène, lorsque vous décrochez et que vous entendez votre fils en panique au téléphone, entre le stress et le sentiment d’impuissance, il n’y a pas de place au doute ni à la méfiance.

Lire la suite sur Santéplusmag