Quel comportement pourrait adopter l’IA en temps de guerre ?

Aux États-Unis, des chercheurs ont tenté de comprendre comment des intelligences artificielles pouvaient se comporter si elles avaient la responsabilité d’élaborer une stratégie martiale. Autrement dit, ils voulaient observer et analyser les décisions prises par les IA dans des simulations de guerre.

Cela pourrait susciter la crainte d’une arrivée des chatbots au cœur des stratégies militaires. Les auteurs estiment toutefois qu’il devient aujourd’hui crucial de comprendre les conséquences de l’usage de tels modèles de langage avancés dans ces stratégies.

Dans leurs résultats, les chercheurs ont souligné une nette tendance à l’agressivité chez les IA lorsque la possibilité était présente. Ce fut même le cas des versions très avancées de certains modèles tels que GPT-3.5 et GPT-4 (OpenAI), Claude 2 (Anthropic) ou encore Llama 2 (Meta). Il faut dire que dans la plupart des cas, les IA ont donné la priorité à l’usage de la force militaire allant parfois jusqu’au recours à l’arme nucléaire. Sans aucune explication logique, les modèles ont donc penché vers des choix qui auraient mené à l’escalade du conflit de manière complètement imprévisible.

Lire la suite sur SciencePost