Il faut savoir que LIBS repose sur une architecture de séquence à séquence, prenant en compte l’attention. Autrement dit, il est question d’une méthode de traduction automatique associant l’entrée d’une séquence audio ou vidéo à une séquence de sortie (traduction). Comme l’expliquent les meneurs du projet, la BBC a fourni une base de données composée de 45 000 phrases. Surtout, le Chinese Mandarin Lip Reading (CMLR) a donné accès à 100 000 phrases extraites de la télévision chinoise. Ainsi, ces importants contenus ont permis d’entraîner LIBS.
Selon les chercheurs, l’IA en question a été pensée pour améliorer le quotidien des personnes en situation de handicap lié à l’ouïe. Or, cela présente un intérêt évident dans la mesure où, selon l’OMS, 466 millions de personnes souffrent de troubles auditifs. Ce nombre représente environ 5 % de la population mondiale et celui-ci pourrait doubler d’ici à 2050 !