L’Indienne Priyanjali Gupta a travaillé un an autour de ce projet presque fiable à 100%.
Priyanjali Gupta a développé son modèle en utilisant API Tensorflow, un outil qui détecte les objets. Il suffit de lancer le logiciel, de se mettre face à la webcam, et instantanément, le logiciel reconnaît le geste et le traduit automatiquement. L’étudiante explique que sa création n’est pas 100% au point, mais elle compte l’améliorer pour faciliter le quotidien des personnes malentendantes, sourdes et muettes.
En début de podcast, Damien Mestre dresse le portrait de Danielle Jacqui, plus connue sous le nom de « Celle qui peint ».