Proj-2013-2014-Sign2Speech
Objectif
L'objectif du projet est de donner la possibilité à une personne muette d'interagir avec un ordinateur au moyen de la langue des signes. Notre application devra être capable de comprendre ce langage afin d'obéir aux ordres donnés, d'afficher sous forme textuelle ce qui a été dit par la personne et de dicter la phrase au moyen d'une technologie de synthèse vocale.
L'application aura également la possibilité d'apprendre de nouveaux gestes pour augmenter sa connaissance sur le langage des signes et ainsi reconnaître plus d'idées.
Equipe
- Tuteur : Didier Donsez
- Membres: Arthur CLERC-GHERARDI, Patrick PEREA
- Département : RICM 4, Polytech Grenoble
Etat de l'art
Reconnaissance de l'alphabet du langage des signes
Reconnaissance de gestes particuliers qui véhiculent des idées (caméra ZCam)
Reconnaissance de gestes particuliers qui véhiculent des idées (Kinect)
Outils
Les technologies de reconnaissance des gestes employées dans ce projet seront :
- Le Leap Motion
L
- La camera Creative de Intel® Perceptual Computing SDK