Sign2speech ricm4 2015 2016: Difference between revisions
Line 69: | Line 69: | ||
== Semaine 5 (15 Février - 21 Février) == |
== Semaine 5 (15 Février - 21 Février) == |
||
* [[File:|300px|right|Scrum Board au début de la semaine 5]] |
|||
* Chat en WebRTC avec sous-titre fonctionnel |
* Chat en WebRTC avec sous-titre fonctionnel |
||
Revision as of 11:43, 15 February 2016
Objectifs
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage. La communication se ferait avec du WebRTC. L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.
Equipe
- Tuteur : Didier Donsez
- Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH
- Département : RICM 4, Polytech Grenoble
Outils
LeapMotion
- Nous disposons d'un capteur type Leap Motion permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.
Caméras Intel
- Nous disposons de la caméra Creative Senz3D qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un SDK RealSense, compatible uniquement avec Windows.
- Nous disposons également de la caméra Intel RealSense. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le SDK RealSense, compatible uniquement avec Windows encore une fois.
Langages de programmation
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.
Avancement du projet
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.
Semaine 1 (18 Janvier - 24 Janvier)
- Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.
- Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.
- Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.
Semaine 2 (25 Janvier - 31 Janvier)
- Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités
- Réflexion sur la reconnaissance des gestes en utilisant un automate
- Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)
- Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.
Semaine 3 (01 Février - 07 Février)
- Compréhension du code précédemment fait
- Décision de repasser sur un code nouveau face aux incompatibilités avec le nouvel SDK
- Mise en place d'un Scrum Board sur Trello
Semaine 4 (08 Février - 14 Février)
- Ecriture des patrons de conception - S2S par HABLOT Jules et BRANGER Matthias (nous avons fait le leur en retour)
- Début de l'implémentation du dictionnaire et du serveur de négociation WebRTC (signalling server - utilisation de Wisdom Framework)
- Implémentation d'un chat sous WebRTC avec affichage de "sous-titres"
- Implémentation d'un parser JSON pour remplir le dictionnaire (lecture seulement)
Semaine 5 (15 Février - 21 Février)
- [[File:|300px|right|Scrum Board au début de la semaine 5]]
- Chat en WebRTC avec sous-titre fonctionnel
Semaine 6 (22 Février - 28 Février)
Semaine 7 (29 Février - 06 Mars)
- Soutenance intermédiaire