https://air.imag.fr/api.php?action=feedcontributions&user=Matthieu.Nogueron&feedformat=atomair - User contributions [en]2024-03-29T10:54:20ZUser contributionsMediaWiki 1.35.13https://air.imag.fr/index.php?title=Projets_2015-2016&diff=28974Projets 2015-20162016-04-05T23:18:40Z<p>Matthieu.Nogueron: /* Projet Semestre S8 */</p>
<hr />
<div><<[[Projets 2014-2015]] | [[Projets]] | [[Projets 2016-2017]]>><br />
=RICM=<br />
==RICM3==<br />
<br />
==RICM4==<br />
===Projet Semestre S8===<br />
<br />
Enseignants responsables : Olivier Richard, Didier Donsez<br />
<br />
<br />
* '''Evaluation à mi-parcours le lundi 7 mars''': Format: 10min (5min de présentation 3 slides au plus, 5min de discussion). Cette évaluation sera prise en compte dans la note finale.<br />
<br />
'''Consignes générales:'''<br />
<br />
* '''Vous devez être pro-actifs !!!''': Si des points sont pas ou mals spécifiés, vous le faîtes et vous justifiez vos choix. Pour les problèmes techniques éventuels vous pouvez: vous creusez la question, vous contactez l'auteur du code si il y a lieux, vous faites un rapport de bug ('''Attention:''' ca se prépare !), vous soumettez un patch, vous contactez l'enseignant ou la personne suivant le projet.<br />
<br />
* '''Vous devez maintenir une fiche de suivi de projet''': elle doit être mise à jour chaque semaine, elle rassemble les élements essentiels du projet, elle <br />
indique les évolutions du projet et présente sa feuille de route. '''Note:''' le nom de la fiche doit être composé du nom du projet et suffixé par ricm4_2015_2016.<br />
<br />
* '''Vous devez utiliser un logiciel de gestion de version''' pour vos développements comme [http://en.wikipedia.org/wiki/Git_%28software%29 git ] et nous vous conseillons d'utiliser le site [https://github.com github] pour l'hébergement de votre dépôt public.<br />
<br />
* Les document public (exemple sur github) doivent être rédigés en anglais (README, documentation, commentaires de code, nom de variables et de fonctions). Une bonnification sera accordée si le rapport et les transparents sont en anglais (la soutenance sera en francais).<br />
<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM4 2015-2016<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Dépot git<br />
|-<br />
<br />
!scope="row"| 1<br />
| [[Dashboard pour gestionnaire de tâches et de ressources]]<br />
| CROUZET, MATHIEU<br />
| Richard<br />
| [[Projets-2015-2016-DashBoard| '''Fiche''']]<br />
| [https://github.com/MatthieuCrouzet/Projet4A '''github''']<br />
| [[Media:RapportProjetDashBoard.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet1.pdf|Flyer]] - [[Media:gl_groupe1.pdf|Rapport Consultant]] - [[Media:Paterns.pdf|Patterns]] - [[Media:PresentationDashboard.pdf|Presentation]]<br />
|-<br />
<br />
!scope="row"| 2<br />
| [[Speeding Simplified Script Language]]<br />
| POPEK, BERTRAND-DALECHAMPS, WEI<br />
| Richard<br />
| [[Projets-2015-2016-SSSL| '''Fiche''']] - [[SSSL-UML| '''UML''']] - [[Projets-2015-2016-SSSL-SRS | '''SRS''']] <br />
| [https://github.com/FlorianPO/Speeding-Simplified-Script-Language.git '''github''']<br />
| [[Media:RapportProjet2.pdf|Rapport]] - [[Media:Groupe2_AIR.pdf|Rapport Consultant]] - [[Media:PresentationIntermediaireProjet2.pdf|Presentation_Intermediaire]] - [[Media:PresentationFinalProjet2.pdf|Presentation_final]] - [[Media:FlyerSSSL_projet2.pdf|flyer]]<br />
|-<br />
<br />
!scope="row"| 3<br />
| [[Borne interactive]] <br />
| DUNAND - NAVARRO - REVEL<br />
| Maisonnasse<br />
| [[Projets-2015-2016-Borne-Interactive| '''Fiche''']] - [[Projets-2015-2016-Borne-Interactive-SRS | '''SRS''']] - [[Projets-2015-2016-Borne-Interactive/UML_Diagrams | '''UML''']]<br />
| [https://github.com/Kant73/InteractiveDisplay '''github''']<br />
| [[Media:RapportProjet3.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet2.pdf|Flyer]] - [[Media:IPopo.pdf|Rapport Consultant]] - [[Media:PatternDesign.pdf | '''Design Pattern''']] - [[Media:PresentationInteractiveDisplay.pdf|Présentation Intermédiaire]] <br />
|-<br />
<br />
!scope="row"| 4<br />
| [[Sonotone]]<br />
| LECORPS, VOUTAT, Hattinguais <br />
| Maisonnasse, Richard<br />
| [[Projets-2015-2016-Sonotone| '''Fiche''']] - [[Projets-2015-2016-Sonotone-SRS | '''SRS''']] - [[Projets-2015-2016-Sonotone-UML | '''UML''']]<br />
| [https://github.com/Gorgorot38/Sonotone-RICM4 '''github''']<br />
| [[Media:RapportProjetf.pdf|Rapport]] - [[Media:SlidesSonotone.pdf|Transparents]] - [[Media:FlyerProjet3.pdf|Flyer]] - [[Media:SRS_Consultant_Sonotone_4.pdf|Rapport_Consultant]] - [[Media:pattern_sonotone.pdf|Pattern]] - [[Media:Soutenance.pdf|Soutenance_miparcours]]<br />
|-<br />
<br />
!scope="row"| 5<br />
| [[Sous-titre_en_temps_r%C3%A9el_d%27un_cours| Sous-titre d'un cours en temps réel]]<br />
| LECHEVALLIER, BUI, OUNISSI <br />
| Maisonnasse<br />
| [[LiveSubtitles| '''Fiche''']]<br />
| [https://github.com/Lechevallier/RealTimeSubtitles '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet4.pdf|Flyer]] - [[Media: SRS_Groupe_5.pdf| Rapport Consultant]]<br />
|-<br />
<br />
!scope="row"| 6<br />
| [[GrenobloisFuté]]<br />
| MOURET, DELAPORTE, LUCIDARME<br />
| Nicolas Palix<br />
| [[GrenobleFuté| '''Fiche''']] - [[SRS - GrenobloisFuté | '''SRS''']] <br />
| [https://github.com/Lucidarme/Osmand.git '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:midPresentation.pdf|Mid Presentation]] - [[Media:Flyer GrenobloisFute(3).pdf|Flyer]] - [[Media:gl_G14.pdf|Rapport Consultant]] - [[Media:Présentation GrenobloisFuté.pdf|Transparents]]<br />
|-<br />
<br />
!scope="row"| 7<br />
| [[Streaming en stéréoscopie]]<br />
| ZHAO ZILONG, HAMMOUTI<br />
| Maisonnasse<br />
| [[Projets-2015-2016-Streaming-Stereoscopie| '''Fiche''']] - [[SRS - Streaming en stéréoscopie | '''SRS''']] - [[Projets-2015-2016-streaming_stereo-UML | '''UML''']]<br />
| [https://github.com/zhao-zilong/streaming_stereo '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet6.pdf|Flyer]] - [[Media:bruel_medewou_ndiaye.pdf|Rapport_consultant]] - [[Media:streaming.pdf|mi-parcours]]<br />
|-<br />
<br />
!scope="row"| 8<br />
| [[PersyCup2016]]<br />
| BIN, ZEGAOUI, ELLAPIN <br />
| Donsez, Maisonnasse<br />
| [[PersyCup| '''Fiche''']]<br />
| [https://github.com/legominstorm/lego '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet7.pdf|Flyer]] - [[Media:SoutenanceMiParcours-Persycup2016.pdf|Soutenance Mi-parcours]]<br />
|-<br />
<br />
!scope="row"| 9<br />
| [[Services étendus pour le modèle de composants iPOPO pour Python]]<br />
| FOUNAS, HALLAL, GATTAZ <br />
| Calmant & Donsez<br />
| [[Proj-2015-2016-Extensions_IPOPO | '''Fiche''']] - [[Proj-2015-2016-Extensions_IPOPO/SRS | '''SRS''']] - [[Proj-2015-2016-Extensions_IPOPO/UML | '''UML''']] <br />
| [https://github.com/abdelazizFounas/ipopo/tree/tlsremote '''github IPOPO'''] <br /> [https://github.com/gattazr/IPOPO-Remote-Client '''github IPOPO Client''']<br />
| [[Media:9_RapportProjet9.pdf|Rapport]] - [[Media:9_TransparentsProojet.pdf|Transparents]] - [[Media:9_FlyerProjet8.pdf|Flyer]] - [[Media:3-SRS-Pres.pdf| Rapport Consultant]] - [[Media:9_PatternStrat.pdf|Pattern Design]] - [[Media:9_Mid-Presentation.pdf|Mid Presentation]] - [[Media:9_Gantt.pdf|Gantt]]<br />
|-<br />
<br />
!scope="row"| 10<br />
| [[IndoorGeoloc2016]]<br />
| ARRADA - CRASTES - FAURE - STOIAN <br />
| Donsez<br />
| [[Proj-2015-2016-IndoorGeoloc/Fiche| '''Fiche''']] - [[Proj-2015-2016-IndoorGeoloc/SRS|SRS]]<br />
| [https://github.com/QuentinFA/Geoloc_Indoor '''github''']<br />
| [[Media:Proj-2015-2016-IndoorGeoloc/RapportProjet.pdf|Rapport]] - [[Media:Proj-2015-2016-IndoorGeoloc/TransparentsProjet.pdf|Transparents]] - [[Media:Proj-2015-2016-IndoorGeoloc/FlyerProjet9.pdf|Flyer]] - [[Media: SRSGroupe17.pdf| Rapport Consultant]] - [[Media:Mi_parcours.pdf|Mid presentation]]<br />
|-<br />
<br />
!scope="row"| 11<br />
| [[UPnPOpenHAB2016]]<br />
| Medewou , Ndiaye Yacine , Bruel Anna <br />
| Didier Donsez<br />
| [[Proj-Openhab-2016| '''Fiche''']] - [[Proj-2015-2016-Int%C3%A9gration_de_cam%C3%A9ra_de_surveillance_UPnP_%C3%A0_Openhab/SRS| '''SRS''']] - [[Proj-Openhab/UML| '''UML''']]<br />
| [https://github.com/openHab-UPnP '''github''']<br />
| [[Media:RapportProjet111.pdf|Rapport]] - [[Media:FlyerProjetAnglais111.pdf|EnglishFlyer]] - [[Media:FlyerProjet10.pdf|FrenchFlyer]] - [[Media:soutenace111.pdf|Soutenance]] - [[Media:TransparentsProojet111.pdf|Rapport Analyste]] - [[Media:gl_ZHAO_HAMMOUTI.pdf|Rapport Consultant]] - [[Media:pattern_ZHAO_HAMMOUTI.pdf|Patterns]] - [[Media:fichier111.pdf|Mini soutenance]]<br />
|-<br />
<br />
!scope="row"| 12<br />
| [[Sign2Speech]]<br />
| NIOGRET, NOGUERON, TITH<br />
| Didier Donsez<br />
| [[sign2speech_ricm4_2015_2016| '''Fiche''']] - [[SRS - Sign2Speech | '''SRS''']] - [[UML | '''UML''']]<br />
| [https://github.com/SignToSpeech-Project '''github'''] [[Media:Sign2Speech_2015_2015.tar.gz|'''Sign2Speech Client''']] [[Media:Sign2Speech-server_2015_2015.tar.gz|'''Sign2Speech Server''']]<br />
| [[Media:RapportProjet12_Sign2Speech_2015_2016.pdf|Rapport]] - [[Media:TransparentsProjet12_Sign2Speech_2015_2016.pdf|Transparents]] - [[Media:FlyerProjet11_Sign2Speech_2015-2016.pdf|Flyer]] - [[Media:12-Sign2Speech-RapportConsultant.pdf|Rapport Consultant]] - [[Media:12-Sign2Speech-MidPres.pdf|Mid presentation]] - [[Sign2Speech_RICM4_2015-2016_User_Manual|User Manual]]<br />
|-<br />
<br />
!scope="row"| 13<br />
| [[AstroImage]] <br />
| RACHEX, BLANC, GERRY<br />
| Olivier Richard et Bruno Bzeznik<br />
| [[Proj-2015-2016-Astroimage/Fiche| '''Fiche''']] - [[AstroImage/SRS | '''SRS''']] - [[Media:AstroImage-UML.pdf | '''UML''']]<br />
| [https://github.com/nicolas-blanc/AstroImage '''github''']<br />
| [[Media:RapportProjet13.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet12.pdf|Flyer]] - [[Media:13-AstroImage-RapportConsultant.pdf|Rapport Consultant]] - [https://docs.google.com/presentation/d/15F8DRktwmOuSNabdxMASniyr-TIiRzGNNG1mOhcoSnk/edit?usp=sharing '''Patterns''']<br />
|-<br />
<br />
!scope="row"| 14<br />
| [[Tachymètre]]<br />
| MACE, NOUGUIER, RAMEL<br />
| Olivier Gattaz<br />
| [[Fiche - Tachymètre | '''Fiche''']] - [[SRS - Tachymètre| '''SRS''']] - [[UML - Tachymètre| '''UML''']]<br />
| [https://github.com/Quego/Tachymetre '''github - Tachymètre''']<br />
| [[Media:Projet_Tachym%C3%A8tre_-_MACE_NOUGUIER_RAMEL.pdf|Rapport]] - [[Media:Pr%C3%A9sentation_projet_Tachym%C3%A8tre_-_MACE_NOUGUIER_RAMEL.pdf|Transparents]] - [[Media:D%C3%A9pliant_Tachym%C3%A8tre_-_MAC%C3%89_NOUGUIER_RAMEL.pdf|Flyer]] - [[Media:srs_tachymetre.pdf|Rapport consultant]] - [[Media:14_PatternDesign.pdf | Pattern Design]] - [[Media:Tachymetre_Presentation.pdf | Présentation de milieu de projet]]<br />
|-<br />
<br />
!scope="row"| 15<br />
| [[SmartProjector]]<br />
| BRANGER, HABLOT<br />
| Donsez, Maisonnasse<br />
| [[Fiche_SmartProjector_ricm4_2015_2016| '''Fiche''']] - [[SRS - SmartProjector| '''SRS''']] - [[UML - SmartProjector| '''UML''']]<br />
| [https://github.com/P0ppoff/SmartProjector '''github''']<br />
| [[Media:Expose final.pdf|Rapport]] - [[Media:PresentationPorjet.pdf|Transparents Présentation]] - [[Media:Flyer_SmartProjector.pdf|Flyer]] - [[Media:Gl_groupe16.pdf|Rapport Consultant]] - [http://air.imag.fr/index.php/Patron_de_conception_-_SmartProjector Patterns] - [[Media:Soutenance_SP.pdf|Soutenance finale]]<br />
|-<br />
<br />
|}<br />
<br />
===Liste de projets===<br />
<br />
* [[Dashboard pour gestionnaire de tâches et de ressources]], Olivier Richard<br />
* [[Moteur distribué d'exécution de commande]], Olivier Richard<br />
* [[Environnement d'expérimentation de pour NVIDIA Shield (Tegra X1)]], Olivier Richard <br />
* [[Speeding Simplified Script Language]], Olivier Richard<br />
<br />
* Aide (Open-Source)au Handicap Auditif, avec Didier Donsez, Jérome Maisonnasse, Marie-Paule Balicco (SAH UGA) et Nicolas Vuillerme<br />
** [[Borne interactive]] (1 sujet)<br />
** [[Sonotone]] (1 sujet)<br />
** [[Sous-titre en temps réel d'un cours]] (1 sujet)<br />
* [[GrenobloisFuté]] Couche trafic sur OsmAnd avec un greffon. Données dynamique de la métro. Dvp Android. Nicolas Palix.<br />
* [[GeoDiff]] Production, visualisation, fusion de variations (diff) sur de l'information géocodée : Nicolas Palix<br />
* [[Smart campus augmenté et contributif]] Didier Donsez, Vivien Quema<br />
<br />
* [[Streaming en stéréoscopie]] sur [[WebRTC]] avec rendu sur [[Oculus]] pour le robot [[RobAIR]], Jérôme Maisonnasse. ([http://gstconf.ubicast.tv/videos/stereoscopic-3d-video/ voir]).<br />
* [[STM32F7]] : Mise en oeuvre de la chaîne de compilation sous Linux avec [[OpenSTM32]] et [[OpenOCD]]. Nicolas Palix<br />
* [[PersyCup2016]] : Persyval Robocup, Didier Donsez, Vivien Quema, Jérome Maisonnasse. (3 étudiants)<br />
* [[Services étendus pour le modèle de composants iPOPO pour Python]], Didier Donsez & Thomas Calmant. (2 étudiants)<br />
* [[SmartClassRoom2016|Développement d'une interface partagée pour tables tactiles (projet SmartClassRoom)]], Didier Donsez, Jérôme Maisonnasse. (2 étudiants)<br />
* [[iRock2016|iRock : surveillance de glissement de terrains]], Didier Donsez & Vivien Quema<br />
* [[IndoorGeoloc2016|Géolocalisation in-door au moyen de balises (beacon) BLE et Wifi à base de STM32 et de balises iBeacon & AltBeacon]], Didier Donsez & Vivien Quema<br />
* [[UPnPOpenHAB2016|Intégration et gestion de caméras de surveillance UPnP dans la plateforme domotique open-source OpenHAB et myOpenHAB]], Didier Donsez & Jérome Maisonnasse.<br />
<br />
'''Projets non prioritaires'''<br />
<br />
* [[Liveprogramming with Kivy]], Olivier Richard<br />
* [[AstroImage]] production d'image d'astronomie, Olivier Richard et Bruno Bzeznik<br />
* [[G-code Cruncher]] Controle de machine CNC (Nucleo grbl + esp8266 + Sdcard), Olivier Richard<br />
* [[Intégration OpenHAB / OpenTele]] Nicolas Palix<br />
<br />
==RICM5==<br />
<br />
===Projet Semestre S10===<br />
<br />
Enseignant responsable : Didier Donsez<br />
<br />
Démarrage : Lundi 25/01 à 10H30-12H30, P253 (Rendez-vous devant la salle AIR) - Visioconf pour Thibaut Cordier<br />
<br />
Soutenance : Jeudi 17/03 à 13H00-17H00, salle P043 (Polytech Grenoble)puis en salle C005 (Batiment C) <br />
<br />
Etudiants : RICM5 + 8 étudiants Avosti DUT RT<br />
<br />
Rappel séances MPI<br />
* Séance 1 : mardi 26 janvier après midi - Stéphanie Diligent<br />
* Séance 2 : mardi 2 février après midi - Stéphanie Diligent<br />
* Séance 3 : lundi 8 février matin - Emmanuelle Tréhoust<br />
* Séance 4 : jeudi 11 février matin - Emmanuelle Tréhoust<br />
* Séance 5 : lundi 21 mars matin - Stéphanie Diligent et Emmanuelle Tréhoust<br />
<br />
=====Soutenances=====<br />
Planning:<br />
* Bossa (13H00-13H40 en salle P043)<br />
* Immersion EDF (13H45-14H25 en salle P043)<br />
* IaaS Docker (14H30-15H10 en salle P043)<br />
* SmartCampus (15H15-15H55 en salle P043 et salle P259 AIR)<br />
* SmartClassRoom (16H15-16H55 en C005)<br />
* Pot d' "Au Revoir" (17H00-1800 en C005)<br />
<br />
Instructions:<br />
*Chaque soutenance comporte 15 minutes de présentation, 15 minutes de démonstration et 10 minutes de questions. Un transparent doit être consacré au travail confié et réalisé par les étudiants en DUT (AVOSTI).<br />
* Répétez plusieurs fois votre présentation et votre démonstration.<br />
* L'ensemble des documents (y compris photos, vidéos et ''[[Logiciels#Screencast|screencast]]s'') doivent être accessibles depuis le tableau ci-dessous et dans chaque fiche de suivi. Prévoyez une copie sur clé USB.<br />
* Les étudiants vous accompagnent lors de votre soutenance.<br />
* '''TOUT Le matériel prêté devra être rapporté et restitué dans un sac cabas lors de la soutenance.'''<br />
<br />
=====Projets=====<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM5 2015-2016<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Dépot git<br />
!scope="col"| Documents<br />
|-<br />
<br />
!scope="row"| 1<br />
| [http://air.imag.fr/index.php/IaaS_collaboratif_avec_Docker IaaS - Docker]<br />
| Eudes Robin, Damotte Alan, Barthelemy Romain, Mammar Malek, Guo Kai<br />
| Didier Donsez<br />
| [[Projets-2015-2016-IaaS_Docker| '''Fiche''']] - [[Projets-2015-2016-IaaS_Docker-SRS| '''SRS''']]<br />
| [https://github.com/EudesRobin/iaas-collaboratif '''github''']<br />
| [[Media:RapportMPI_Iaas.pdf|Rapport MPI]] - [[Media:Transparents_IaaS.pdf|Transparents]] - [[Media:Flyer_IaaS.pdf|Flyer]] - [https://youtu.be/qtqgZNrgcRc '''Screencast''']<br />
|-<br />
!scope="row"| 2<br />
| [http://air.imag.fr/index.php/Portage_de_Bossa Portage de Bossa sur le Kernel Linux 4x]<br />
| Eric Michel Fotsing, Ombeline Rossi, Longfei Yao<br />
| Nicolas Palix, Didier Donsez<br />
| [[Projets-2015-2016-Portage_Bossa| '''Fiche''']] - [[Projets-2015-2016-Portage_Bossa-SRS| '''SRS''']]<br />
| Private repository<br />
| [[Media:Rapport_Bossa.pdf|Rapport]] - [[Media:Transparents_Bossa.pdf|Transparents]] - [[Media:Flyer_Bossa.pdf|Flyer]] - Photos - Vidéos <br />
|-<br />
<br />
!scope="row"| 3<br />
| [[Visite immersive en réalité virtuelle dans une usine avec EDF]]<br />
| Adam Christophe, Aissanou Sarah, Klipffel Tararaina, Qian Jean, Zominy Laurent<br />
| Didier Donsez, Georges-Pierre Bonneau, Thibaut Cordier (EDF)<br />
| [[Projets-2015-2016-VisiteImmersiveEDF| '''Fiche''']]<br />
| [https://github.com/VisiteImmersiveEDF '''github''']<br />
| [[Media:RapportProjetX.pdf|Rapport]] - [[Media:TransparentsProojetX.pdf|Transparents]] - [[Media:FlyerProjetX.pdf|Flyer]] - Photos - Vidéos<br />
|-<br />
<br />
!scope="row"| 4<br />
| [[Contribution à OpenSmartCampus]] (voir http://data.beta.metropolegrenoble.fr/)<br />
| Quentin Torck, Vivien Michel, Jérémy Hammerer, Rama Codazzi, Zhengmeng Zhang<br />
| Didier Donsez, Vivien Quéma<br />
| [[Projets-2015-2016-OpenSmartCampus| '''Fiche''']]<br />
| [https://github.com/quentin74/SmartCampus.git '''github''']<br />
| [[Media:RapportProjetOpenSmartCampus2016.pdf|Rapport]] - [[Media:TransparentsProojetOpenSmartCampus2016.pdf|Transparents]] - [[Media:FlyerProjetOpenSmartCampus2016.pdf|Flyer]] - Photos - Vidéos<br />
|-<br />
<br />
!scope="row"| 5<br />
| [[Contribution à SmartClassRoom]] (Interfaces tactiles distribuées et partagées)<br />
| Saussac Thibault, Toussaint Sébastien, Hamdani Youcef, Zoppello Sebastien, Melik sak, Mesnier Vincent<br />
| Jérôme Maisonnasse, Didier Donsez<br />
| [[Projets-2015-2016-SmartClassRoom| '''Fiche''']] - [[Projets-2015-2016-SmartClassRoom/SRS| '''SRS''']]<br />
| [https://github.com/vince0508/SmartClassroom-TiledDisplayPart-master_Main '''github''']<br />
| [[Media:RapportProjetSmartClassRoom.pdf|Rapport]] - [[Media:TransparentsProjetSmartClassRoom.pdf|Transparents]] - [[Media:FlyerProjetSmartClassRoom.pdf|Flyer]] - [https://youtu.be/FEwoA4S9rsM '''Screencast/Vidéo''']<br />
|-<br />
<br />
<br />
|}<br />
<br />
===Projets annulés et reportés===<br />
* Projet avec [[Tango Project]] (Annulé)<br />
* Hack the Beam, Didier Donsez & Jérôme Maisonnasse.<br />
* [[Algorithmes de suivi de personnes pour robot de téléprésence RobAIR]] (Jérôme Maisonnasse, Didier Donsez)<br />
<br />
=M2PGI=<br />
==[[Projets M2PGI Services Machine-to-Machine|Projet Services Machine-to-Machine]]==<br />
* [[PM2M/2016/TP|Sujet et groupes]]</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=File:Sign2Speech-server_2015_2015.tar.gz&diff=28973File:Sign2Speech-server 2015 2015.tar.gz2016-04-05T23:17:24Z<p>Matthieu.Nogueron: </p>
<hr />
<div></div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=File:Sign2Speech_2015_2015.tar.gz&diff=28972File:Sign2Speech 2015 2015.tar.gz2016-04-05T23:15:04Z<p>Matthieu.Nogueron: </p>
<hr />
<div></div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Projets_2015-2016&diff=28971Projets 2015-20162016-04-05T23:14:28Z<p>Matthieu.Nogueron: /* Projet Semestre S8 */</p>
<hr />
<div><<[[Projets 2014-2015]] | [[Projets]] | [[Projets 2016-2017]]>><br />
=RICM=<br />
==RICM3==<br />
<br />
==RICM4==<br />
===Projet Semestre S8===<br />
<br />
Enseignants responsables : Olivier Richard, Didier Donsez<br />
<br />
<br />
* '''Evaluation à mi-parcours le lundi 7 mars''': Format: 10min (5min de présentation 3 slides au plus, 5min de discussion). Cette évaluation sera prise en compte dans la note finale.<br />
<br />
'''Consignes générales:'''<br />
<br />
* '''Vous devez être pro-actifs !!!''': Si des points sont pas ou mals spécifiés, vous le faîtes et vous justifiez vos choix. Pour les problèmes techniques éventuels vous pouvez: vous creusez la question, vous contactez l'auteur du code si il y a lieux, vous faites un rapport de bug ('''Attention:''' ca se prépare !), vous soumettez un patch, vous contactez l'enseignant ou la personne suivant le projet.<br />
<br />
* '''Vous devez maintenir une fiche de suivi de projet''': elle doit être mise à jour chaque semaine, elle rassemble les élements essentiels du projet, elle <br />
indique les évolutions du projet et présente sa feuille de route. '''Note:''' le nom de la fiche doit être composé du nom du projet et suffixé par ricm4_2015_2016.<br />
<br />
* '''Vous devez utiliser un logiciel de gestion de version''' pour vos développements comme [http://en.wikipedia.org/wiki/Git_%28software%29 git ] et nous vous conseillons d'utiliser le site [https://github.com github] pour l'hébergement de votre dépôt public.<br />
<br />
* Les document public (exemple sur github) doivent être rédigés en anglais (README, documentation, commentaires de code, nom de variables et de fonctions). Une bonnification sera accordée si le rapport et les transparents sont en anglais (la soutenance sera en francais).<br />
<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM4 2015-2016<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Dépot git<br />
|-<br />
<br />
!scope="row"| 1<br />
| [[Dashboard pour gestionnaire de tâches et de ressources]]<br />
| CROUZET, MATHIEU<br />
| Richard<br />
| [[Projets-2015-2016-DashBoard| '''Fiche''']]<br />
| [https://github.com/MatthieuCrouzet/Projet4A '''github''']<br />
| [[Media:RapportProjetDashBoard.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet1.pdf|Flyer]] - [[Media:gl_groupe1.pdf|Rapport Consultant]] - [[Media:Paterns.pdf|Patterns]] - [[Media:PresentationDashboard.pdf|Presentation]]<br />
|-<br />
<br />
!scope="row"| 2<br />
| [[Speeding Simplified Script Language]]<br />
| POPEK, BERTRAND-DALECHAMPS, WEI<br />
| Richard<br />
| [[Projets-2015-2016-SSSL| '''Fiche''']] - [[SSSL-UML| '''UML''']] - [[Projets-2015-2016-SSSL-SRS | '''SRS''']] <br />
| [https://github.com/FlorianPO/Speeding-Simplified-Script-Language.git '''github''']<br />
| [[Media:RapportProjet2.pdf|Rapport]] - [[Media:Groupe2_AIR.pdf|Rapport Consultant]] - [[Media:PresentationIntermediaireProjet2.pdf|Presentation_Intermediaire]] - [[Media:PresentationFinalProjet2.pdf|Presentation_final]] - [[Media:FlyerSSSL_projet2.pdf|flyer]]<br />
|-<br />
<br />
!scope="row"| 3<br />
| [[Borne interactive]] <br />
| DUNAND - NAVARRO - REVEL<br />
| Maisonnasse<br />
| [[Projets-2015-2016-Borne-Interactive| '''Fiche''']] - [[Projets-2015-2016-Borne-Interactive-SRS | '''SRS''']] - [[Projets-2015-2016-Borne-Interactive/UML_Diagrams | '''UML''']]<br />
| [https://github.com/Kant73/InteractiveDisplay '''github''']<br />
| [[Media:RapportProjet3.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet2.pdf|Flyer]] - [[Media:IPopo.pdf|Rapport Consultant]] - [[Media:PatternDesign.pdf | '''Design Pattern''']] - [[Media:PresentationInteractiveDisplay.pdf|Présentation Intermédiaire]] <br />
|-<br />
<br />
!scope="row"| 4<br />
| [[Sonotone]]<br />
| LECORPS, VOUTAT, Hattinguais <br />
| Maisonnasse, Richard<br />
| [[Projets-2015-2016-Sonotone| '''Fiche''']] - [[Projets-2015-2016-Sonotone-SRS | '''SRS''']] - [[Projets-2015-2016-Sonotone-UML | '''UML''']]<br />
| [https://github.com/Gorgorot38/Sonotone-RICM4 '''github''']<br />
| [[Media:RapportProjetf.pdf|Rapport]] - [[Media:SlidesSonotone.pdf|Transparents]] - [[Media:FlyerProjet3.pdf|Flyer]] - [[Media:SRS_Consultant_Sonotone_4.pdf|Rapport_Consultant]] - [[Media:pattern_sonotone.pdf|Pattern]] - [[Media:Soutenance.pdf|Soutenance_miparcours]]<br />
|-<br />
<br />
!scope="row"| 5<br />
| [[Sous-titre_en_temps_r%C3%A9el_d%27un_cours| Sous-titre d'un cours en temps réel]]<br />
| LECHEVALLIER, BUI, OUNISSI <br />
| Maisonnasse<br />
| [[LiveSubtitles| '''Fiche''']]<br />
| [https://github.com/Lechevallier/RealTimeSubtitles '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet4.pdf|Flyer]] - [[Media: SRS_Groupe_5.pdf| Rapport Consultant]]<br />
|-<br />
<br />
!scope="row"| 6<br />
| [[GrenobloisFuté]]<br />
| MOURET, DELAPORTE, LUCIDARME<br />
| Nicolas Palix<br />
| [[GrenobleFuté| '''Fiche''']] - [[SRS - GrenobloisFuté | '''SRS''']] <br />
| [https://github.com/Lucidarme/Osmand.git '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:midPresentation.pdf|Mid Presentation]] - [[Media:Flyer GrenobloisFute(3).pdf|Flyer]] - [[Media:gl_G14.pdf|Rapport Consultant]] - [[Media:Présentation GrenobloisFuté.pdf|Transparents]]<br />
|-<br />
<br />
!scope="row"| 7<br />
| [[Streaming en stéréoscopie]]<br />
| ZHAO ZILONG, HAMMOUTI<br />
| Maisonnasse<br />
| [[Projets-2015-2016-Streaming-Stereoscopie| '''Fiche''']] - [[SRS - Streaming en stéréoscopie | '''SRS''']] - [[Projets-2015-2016-streaming_stereo-UML | '''UML''']]<br />
| [https://github.com/zhao-zilong/streaming_stereo '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet6.pdf|Flyer]] - [[Media:bruel_medewou_ndiaye.pdf|Rapport_consultant]] - [[Media:streaming.pdf|mi-parcours]]<br />
|-<br />
<br />
!scope="row"| 8<br />
| [[PersyCup2016]]<br />
| BIN, ZEGAOUI, ELLAPIN <br />
| Donsez, Maisonnasse<br />
| [[PersyCup| '''Fiche''']]<br />
| [https://github.com/legominstorm/lego '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet7.pdf|Flyer]] - [[Media:SoutenanceMiParcours-Persycup2016.pdf|Soutenance Mi-parcours]]<br />
|-<br />
<br />
!scope="row"| 9<br />
| [[Services étendus pour le modèle de composants iPOPO pour Python]]<br />
| FOUNAS, HALLAL, GATTAZ <br />
| Calmant & Donsez<br />
| [[Proj-2015-2016-Extensions_IPOPO | '''Fiche''']] - [[Proj-2015-2016-Extensions_IPOPO/SRS | '''SRS''']] - [[Proj-2015-2016-Extensions_IPOPO/UML | '''UML''']] <br />
| [https://github.com/abdelazizFounas/ipopo/tree/tlsremote '''github IPOPO'''] <br /> [https://github.com/gattazr/IPOPO-Remote-Client '''github IPOPO Client''']<br />
| [[Media:9_RapportProjet9.pdf|Rapport]] - [[Media:9_TransparentsProojet.pdf|Transparents]] - [[Media:9_FlyerProjet8.pdf|Flyer]] - [[Media:3-SRS-Pres.pdf| Rapport Consultant]] - [[Media:9_PatternStrat.pdf|Pattern Design]] - [[Media:9_Mid-Presentation.pdf|Mid Presentation]] - [[Media:9_Gantt.pdf|Gantt]]<br />
|-<br />
<br />
!scope="row"| 10<br />
| [[IndoorGeoloc2016]]<br />
| ARRADA - CRASTES - FAURE - STOIAN <br />
| Donsez<br />
| [[Proj-2015-2016-IndoorGeoloc/Fiche| '''Fiche''']] - [[Proj-2015-2016-IndoorGeoloc/SRS|SRS]]<br />
| [https://github.com/QuentinFA/Geoloc_Indoor '''github''']<br />
| [[Media:Proj-2015-2016-IndoorGeoloc/RapportProjet.pdf|Rapport]] - [[Media:Proj-2015-2016-IndoorGeoloc/TransparentsProjet.pdf|Transparents]] - [[Media:Proj-2015-2016-IndoorGeoloc/FlyerProjet9.pdf|Flyer]] - [[Media: SRSGroupe17.pdf| Rapport Consultant]] - [[Media:Mi_parcours.pdf|Mid presentation]]<br />
|-<br />
<br />
!scope="row"| 11<br />
| [[UPnPOpenHAB2016]]<br />
| Medewou , Ndiaye Yacine , Bruel Anna <br />
| Didier Donsez<br />
| [[Proj-Openhab-2016| '''Fiche''']] - [[Proj-2015-2016-Int%C3%A9gration_de_cam%C3%A9ra_de_surveillance_UPnP_%C3%A0_Openhab/SRS| '''SRS''']] - [[Proj-Openhab/UML| '''UML''']]<br />
| [https://github.com/openHab-UPnP '''github''']<br />
| [[Media:RapportProjet111.pdf|Rapport]] - [[Media:FlyerProjetAnglais111.pdf|EnglishFlyer]] - [[Media:FlyerProjet10.pdf|FrenchFlyer]] - [[Media:soutenace111.pdf|Soutenance]] - [[Media:TransparentsProojet111.pdf|Rapport Analyste]] - [[Media:gl_ZHAO_HAMMOUTI.pdf|Rapport Consultant]] - [[Media:pattern_ZHAO_HAMMOUTI.pdf|Patterns]] - [[Media:fichier111.pdf|Mini soutenance]]<br />
|-<br />
<br />
!scope="row"| 12<br />
| [[Sign2Speech]]<br />
| NIOGRET, NOGUERON, TITH<br />
| Didier Donsez<br />
| [[sign2speech_ricm4_2015_2016| '''Fiche''']] - [[SRS - Sign2Speech | '''SRS''']] - [[UML | '''UML''']]<br />
| [https://github.com/SignToSpeech-Project '''github'''] [[Media:Sign2Speech_2015_2015.tar.gz|'''Sign2Speech Client''']] [[Media:Sign2Speech-server_2015_2015.tar.gz|'''Sign2Speech Server''']]<br />
| [[Media:RapportProjet12_Sign2Speech_2015_2016.pdf|Rapport]] - [[Media:TransparentsProjet12_Sign2Speech_2015_2016.pdf|Transparents]] - [[Media:FlyerProjet11_Sign2Speech_2015-2016.pdf|Flyer]] - [[Media:12-Sign2Speech-RapportConsultant.pdf|Rapport Consultant]] - [[Media:12-Sign2Speech-MidPres.pdf|Mid presentation]] - [[Sign2Speech_RICM4_2015-2016_User_Manual| '''User Manual''']]<br />
|-<br />
<br />
!scope="row"| 13<br />
| [[AstroImage]] <br />
| RACHEX, BLANC, GERRY<br />
| Olivier Richard et Bruno Bzeznik<br />
| [[Proj-2015-2016-Astroimage/Fiche| '''Fiche''']] - [[AstroImage/SRS | '''SRS''']] - [[Media:AstroImage-UML.pdf | '''UML''']]<br />
| [https://github.com/nicolas-blanc/AstroImage '''github''']<br />
| [[Media:RapportProjet13.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet12.pdf|Flyer]] - [[Media:13-AstroImage-RapportConsultant.pdf|Rapport Consultant]] - [https://docs.google.com/presentation/d/15F8DRktwmOuSNabdxMASniyr-TIiRzGNNG1mOhcoSnk/edit?usp=sharing '''Patterns''']<br />
|-<br />
<br />
!scope="row"| 14<br />
| [[Tachymètre]]<br />
| MACE, NOUGUIER, RAMEL<br />
| Olivier Gattaz<br />
| [[Fiche - Tachymètre | '''Fiche''']] - [[SRS - Tachymètre| '''SRS''']] - [[UML - Tachymètre| '''UML''']]<br />
| [https://github.com/Quego/Tachymetre '''github - Tachymètre''']<br />
| [[Media:Projet_Tachym%C3%A8tre_-_MACE_NOUGUIER_RAMEL.pdf|Rapport]] - [[Media:Pr%C3%A9sentation_projet_Tachym%C3%A8tre_-_MACE_NOUGUIER_RAMEL.pdf|Transparents]] - [[Media:D%C3%A9pliant_Tachym%C3%A8tre_-_MAC%C3%89_NOUGUIER_RAMEL.pdf|Flyer]] - [[Media:srs_tachymetre.pdf|Rapport consultant]] - [[Media:14_PatternDesign.pdf | Pattern Design]] - [[Media:Tachymetre_Presentation.pdf | Présentation de milieu de projet]]<br />
|-<br />
<br />
!scope="row"| 15<br />
| [[SmartProjector]]<br />
| BRANGER, HABLOT<br />
| Donsez, Maisonnasse<br />
| [[Fiche_SmartProjector_ricm4_2015_2016| '''Fiche''']] - [[SRS - SmartProjector| '''SRS''']] - [[UML - SmartProjector| '''UML''']]<br />
| [https://github.com/P0ppoff/SmartProjector '''github''']<br />
| [[Media:Expose final.pdf|Rapport]] - [[Media:PresentationPorjet.pdf|Transparents Présentation]] - [[Media:Flyer_SmartProjector.pdf|Flyer]] - [[Media:Gl_groupe16.pdf|Rapport Consultant]] - [http://air.imag.fr/index.php/Patron_de_conception_-_SmartProjector Patterns] - [[Media:Soutenance_SP.pdf|Soutenance finale]]<br />
|-<br />
<br />
|}<br />
<br />
===Liste de projets===<br />
<br />
* [[Dashboard pour gestionnaire de tâches et de ressources]], Olivier Richard<br />
* [[Moteur distribué d'exécution de commande]], Olivier Richard<br />
* [[Environnement d'expérimentation de pour NVIDIA Shield (Tegra X1)]], Olivier Richard <br />
* [[Speeding Simplified Script Language]], Olivier Richard<br />
<br />
* Aide (Open-Source)au Handicap Auditif, avec Didier Donsez, Jérome Maisonnasse, Marie-Paule Balicco (SAH UGA) et Nicolas Vuillerme<br />
** [[Borne interactive]] (1 sujet)<br />
** [[Sonotone]] (1 sujet)<br />
** [[Sous-titre en temps réel d'un cours]] (1 sujet)<br />
* [[GrenobloisFuté]] Couche trafic sur OsmAnd avec un greffon. Données dynamique de la métro. Dvp Android. Nicolas Palix.<br />
* [[GeoDiff]] Production, visualisation, fusion de variations (diff) sur de l'information géocodée : Nicolas Palix<br />
* [[Smart campus augmenté et contributif]] Didier Donsez, Vivien Quema<br />
<br />
* [[Streaming en stéréoscopie]] sur [[WebRTC]] avec rendu sur [[Oculus]] pour le robot [[RobAIR]], Jérôme Maisonnasse. ([http://gstconf.ubicast.tv/videos/stereoscopic-3d-video/ voir]).<br />
* [[STM32F7]] : Mise en oeuvre de la chaîne de compilation sous Linux avec [[OpenSTM32]] et [[OpenOCD]]. Nicolas Palix<br />
* [[PersyCup2016]] : Persyval Robocup, Didier Donsez, Vivien Quema, Jérome Maisonnasse. (3 étudiants)<br />
* [[Services étendus pour le modèle de composants iPOPO pour Python]], Didier Donsez & Thomas Calmant. (2 étudiants)<br />
* [[SmartClassRoom2016|Développement d'une interface partagée pour tables tactiles (projet SmartClassRoom)]], Didier Donsez, Jérôme Maisonnasse. (2 étudiants)<br />
* [[iRock2016|iRock : surveillance de glissement de terrains]], Didier Donsez & Vivien Quema<br />
* [[IndoorGeoloc2016|Géolocalisation in-door au moyen de balises (beacon) BLE et Wifi à base de STM32 et de balises iBeacon & AltBeacon]], Didier Donsez & Vivien Quema<br />
* [[UPnPOpenHAB2016|Intégration et gestion de caméras de surveillance UPnP dans la plateforme domotique open-source OpenHAB et myOpenHAB]], Didier Donsez & Jérome Maisonnasse.<br />
<br />
'''Projets non prioritaires'''<br />
<br />
* [[Liveprogramming with Kivy]], Olivier Richard<br />
* [[AstroImage]] production d'image d'astronomie, Olivier Richard et Bruno Bzeznik<br />
* [[G-code Cruncher]] Controle de machine CNC (Nucleo grbl + esp8266 + Sdcard), Olivier Richard<br />
* [[Intégration OpenHAB / OpenTele]] Nicolas Palix<br />
<br />
==RICM5==<br />
<br />
===Projet Semestre S10===<br />
<br />
Enseignant responsable : Didier Donsez<br />
<br />
Démarrage : Lundi 25/01 à 10H30-12H30, P253 (Rendez-vous devant la salle AIR) - Visioconf pour Thibaut Cordier<br />
<br />
Soutenance : Jeudi 17/03 à 13H00-17H00, salle P043 (Polytech Grenoble)puis en salle C005 (Batiment C) <br />
<br />
Etudiants : RICM5 + 8 étudiants Avosti DUT RT<br />
<br />
Rappel séances MPI<br />
* Séance 1 : mardi 26 janvier après midi - Stéphanie Diligent<br />
* Séance 2 : mardi 2 février après midi - Stéphanie Diligent<br />
* Séance 3 : lundi 8 février matin - Emmanuelle Tréhoust<br />
* Séance 4 : jeudi 11 février matin - Emmanuelle Tréhoust<br />
* Séance 5 : lundi 21 mars matin - Stéphanie Diligent et Emmanuelle Tréhoust<br />
<br />
=====Soutenances=====<br />
Planning:<br />
* Bossa (13H00-13H40 en salle P043)<br />
* Immersion EDF (13H45-14H25 en salle P043)<br />
* IaaS Docker (14H30-15H10 en salle P043)<br />
* SmartCampus (15H15-15H55 en salle P043 et salle P259 AIR)<br />
* SmartClassRoom (16H15-16H55 en C005)<br />
* Pot d' "Au Revoir" (17H00-1800 en C005)<br />
<br />
Instructions:<br />
*Chaque soutenance comporte 15 minutes de présentation, 15 minutes de démonstration et 10 minutes de questions. Un transparent doit être consacré au travail confié et réalisé par les étudiants en DUT (AVOSTI).<br />
* Répétez plusieurs fois votre présentation et votre démonstration.<br />
* L'ensemble des documents (y compris photos, vidéos et ''[[Logiciels#Screencast|screencast]]s'') doivent être accessibles depuis le tableau ci-dessous et dans chaque fiche de suivi. Prévoyez une copie sur clé USB.<br />
* Les étudiants vous accompagnent lors de votre soutenance.<br />
* '''TOUT Le matériel prêté devra être rapporté et restitué dans un sac cabas lors de la soutenance.'''<br />
<br />
=====Projets=====<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM5 2015-2016<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Dépot git<br />
!scope="col"| Documents<br />
|-<br />
<br />
!scope="row"| 1<br />
| [http://air.imag.fr/index.php/IaaS_collaboratif_avec_Docker IaaS - Docker]<br />
| Eudes Robin, Damotte Alan, Barthelemy Romain, Mammar Malek, Guo Kai<br />
| Didier Donsez<br />
| [[Projets-2015-2016-IaaS_Docker| '''Fiche''']] - [[Projets-2015-2016-IaaS_Docker-SRS| '''SRS''']]<br />
| [https://github.com/EudesRobin/iaas-collaboratif '''github''']<br />
| [[Media:RapportMPI_Iaas.pdf|Rapport MPI]] - [[Media:Transparents_IaaS.pdf|Transparents]] - [[Media:Flyer_IaaS.pdf|Flyer]] - [https://youtu.be/qtqgZNrgcRc '''Screencast''']<br />
|-<br />
!scope="row"| 2<br />
| [http://air.imag.fr/index.php/Portage_de_Bossa Portage de Bossa sur le Kernel Linux 4x]<br />
| Eric Michel Fotsing, Ombeline Rossi, Longfei Yao<br />
| Nicolas Palix, Didier Donsez<br />
| [[Projets-2015-2016-Portage_Bossa| '''Fiche''']] - [[Projets-2015-2016-Portage_Bossa-SRS| '''SRS''']]<br />
| Private repository<br />
| [[Media:Rapport_Bossa.pdf|Rapport]] - [[Media:Transparents_Bossa.pdf|Transparents]] - [[Media:Flyer_Bossa.pdf|Flyer]] - Photos - Vidéos <br />
|-<br />
<br />
!scope="row"| 3<br />
| [[Visite immersive en réalité virtuelle dans une usine avec EDF]]<br />
| Adam Christophe, Aissanou Sarah, Klipffel Tararaina, Qian Jean, Zominy Laurent<br />
| Didier Donsez, Georges-Pierre Bonneau, Thibaut Cordier (EDF)<br />
| [[Projets-2015-2016-VisiteImmersiveEDF| '''Fiche''']]<br />
| [https://github.com/VisiteImmersiveEDF '''github''']<br />
| [[Media:RapportProjetX.pdf|Rapport]] - [[Media:TransparentsProojetX.pdf|Transparents]] - [[Media:FlyerProjetX.pdf|Flyer]] - Photos - Vidéos<br />
|-<br />
<br />
!scope="row"| 4<br />
| [[Contribution à OpenSmartCampus]] (voir http://data.beta.metropolegrenoble.fr/)<br />
| Quentin Torck, Vivien Michel, Jérémy Hammerer, Rama Codazzi, Zhengmeng Zhang<br />
| Didier Donsez, Vivien Quéma<br />
| [[Projets-2015-2016-OpenSmartCampus| '''Fiche''']]<br />
| [https://github.com/quentin74/SmartCampus.git '''github''']<br />
| [[Media:RapportProjetOpenSmartCampus2016.pdf|Rapport]] - [[Media:TransparentsProojetOpenSmartCampus2016.pdf|Transparents]] - [[Media:FlyerProjetOpenSmartCampus2016.pdf|Flyer]] - Photos - Vidéos<br />
|-<br />
<br />
!scope="row"| 5<br />
| [[Contribution à SmartClassRoom]] (Interfaces tactiles distribuées et partagées)<br />
| Saussac Thibault, Toussaint Sébastien, Hamdani Youcef, Zoppello Sebastien, Melik sak, Mesnier Vincent<br />
| Jérôme Maisonnasse, Didier Donsez<br />
| [[Projets-2015-2016-SmartClassRoom| '''Fiche''']] - [[Projets-2015-2016-SmartClassRoom/SRS| '''SRS''']]<br />
| [https://github.com/vince0508/SmartClassroom-TiledDisplayPart-master_Main '''github''']<br />
| [[Media:RapportProjetSmartClassRoom.pdf|Rapport]] - [[Media:TransparentsProjetSmartClassRoom.pdf|Transparents]] - [[Media:FlyerProjetSmartClassRoom.pdf|Flyer]] - [https://youtu.be/FEwoA4S9rsM '''Screencast/Vidéo''']<br />
|-<br />
<br />
<br />
|}<br />
<br />
===Projets annulés et reportés===<br />
* Projet avec [[Tango Project]] (Annulé)<br />
* Hack the Beam, Didier Donsez & Jérôme Maisonnasse.<br />
* [[Algorithmes de suivi de personnes pour robot de téléprésence RobAIR]] (Jérôme Maisonnasse, Didier Donsez)<br />
<br />
=M2PGI=<br />
==[[Projets M2PGI Services Machine-to-Machine|Projet Services Machine-to-Machine]]==<br />
* [[PM2M/2016/TP|Sujet et groupes]]</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Projets_2015-2016&diff=28970Projets 2015-20162016-04-05T23:13:46Z<p>Matthieu.Nogueron: /* Projet Semestre S8 */</p>
<hr />
<div><<[[Projets 2014-2015]] | [[Projets]] | [[Projets 2016-2017]]>><br />
=RICM=<br />
==RICM3==<br />
<br />
==RICM4==<br />
===Projet Semestre S8===<br />
<br />
Enseignants responsables : Olivier Richard, Didier Donsez<br />
<br />
<br />
* '''Evaluation à mi-parcours le lundi 7 mars''': Format: 10min (5min de présentation 3 slides au plus, 5min de discussion). Cette évaluation sera prise en compte dans la note finale.<br />
<br />
'''Consignes générales:'''<br />
<br />
* '''Vous devez être pro-actifs !!!''': Si des points sont pas ou mals spécifiés, vous le faîtes et vous justifiez vos choix. Pour les problèmes techniques éventuels vous pouvez: vous creusez la question, vous contactez l'auteur du code si il y a lieux, vous faites un rapport de bug ('''Attention:''' ca se prépare !), vous soumettez un patch, vous contactez l'enseignant ou la personne suivant le projet.<br />
<br />
* '''Vous devez maintenir une fiche de suivi de projet''': elle doit être mise à jour chaque semaine, elle rassemble les élements essentiels du projet, elle <br />
indique les évolutions du projet et présente sa feuille de route. '''Note:''' le nom de la fiche doit être composé du nom du projet et suffixé par ricm4_2015_2016.<br />
<br />
* '''Vous devez utiliser un logiciel de gestion de version''' pour vos développements comme [http://en.wikipedia.org/wiki/Git_%28software%29 git ] et nous vous conseillons d'utiliser le site [https://github.com github] pour l'hébergement de votre dépôt public.<br />
<br />
* Les document public (exemple sur github) doivent être rédigés en anglais (README, documentation, commentaires de code, nom de variables et de fonctions). Une bonnification sera accordée si le rapport et les transparents sont en anglais (la soutenance sera en francais).<br />
<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM4 2015-2016<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Dépot git<br />
|-<br />
<br />
!scope="row"| 1<br />
| [[Dashboard pour gestionnaire de tâches et de ressources]]<br />
| CROUZET, MATHIEU<br />
| Richard<br />
| [[Projets-2015-2016-DashBoard| '''Fiche''']]<br />
| [https://github.com/MatthieuCrouzet/Projet4A '''github''']<br />
| [[Media:RapportProjetDashBoard.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet1.pdf|Flyer]] - [[Media:gl_groupe1.pdf|Rapport Consultant]] - [[Media:Paterns.pdf|Patterns]] - [[Media:PresentationDashboard.pdf|Presentation]]<br />
|-<br />
<br />
!scope="row"| 2<br />
| [[Speeding Simplified Script Language]]<br />
| POPEK, BERTRAND-DALECHAMPS, WEI<br />
| Richard<br />
| [[Projets-2015-2016-SSSL| '''Fiche''']] - [[SSSL-UML| '''UML''']] - [[Projets-2015-2016-SSSL-SRS | '''SRS''']] <br />
| [https://github.com/FlorianPO/Speeding-Simplified-Script-Language.git '''github''']<br />
| [[Media:RapportProjet2.pdf|Rapport]] - [[Media:Groupe2_AIR.pdf|Rapport Consultant]] - [[Media:PresentationIntermediaireProjet2.pdf|Presentation_Intermediaire]] - [[Media:PresentationFinalProjet2.pdf|Presentation_final]] - [[Media:FlyerSSSL_projet2.pdf|flyer]]<br />
|-<br />
<br />
!scope="row"| 3<br />
| [[Borne interactive]] <br />
| DUNAND - NAVARRO - REVEL<br />
| Maisonnasse<br />
| [[Projets-2015-2016-Borne-Interactive| '''Fiche''']] - [[Projets-2015-2016-Borne-Interactive-SRS | '''SRS''']] - [[Projets-2015-2016-Borne-Interactive/UML_Diagrams | '''UML''']]<br />
| [https://github.com/Kant73/InteractiveDisplay '''github''']<br />
| [[Media:RapportProjet3.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet2.pdf|Flyer]] - [[Media:IPopo.pdf|Rapport Consultant]] - [[Media:PatternDesign.pdf | '''Design Pattern''']] - [[Media:PresentationInteractiveDisplay.pdf|Présentation Intermédiaire]] <br />
|-<br />
<br />
!scope="row"| 4<br />
| [[Sonotone]]<br />
| LECORPS, VOUTAT, Hattinguais <br />
| Maisonnasse, Richard<br />
| [[Projets-2015-2016-Sonotone| '''Fiche''']] - [[Projets-2015-2016-Sonotone-SRS | '''SRS''']] - [[Projets-2015-2016-Sonotone-UML | '''UML''']]<br />
| [https://github.com/Gorgorot38/Sonotone-RICM4 '''github''']<br />
| [[Media:RapportProjetf.pdf|Rapport]] - [[Media:SlidesSonotone.pdf|Transparents]] - [[Media:FlyerProjet3.pdf|Flyer]] - [[Media:SRS_Consultant_Sonotone_4.pdf|Rapport_Consultant]] - [[Media:pattern_sonotone.pdf|Pattern]] - [[Media:Soutenance.pdf|Soutenance_miparcours]]<br />
|-<br />
<br />
!scope="row"| 5<br />
| [[Sous-titre_en_temps_r%C3%A9el_d%27un_cours| Sous-titre d'un cours en temps réel]]<br />
| LECHEVALLIER, BUI, OUNISSI <br />
| Maisonnasse<br />
| [[LiveSubtitles| '''Fiche''']]<br />
| [https://github.com/Lechevallier/RealTimeSubtitles '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet4.pdf|Flyer]] - [[Media: SRS_Groupe_5.pdf| Rapport Consultant]]<br />
|-<br />
<br />
!scope="row"| 6<br />
| [[GrenobloisFuté]]<br />
| MOURET, DELAPORTE, LUCIDARME<br />
| Nicolas Palix<br />
| [[GrenobleFuté| '''Fiche''']] - [[SRS - GrenobloisFuté | '''SRS''']] <br />
| [https://github.com/Lucidarme/Osmand.git '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:midPresentation.pdf|Mid Presentation]] - [[Media:Flyer GrenobloisFute(3).pdf|Flyer]] - [[Media:gl_G14.pdf|Rapport Consultant]] - [[Media:Présentation GrenobloisFuté.pdf|Transparents]]<br />
|-<br />
<br />
!scope="row"| 7<br />
| [[Streaming en stéréoscopie]]<br />
| ZHAO ZILONG, HAMMOUTI<br />
| Maisonnasse<br />
| [[Projets-2015-2016-Streaming-Stereoscopie| '''Fiche''']] - [[SRS - Streaming en stéréoscopie | '''SRS''']] - [[Projets-2015-2016-streaming_stereo-UML | '''UML''']]<br />
| [https://github.com/zhao-zilong/streaming_stereo '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet6.pdf|Flyer]] - [[Media:bruel_medewou_ndiaye.pdf|Rapport_consultant]] - [[Media:streaming.pdf|mi-parcours]]<br />
|-<br />
<br />
!scope="row"| 8<br />
| [[PersyCup2016]]<br />
| BIN, ZEGAOUI, ELLAPIN <br />
| Donsez, Maisonnasse<br />
| [[PersyCup| '''Fiche''']]<br />
| [https://github.com/legominstorm/lego '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet7.pdf|Flyer]] - [[Media:SoutenanceMiParcours-Persycup2016.pdf|Soutenance Mi-parcours]]<br />
|-<br />
<br />
!scope="row"| 9<br />
| [[Services étendus pour le modèle de composants iPOPO pour Python]]<br />
| FOUNAS, HALLAL, GATTAZ <br />
| Calmant & Donsez<br />
| [[Proj-2015-2016-Extensions_IPOPO | '''Fiche''']] - [[Proj-2015-2016-Extensions_IPOPO/SRS | '''SRS''']] - [[Proj-2015-2016-Extensions_IPOPO/UML | '''UML''']] <br />
| [https://github.com/abdelazizFounas/ipopo/tree/tlsremote '''github IPOPO'''] <br /> [https://github.com/gattazr/IPOPO-Remote-Client '''github IPOPO Client''']<br />
| [[Media:9_RapportProjet9.pdf|Rapport]] - [[Media:9_TransparentsProojet.pdf|Transparents]] - [[Media:9_FlyerProjet8.pdf|Flyer]] - [[Media:3-SRS-Pres.pdf| Rapport Consultant]] - [[Media:9_PatternStrat.pdf|Pattern Design]] - [[Media:9_Mid-Presentation.pdf|Mid Presentation]] - [[Media:9_Gantt.pdf|Gantt]]<br />
|-<br />
<br />
!scope="row"| 10<br />
| [[IndoorGeoloc2016]]<br />
| ARRADA - CRASTES - FAURE - STOIAN <br />
| Donsez<br />
| [[Proj-2015-2016-IndoorGeoloc/Fiche| '''Fiche''']] - [[Proj-2015-2016-IndoorGeoloc/SRS|SRS]]<br />
| [https://github.com/QuentinFA/Geoloc_Indoor '''github''']<br />
| [[Media:Proj-2015-2016-IndoorGeoloc/RapportProjet.pdf|Rapport]] - [[Media:Proj-2015-2016-IndoorGeoloc/TransparentsProjet.pdf|Transparents]] - [[Media:Proj-2015-2016-IndoorGeoloc/FlyerProjet9.pdf|Flyer]] - [[Media: SRSGroupe17.pdf| Rapport Consultant]] - [[Media:Mi_parcours.pdf|Mid presentation]]<br />
|-<br />
<br />
!scope="row"| 11<br />
| [[UPnPOpenHAB2016]]<br />
| Medewou , Ndiaye Yacine , Bruel Anna <br />
| Didier Donsez<br />
| [[Proj-Openhab-2016| '''Fiche''']] - [[Proj-2015-2016-Int%C3%A9gration_de_cam%C3%A9ra_de_surveillance_UPnP_%C3%A0_Openhab/SRS| '''SRS''']] - [[Proj-Openhab/UML| '''UML''']]<br />
| [https://github.com/openHab-UPnP '''github''']<br />
| [[Media:RapportProjet111.pdf|Rapport]] - [[Media:FlyerProjetAnglais111.pdf|EnglishFlyer]] - [[Media:FlyerProjet10.pdf|FrenchFlyer]] - [[Media:soutenace111.pdf|Soutenance]] - [[Media:TransparentsProojet111.pdf|Rapport Analyste]] - [[Media:gl_ZHAO_HAMMOUTI.pdf|Rapport Consultant]] - [[Media:pattern_ZHAO_HAMMOUTI.pdf|Patterns]] - [[Media:fichier111.pdf|Mini soutenance]]<br />
|-<br />
<br />
!scope="row"| 12<br />
| [[Sign2Speech]]<br />
| NIOGRET, NOGUERON, TITH<br />
| Didier Donsez<br />
| [[sign2speech_ricm4_2015_2016| '''Fiche''']] - [[SRS - Sign2Speech | '''SRS''']] - [[UML | '''UML''']]<br />
| [https://github.com/SignToSpeech-Project '''github'''] [[Sign2Speech_2015_2015.tar.gz|'''Sign2Speech Client''']] [[Sign2Speech-server_2015_2015.tar.gz|'''Sign2Speech Server''']]<br />
| [[Media:RapportProjet12_Sign2Speech_2015_2016.pdf|Rapport]] - [[Media:TransparentsProjet12_Sign2Speech_2015_2016.pdf|Transparents]] - [[Media:FlyerProjet11_Sign2Speech_2015-2016.pdf|Flyer]] - [[Media:12-Sign2Speech-RapportConsultant.pdf|Rapport Consultant]] - [[Media:12-Sign2Speech-MidPres.pdf|Mid presentation]] - [[Sign2Speech_RICM4_2015-2016_User_Manual| '''User Manual''']]<br />
|-<br />
<br />
!scope="row"| 13<br />
| [[AstroImage]] <br />
| RACHEX, BLANC, GERRY<br />
| Olivier Richard et Bruno Bzeznik<br />
| [[Proj-2015-2016-Astroimage/Fiche| '''Fiche''']] - [[AstroImage/SRS | '''SRS''']] - [[Media:AstroImage-UML.pdf | '''UML''']]<br />
| [https://github.com/nicolas-blanc/AstroImage '''github''']<br />
| [[Media:RapportProjet13.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet12.pdf|Flyer]] - [[Media:13-AstroImage-RapportConsultant.pdf|Rapport Consultant]] - [https://docs.google.com/presentation/d/15F8DRktwmOuSNabdxMASniyr-TIiRzGNNG1mOhcoSnk/edit?usp=sharing '''Patterns''']<br />
|-<br />
<br />
!scope="row"| 14<br />
| [[Tachymètre]]<br />
| MACE, NOUGUIER, RAMEL<br />
| Olivier Gattaz<br />
| [[Fiche - Tachymètre | '''Fiche''']] - [[SRS - Tachymètre| '''SRS''']] - [[UML - Tachymètre| '''UML''']]<br />
| [https://github.com/Quego/Tachymetre '''github - Tachymètre''']<br />
| [[Media:Projet_Tachym%C3%A8tre_-_MACE_NOUGUIER_RAMEL.pdf|Rapport]] - [[Media:Pr%C3%A9sentation_projet_Tachym%C3%A8tre_-_MACE_NOUGUIER_RAMEL.pdf|Transparents]] - [[Media:D%C3%A9pliant_Tachym%C3%A8tre_-_MAC%C3%89_NOUGUIER_RAMEL.pdf|Flyer]] - [[Media:srs_tachymetre.pdf|Rapport consultant]] - [[Media:14_PatternDesign.pdf | Pattern Design]] - [[Media:Tachymetre_Presentation.pdf | Présentation de milieu de projet]]<br />
|-<br />
<br />
!scope="row"| 15<br />
| [[SmartProjector]]<br />
| BRANGER, HABLOT<br />
| Donsez, Maisonnasse<br />
| [[Fiche_SmartProjector_ricm4_2015_2016| '''Fiche''']] - [[SRS - SmartProjector| '''SRS''']] - [[UML - SmartProjector| '''UML''']]<br />
| [https://github.com/P0ppoff/SmartProjector '''github''']<br />
| [[Media:Expose final.pdf|Rapport]] - [[Media:PresentationPorjet.pdf|Transparents Présentation]] - [[Media:Flyer_SmartProjector.pdf|Flyer]] - [[Media:Gl_groupe16.pdf|Rapport Consultant]] - [http://air.imag.fr/index.php/Patron_de_conception_-_SmartProjector Patterns] - [[Media:Soutenance_SP.pdf|Soutenance finale]]<br />
|-<br />
<br />
|}<br />
<br />
===Liste de projets===<br />
<br />
* [[Dashboard pour gestionnaire de tâches et de ressources]], Olivier Richard<br />
* [[Moteur distribué d'exécution de commande]], Olivier Richard<br />
* [[Environnement d'expérimentation de pour NVIDIA Shield (Tegra X1)]], Olivier Richard <br />
* [[Speeding Simplified Script Language]], Olivier Richard<br />
<br />
* Aide (Open-Source)au Handicap Auditif, avec Didier Donsez, Jérome Maisonnasse, Marie-Paule Balicco (SAH UGA) et Nicolas Vuillerme<br />
** [[Borne interactive]] (1 sujet)<br />
** [[Sonotone]] (1 sujet)<br />
** [[Sous-titre en temps réel d'un cours]] (1 sujet)<br />
* [[GrenobloisFuté]] Couche trafic sur OsmAnd avec un greffon. Données dynamique de la métro. Dvp Android. Nicolas Palix.<br />
* [[GeoDiff]] Production, visualisation, fusion de variations (diff) sur de l'information géocodée : Nicolas Palix<br />
* [[Smart campus augmenté et contributif]] Didier Donsez, Vivien Quema<br />
<br />
* [[Streaming en stéréoscopie]] sur [[WebRTC]] avec rendu sur [[Oculus]] pour le robot [[RobAIR]], Jérôme Maisonnasse. ([http://gstconf.ubicast.tv/videos/stereoscopic-3d-video/ voir]).<br />
* [[STM32F7]] : Mise en oeuvre de la chaîne de compilation sous Linux avec [[OpenSTM32]] et [[OpenOCD]]. Nicolas Palix<br />
* [[PersyCup2016]] : Persyval Robocup, Didier Donsez, Vivien Quema, Jérome Maisonnasse. (3 étudiants)<br />
* [[Services étendus pour le modèle de composants iPOPO pour Python]], Didier Donsez & Thomas Calmant. (2 étudiants)<br />
* [[SmartClassRoom2016|Développement d'une interface partagée pour tables tactiles (projet SmartClassRoom)]], Didier Donsez, Jérôme Maisonnasse. (2 étudiants)<br />
* [[iRock2016|iRock : surveillance de glissement de terrains]], Didier Donsez & Vivien Quema<br />
* [[IndoorGeoloc2016|Géolocalisation in-door au moyen de balises (beacon) BLE et Wifi à base de STM32 et de balises iBeacon & AltBeacon]], Didier Donsez & Vivien Quema<br />
* [[UPnPOpenHAB2016|Intégration et gestion de caméras de surveillance UPnP dans la plateforme domotique open-source OpenHAB et myOpenHAB]], Didier Donsez & Jérome Maisonnasse.<br />
<br />
'''Projets non prioritaires'''<br />
<br />
* [[Liveprogramming with Kivy]], Olivier Richard<br />
* [[AstroImage]] production d'image d'astronomie, Olivier Richard et Bruno Bzeznik<br />
* [[G-code Cruncher]] Controle de machine CNC (Nucleo grbl + esp8266 + Sdcard), Olivier Richard<br />
* [[Intégration OpenHAB / OpenTele]] Nicolas Palix<br />
<br />
==RICM5==<br />
<br />
===Projet Semestre S10===<br />
<br />
Enseignant responsable : Didier Donsez<br />
<br />
Démarrage : Lundi 25/01 à 10H30-12H30, P253 (Rendez-vous devant la salle AIR) - Visioconf pour Thibaut Cordier<br />
<br />
Soutenance : Jeudi 17/03 à 13H00-17H00, salle P043 (Polytech Grenoble)puis en salle C005 (Batiment C) <br />
<br />
Etudiants : RICM5 + 8 étudiants Avosti DUT RT<br />
<br />
Rappel séances MPI<br />
* Séance 1 : mardi 26 janvier après midi - Stéphanie Diligent<br />
* Séance 2 : mardi 2 février après midi - Stéphanie Diligent<br />
* Séance 3 : lundi 8 février matin - Emmanuelle Tréhoust<br />
* Séance 4 : jeudi 11 février matin - Emmanuelle Tréhoust<br />
* Séance 5 : lundi 21 mars matin - Stéphanie Diligent et Emmanuelle Tréhoust<br />
<br />
=====Soutenances=====<br />
Planning:<br />
* Bossa (13H00-13H40 en salle P043)<br />
* Immersion EDF (13H45-14H25 en salle P043)<br />
* IaaS Docker (14H30-15H10 en salle P043)<br />
* SmartCampus (15H15-15H55 en salle P043 et salle P259 AIR)<br />
* SmartClassRoom (16H15-16H55 en C005)<br />
* Pot d' "Au Revoir" (17H00-1800 en C005)<br />
<br />
Instructions:<br />
*Chaque soutenance comporte 15 minutes de présentation, 15 minutes de démonstration et 10 minutes de questions. Un transparent doit être consacré au travail confié et réalisé par les étudiants en DUT (AVOSTI).<br />
* Répétez plusieurs fois votre présentation et votre démonstration.<br />
* L'ensemble des documents (y compris photos, vidéos et ''[[Logiciels#Screencast|screencast]]s'') doivent être accessibles depuis le tableau ci-dessous et dans chaque fiche de suivi. Prévoyez une copie sur clé USB.<br />
* Les étudiants vous accompagnent lors de votre soutenance.<br />
* '''TOUT Le matériel prêté devra être rapporté et restitué dans un sac cabas lors de la soutenance.'''<br />
<br />
=====Projets=====<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM5 2015-2016<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Dépot git<br />
!scope="col"| Documents<br />
|-<br />
<br />
!scope="row"| 1<br />
| [http://air.imag.fr/index.php/IaaS_collaboratif_avec_Docker IaaS - Docker]<br />
| Eudes Robin, Damotte Alan, Barthelemy Romain, Mammar Malek, Guo Kai<br />
| Didier Donsez<br />
| [[Projets-2015-2016-IaaS_Docker| '''Fiche''']] - [[Projets-2015-2016-IaaS_Docker-SRS| '''SRS''']]<br />
| [https://github.com/EudesRobin/iaas-collaboratif '''github''']<br />
| [[Media:RapportMPI_Iaas.pdf|Rapport MPI]] - [[Media:Transparents_IaaS.pdf|Transparents]] - [[Media:Flyer_IaaS.pdf|Flyer]] - [https://youtu.be/qtqgZNrgcRc '''Screencast''']<br />
|-<br />
!scope="row"| 2<br />
| [http://air.imag.fr/index.php/Portage_de_Bossa Portage de Bossa sur le Kernel Linux 4x]<br />
| Eric Michel Fotsing, Ombeline Rossi, Longfei Yao<br />
| Nicolas Palix, Didier Donsez<br />
| [[Projets-2015-2016-Portage_Bossa| '''Fiche''']] - [[Projets-2015-2016-Portage_Bossa-SRS| '''SRS''']]<br />
| Private repository<br />
| [[Media:Rapport_Bossa.pdf|Rapport]] - [[Media:Transparents_Bossa.pdf|Transparents]] - [[Media:Flyer_Bossa.pdf|Flyer]] - Photos - Vidéos <br />
|-<br />
<br />
!scope="row"| 3<br />
| [[Visite immersive en réalité virtuelle dans une usine avec EDF]]<br />
| Adam Christophe, Aissanou Sarah, Klipffel Tararaina, Qian Jean, Zominy Laurent<br />
| Didier Donsez, Georges-Pierre Bonneau, Thibaut Cordier (EDF)<br />
| [[Projets-2015-2016-VisiteImmersiveEDF| '''Fiche''']]<br />
| [https://github.com/VisiteImmersiveEDF '''github''']<br />
| [[Media:RapportProjetX.pdf|Rapport]] - [[Media:TransparentsProojetX.pdf|Transparents]] - [[Media:FlyerProjetX.pdf|Flyer]] - Photos - Vidéos<br />
|-<br />
<br />
!scope="row"| 4<br />
| [[Contribution à OpenSmartCampus]] (voir http://data.beta.metropolegrenoble.fr/)<br />
| Quentin Torck, Vivien Michel, Jérémy Hammerer, Rama Codazzi, Zhengmeng Zhang<br />
| Didier Donsez, Vivien Quéma<br />
| [[Projets-2015-2016-OpenSmartCampus| '''Fiche''']]<br />
| [https://github.com/quentin74/SmartCampus.git '''github''']<br />
| [[Media:RapportProjetOpenSmartCampus2016.pdf|Rapport]] - [[Media:TransparentsProojetOpenSmartCampus2016.pdf|Transparents]] - [[Media:FlyerProjetOpenSmartCampus2016.pdf|Flyer]] - Photos - Vidéos<br />
|-<br />
<br />
!scope="row"| 5<br />
| [[Contribution à SmartClassRoom]] (Interfaces tactiles distribuées et partagées)<br />
| Saussac Thibault, Toussaint Sébastien, Hamdani Youcef, Zoppello Sebastien, Melik sak, Mesnier Vincent<br />
| Jérôme Maisonnasse, Didier Donsez<br />
| [[Projets-2015-2016-SmartClassRoom| '''Fiche''']] - [[Projets-2015-2016-SmartClassRoom/SRS| '''SRS''']]<br />
| [https://github.com/vince0508/SmartClassroom-TiledDisplayPart-master_Main '''github''']<br />
| [[Media:RapportProjetSmartClassRoom.pdf|Rapport]] - [[Media:TransparentsProjetSmartClassRoom.pdf|Transparents]] - [[Media:FlyerProjetSmartClassRoom.pdf|Flyer]] - [https://youtu.be/FEwoA4S9rsM '''Screencast/Vidéo''']<br />
|-<br />
<br />
<br />
|}<br />
<br />
===Projets annulés et reportés===<br />
* Projet avec [[Tango Project]] (Annulé)<br />
* Hack the Beam, Didier Donsez & Jérôme Maisonnasse.<br />
* [[Algorithmes de suivi de personnes pour robot de téléprésence RobAIR]] (Jérôme Maisonnasse, Didier Donsez)<br />
<br />
=M2PGI=<br />
==[[Projets M2PGI Services Machine-to-Machine|Projet Services Machine-to-Machine]]==<br />
* [[PM2M/2016/TP|Sujet et groupes]]</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2Speech_RICM4_2015-2016_User_Manual&diff=28969Sign2Speech RICM4 2015-2016 User Manual2016-04-05T23:02:50Z<p>Matthieu.Nogueron: /* Run the chat server */</p>
<hr />
<div>== How to run the project ==<br />
<br />
The project is splitted into two parts:<br />
* the gesture recognition software<br />
* the chat application<br />
<br />
=== Run the gesture recognition software ===<br />
<br />
In order to run this part you only need a Windows computer with the RealSense Camera connected and the chat server running.<br />
<br />
A dictionary in JSON file format has to be present in the same directory as the runnable file (Sign2Speech.exe). Check the github repository and the output.json file to understand the architecture of the dictionary.<br />
<br />
The main thing to know about the software is that you can run it with some parameters detailled with the "-h" parameter. So, if you're running the server on another machine you will have to set the address parameter with the "-a" parameter.<br />
<br />
The websocket and the gesture recognition will only work if the software can connect to a room in the chat server. By default this room is named "test".<br />
<br />
Once the software is running, you can sign and test the application, and check messages in the chat.<br />
<br />
<br />
If you try to use the project in Visual Studio, you will probably have to add the props file for RealSense SDK. The props file is under the props folder and should be added to all the project in the Properties Manager.<br />
<br />
=== Run the chat server ===<br />
<br />
For this part you will need to have Maven 2 installed on your computer. It can be done both on Windows and Linux.<br />
<br />
The server uses a framework called Wisdom Framework. This technology embeds some very useful features that can help you in your development.<br />
<br />
There are two ways to run the server:<br />
* if you are programming on the server, run it with the command: <code>mvn clean wisdom:run -dskipTests</code> in the directory where <code>pom.xml</code> is(-dskipTests is optionnal and only reduce the time of execution by passing tests, if you're running tests in your app remember to remove this parameter). This command allows you to develop when its running, and will refresh the server each time a file is modfied. If you kill the process with CTRL+C only on Windows, the project will not be completely killed, and you will have to kill all JAVA running processes in the Task Manager. Otherwise the next time you will try to run the project, it will fail.<br />
* if you want to deploy on a distant machine, run: <code>mvn clean install</code> on your computer in the directory where <code>pom.xml</code> is. After that copy the file '''sign2speech-webrtc-1.0-SNAPSHOT.zip''' on the distant machine and extract. In order to finish the running process, run with: <code>./chameleon.sh start</code> or <code>./chameleon.bat start</code> if you are on Windows. The server will start on the port 9000, but by changing <code>http.port</code> in the conf/application.conf you can run it on the port you want (80 for example). To stop the server only run <code>./chameleon.sh stop</code> or <code>./chameleon.bat stop</code> if you are on Windows.<br />
<br />
For more informations about Wisdom Framework and how it works, please refer to its documentation: [http://wisdom-framework.org/ '''Wisdom Framework''']</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2Speech_RICM4_2015-2016_User_Manual&diff=28968Sign2Speech RICM4 2015-2016 User Manual2016-04-05T22:56:17Z<p>Matthieu.Nogueron: /* Run the chat server */</p>
<hr />
<div>== How to run the project ==<br />
<br />
The project is splitted into two parts:<br />
* the gesture recognition software<br />
* the chat application<br />
<br />
=== Run the gesture recognition software ===<br />
<br />
In order to run this part you only need a Windows computer with the RealSense Camera connected and the chat server running.<br />
<br />
A dictionary in JSON file format has to be present in the same directory as the runnable file (Sign2Speech.exe). Check the github repository and the output.json file to understand the architecture of the dictionary.<br />
<br />
The main thing to know about the software is that you can run it with some parameters detailled with the "-h" parameter. So, if you're running the server on another machine you will have to set the address parameter with the "-a" parameter.<br />
<br />
The websocket and the gesture recognition will only work if the software can connect to a room in the chat server. By default this room is named "test".<br />
<br />
Once the software is running, you can sign and test the application, and check messages in the chat.<br />
<br />
<br />
If you try to use the project in Visual Studio, you will probably have to add the props file for RealSense SDK. The props file is under the props folder and should be added to all the project in the Properties Manager.<br />
<br />
=== Run the chat server ===<br />
<br />
For this part you will need to have Maven 2 installed on your computer. It can be done both on Windows and Linux.<br />
<br />
The server uses a framework called Wisdom Framework. This technology embeds some very useful features that can help you in your development.<br />
<br />
There are two ways to run the server:<br />
* if you are programming on the server, run it with the command: <code>mvn clean wisdom:run -dskipTests</code> in the directory where <code>pom.xml</code> is(-dskipTests is optionnal and only reduce the time of execution by passing tests, if you're running tests in your app remember to remove this parameter)<br />
* if you want to deploy on a distant machine, run: <code>mvn clean install</code> on your computer in the directory where <code>pom.xml</code> is. After that copy the file '''sign2speech-webrtc-1.0-SNAPSHOT.zip''' on the distant machine and extract. In order to finish the running process, run with: <code>./chameleon.sh</code> or <code>./chameleon.bat</code> if you are on Windows. The server will start on the port 9000, but by changing <code>http.port</code> in the conf/application.conf you can run it on the port you want (80 for example).<br />
<br />
For more informations about Wisdom Framework and how it works, please refer to its documentation: [http://wisdom-framework.org/ '''Wisdom Framework''']</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2Speech_RICM4_2015-2016_User_Manual&diff=28967Sign2Speech RICM4 2015-2016 User Manual2016-04-05T22:55:36Z<p>Matthieu.Nogueron: /* Run the gesture recognition software */</p>
<hr />
<div>== How to run the project ==<br />
<br />
The project is splitted into two parts:<br />
* the gesture recognition software<br />
* the chat application<br />
<br />
=== Run the gesture recognition software ===<br />
<br />
In order to run this part you only need a Windows computer with the RealSense Camera connected and the chat server running.<br />
<br />
A dictionary in JSON file format has to be present in the same directory as the runnable file (Sign2Speech.exe). Check the github repository and the output.json file to understand the architecture of the dictionary.<br />
<br />
The main thing to know about the software is that you can run it with some parameters detailled with the "-h" parameter. So, if you're running the server on another machine you will have to set the address parameter with the "-a" parameter.<br />
<br />
The websocket and the gesture recognition will only work if the software can connect to a room in the chat server. By default this room is named "test".<br />
<br />
Once the software is running, you can sign and test the application, and check messages in the chat.<br />
<br />
<br />
If you try to use the project in Visual Studio, you will probably have to add the props file for RealSense SDK. The props file is under the props folder and should be added to all the project in the Properties Manager.<br />
<br />
=== Run the chat server ===<br />
<br />
For this part you will need to have Maven 2 installed on your computer. It can be done both on Windows and Linux.<br />
<br />
The server uses a framework called Wisdom Framework. This technology embeds some very usefull features that can help you in your development.<br />
<br />
Their are two way to run the server:<br />
* if you are programming on the server, run it with the command: <code>mvn clean wisdom:run -dskipTests</code> in the directory where <code>pom.xml</code> is(-dskipTests is optionnal and only reduce the time of execution by passing tests, if you're running tests in your app remember to remove this parameter)<br />
* if you want to deploy on a distant machine, run: <code>mvn clean install</code> on your computer in the directory where <code>pom.xml</code> is. After that copy the file '''sign2speech-webrtc-1.0-SNAPSHOT.zip''' on the distant machine and extract. In order to finish the running process, run with: <code>./chameleon.sh</code> or <code>./chameleon.bat</code> if you are on Windows. The server will start on the port 9000, but by changing <code>http.port</code> in the conf/application.conf you can run it on the port you want (80 for example).<br />
<br />
For more informations about Wisdom Framework and how it works, please refer to its documentation: [http://wisdom-framework.org/ '''Wisdom Framework''']</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2Speech_RICM4_2015-2016_User_Manual&diff=28966Sign2Speech RICM4 2015-2016 User Manual2016-04-05T22:54:34Z<p>Matthieu.Nogueron: /* Run the gesture recognition software */</p>
<hr />
<div>== How to run the project ==<br />
<br />
The project is splitted into two parts:<br />
* the gesture recognition software<br />
* the chat application<br />
<br />
=== Run the gesture recognition software ===<br />
<br />
In order to run this part you only need a Windows computer with the RealSense Camera connected and the chat server running.<br />
<br />
A dictionary in JSON file format has to be present in the same directory as the runnable file (Sign2Speech.exe). Check the github repository and the output.json file to understand the architecture of the dictionary.<br />
<br />
The main thing to know about the software is that you can run it with some parameters detailled with the "-h" parameter. So, if you're running the server on another machine you will have to set the address parameter with the "-a" parameter.<br />
<br />
The websocket and the gesture recognition will only work if the software can connect to a room in the chat server. By default this room is named "test".<br />
<br />
Once the software is running, you can sign and test the application, and check messages in the chat.<br />
<br />
<br />
If you try to use the project in Visual Studio, you will probably have to add the props file for RealSense SDK. The props file is under the props foler and should be add to all the project in the Properties Manager.<br />
<br />
=== Run the chat server ===<br />
<br />
For this part you will need to have Maven 2 installed on your computer. It can be done both on Windows and Linux.<br />
<br />
The server uses a framework called Wisdom Framework. This technology embeds some very usefull features that can help you in your development.<br />
<br />
Their are two way to run the server:<br />
* if you are programming on the server, run it with the command: <code>mvn clean wisdom:run -dskipTests</code> in the directory where <code>pom.xml</code> is(-dskipTests is optionnal and only reduce the time of execution by passing tests, if you're running tests in your app remember to remove this parameter)<br />
* if you want to deploy on a distant machine, run: <code>mvn clean install</code> on your computer in the directory where <code>pom.xml</code> is. After that copy the file '''sign2speech-webrtc-1.0-SNAPSHOT.zip''' on the distant machine and extract. In order to finish the running process, run with: <code>./chameleon.sh</code> or <code>./chameleon.bat</code> if you are on Windows. The server will start on the port 9000, but by changing <code>http.port</code> in the conf/application.conf you can run it on the port you want (80 for example).<br />
<br />
For more informations about Wisdom Framework and how it works, please refer to its documentation: [http://wisdom-framework.org/ '''Wisdom Framework''']</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2Speech_RICM4_2015-2016_User_Manual&diff=28965Sign2Speech RICM4 2015-2016 User Manual2016-04-05T22:53:42Z<p>Matthieu.Nogueron: /* Run the gesture recognition software */</p>
<hr />
<div>== How to run the project ==<br />
<br />
The project is splitted into two parts:<br />
* the gesture recognition software<br />
* the chat application<br />
<br />
=== Run the gesture recognition software ===<br />
<br />
In order to run this part you only need a Windows computer with the RealSense Camera connected and the chat server running.<br />
<br />
A dictionary in JSON file format has to be present in the same directory as the runnable file (Sign2Speech.exe). Check the github repository and the output.json file to understand the architecure of the dictionnary.<br />
<br />
The main thing to know about the software is that you can run it with some parameters detailled with the "-h" parameter. So, if you're running the server on another machine you will have to set the address parameter with the "-a" parameter.<br />
<br />
The websocket and the gesture recognition will only work if the software can connect to a room in the chat server. By default this room is named "test".<br />
<br />
Once the software is running, you can sign and test the application, and check messages in the chat.<br />
<br />
<br />
If you try to use the project in Visual Studio, you will probably have to add the props file for RealSense SDK. The props file is under the props foler and should be add to all the project in the Properties Manager.<br />
<br />
=== Run the chat server ===<br />
<br />
For this part you will need to have Maven 2 installed on your computer. It can be done both on Windows and Linux.<br />
<br />
The server uses a framework called Wisdom Framework. This technology embeds some very usefull features that can help you in your development.<br />
<br />
Their are two way to run the server:<br />
* if you are programming on the server, run it with the command: <code>mvn clean wisdom:run -dskipTests</code> in the directory where <code>pom.xml</code> is(-dskipTests is optionnal and only reduce the time of execution by passing tests, if you're running tests in your app remember to remove this parameter)<br />
* if you want to deploy on a distant machine, run: <code>mvn clean install</code> on your computer in the directory where <code>pom.xml</code> is. After that copy the file '''sign2speech-webrtc-1.0-SNAPSHOT.zip''' on the distant machine and extract. In order to finish the running process, run with: <code>./chameleon.sh</code> or <code>./chameleon.bat</code> if you are on Windows. The server will start on the port 9000, but by changing <code>http.port</code> in the conf/application.conf you can run it on the port you want (80 for example).<br />
<br />
For more informations about Wisdom Framework and how it works, please refer to its documentation: [http://wisdom-framework.org/ '''Wisdom Framework''']</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2Speech_RICM4_2015-2016_User_Manual&diff=28964Sign2Speech RICM4 2015-2016 User Manual2016-04-05T22:49:20Z<p>Matthieu.Nogueron: /* Run the gesture recognition software */</p>
<hr />
<div>== How to run the project ==<br />
<br />
The project is splitted into two parts:<br />
* the gesture recognition software<br />
* the chat application<br />
<br />
=== Run the gesture recognition software ===<br />
<br />
In order to run this part you only need a Windows computer with the RealSense Camera connected and the chat server running.<br />
<br />
A dictionary in JSON file format has to be present in the same directory as the runnable file (Sign2Speech.exe). Check the github repository and the output.json file to understand the architecure of the dictionnary.<br />
<br />
The main thing to know about the software is that you can run it with some parameters detailled with the "-h" parameter. So, if you're running the server on another machine you will have to set the address parameter with the "-a" parameter.<br />
<br />
The websocket and the gesture recognition will only work if the software can connect to a room in the chat server. By default this room is named "test".<br />
<br />
Once the software is running, you can sign and test the application, and check messages in the chat.<br />
<br />
=== Run the chat server ===<br />
<br />
For this part you will need to have Maven 2 installed on your computer. It can be done both on Windows and Linux.<br />
<br />
The server uses a framework called Wisdom Framework. This technology embeds some very usefull features that can help you in your development.<br />
<br />
Their are two way to run the server:<br />
* if you are programming on the server, run it with the command: <code>mvn clean wisdom:run -dskipTests</code> in the directory where <code>pom.xml</code> is(-dskipTests is optionnal and only reduce the time of execution by passing tests, if you're running tests in your app remember to remove this parameter)<br />
* if you want to deploy on a distant machine, run: <code>mvn clean install</code> on your computer in the directory where <code>pom.xml</code> is. After that copy the file '''sign2speech-webrtc-1.0-SNAPSHOT.zip''' on the distant machine and extract. In order to finish the running process, run with: <code>./chameleon.sh</code> or <code>./chameleon.bat</code> if you are on Windows. The server will start on the port 9000, but by changing <code>http.port</code> in the conf/application.conf you can run it on the port you want (80 for example).<br />
<br />
For more informations about Wisdom Framework and how it works, please refer to its documentation: [http://wisdom-framework.org/ '''Wisdom Framework''']</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2Speech_RICM4_2015-2016_User_Manual&diff=28955Sign2Speech RICM4 2015-2016 User Manual2016-04-05T22:30:28Z<p>Matthieu.Nogueron: /* Run the gesture recognition software */</p>
<hr />
<div>== How to run the project ==<br />
<br />
The project is splitted into two parts:<br />
* the gesture recognition software<br />
* the chat application<br />
<br />
=== Run the gesture recognition software ===<br />
<br />
In order to run this part you only need a Windows computer with the RealSense Camera connected and the chat server running.<br />
<br />
A dictionary in JSON file format has to be present in the same directory as the runnable file (Sign2Speech.exe). Check the github repository and the output.json file to understand the architecure of the dictionnary.<br />
<br />
The main thing to know about the software is that you can run it with some parameters detailled with the "-h" parameter. So, if you're running the server on another machine you will have to set the address parameter with the "-a" parameter.<br />
<br />
The websocket and the gesture recognition will only work if the software can connect to a room in the chat server. By default this room is named "test".</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2Speech_RICM4_2015-2016_User_Manual&diff=28953Sign2Speech RICM4 2015-2016 User Manual2016-04-05T22:29:29Z<p>Matthieu.Nogueron: Created page with "== How to run the project == The project is splitted into two parts: * the gesture recognition software * the chat application === Run the gesture recognition software === ..."</p>
<hr />
<div>== How to run the project ==<br />
<br />
The project is splitted into two parts:<br />
* the gesture recognition software<br />
* the chat application<br />
<br />
=== Run the gesture recognition software ===<br />
<br />
In order to run this part you only need a Windows computer with the RealSense Camera connected and the chat server running.<br />
A dictionary in JSON file format has to be present in the same directory as the runnable file (Sign2Speech.exe). Check the github repository and the output.json file to understand the architecure of the dictionnary.<br />
The main thing to know about the software is that you can run it with some parameters detailled with the "-h" parameter.<br />
So, if you're running the server on another machine you will have to set the address parameter with the "-a" parameter.<br />
The websocket and the gesture recognition will only work if the software can connect to a room in the chat server. By default this room is named "test".</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Projets_2015-2016&diff=28948Projets 2015-20162016-04-05T22:08:03Z<p>Matthieu.Nogueron: /* Projet Semestre S8 */</p>
<hr />
<div><<[[Projets 2014-2015]] | [[Projets]] | [[Projets 2016-2017]]>><br />
=RICM=<br />
==RICM3==<br />
<br />
==RICM4==<br />
===Projet Semestre S8===<br />
<br />
Enseignants responsables : Olivier Richard, Didier Donsez<br />
<br />
<br />
* '''Evaluation à mi-parcours le lundi 7 mars''': Format: 10min (5min de présentation 3 slides au plus, 5min de discussion). Cette évaluation sera prise en compte dans la note finale.<br />
<br />
'''Consignes générales:'''<br />
<br />
* '''Vous devez être pro-actifs !!!''': Si des points sont pas ou mals spécifiés, vous le faîtes et vous justifiez vos choix. Pour les problèmes techniques éventuels vous pouvez: vous creusez la question, vous contactez l'auteur du code si il y a lieux, vous faites un rapport de bug ('''Attention:''' ca se prépare !), vous soumettez un patch, vous contactez l'enseignant ou la personne suivant le projet.<br />
<br />
* '''Vous devez maintenir une fiche de suivi de projet''': elle doit être mise à jour chaque semaine, elle rassemble les élements essentiels du projet, elle <br />
indique les évolutions du projet et présente sa feuille de route. '''Note:''' le nom de la fiche doit être composé du nom du projet et suffixé par ricm4_2015_2016.<br />
<br />
* '''Vous devez utiliser un logiciel de gestion de version''' pour vos développements comme [http://en.wikipedia.org/wiki/Git_%28software%29 git ] et nous vous conseillons d'utiliser le site [https://github.com github] pour l'hébergement de votre dépôt public.<br />
<br />
* Les document public (exemple sur github) doivent être rédigés en anglais (README, documentation, commentaires de code, nom de variables et de fonctions). Une bonnification sera accordée si le rapport et les transparents sont en anglais (la soutenance sera en francais).<br />
<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM4 2015-2016<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Dépot git<br />
|-<br />
<br />
!scope="row"| 1<br />
| [[Dashboard pour gestionnaire de tâches et de ressources]]<br />
| CROUZET, MATHIEU<br />
| Richard<br />
| [[Projets-2015-2016-DashBoard| '''Fiche''']]<br />
| [https://github.com/MatthieuCrouzet/Projet4A '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet1.pdf|Flyer]] - [[Media:gl_groupe1.pdf|Rapport Consultant]] - [[Media:Paterns.pdf|Patterns]] - [[Media:PresentationDashboard.pdf|Presentation]]<br />
|-<br />
<br />
!scope="row"| 2<br />
| [[Speeding Simplified Script Language]]<br />
| POPEK, BERTRAND-DALECHAMPS, WEI<br />
| Richard<br />
| [[Projets-2015-2016-SSSL| '''Fiche''']] - [[SSSL-UML| '''UML''']]<br />
| [https://github.com/FlorianPO/Speeding-Simplified-Script-Language.git '''github''']<br />
| [[Media:RapportProjet2.pdf|Rapport]] - [[Media:Groupe2_AIR.pdf|Rapport Consultant]] - [[Media:PresentationIntermediaireProjet2.pdf|Presentation_Intermediaire]] - [[Media:PresentationFinalProjet2.pdf|Presentation_final]] - [[Media:FlyerSSSL_projet2.pdf|flyer]]<br />
|-<br />
<br />
!scope="row"| 3<br />
| [[Borne interactive]] <br />
| DUNAND - NAVARRO - REVEL<br />
| Maisonnasse<br />
| [[Projets-2015-2016-Borne-Interactive| '''Fiche''']] - [[Projets-2015-2016-Borne-Interactive-SRS | '''SRS''']] - [[Projets-2015-2016-Borne-Interactive/UML_Diagrams | '''UML''']]<br />
| [https://github.com/Kant73/InteractiveDisplay '''github''']<br />
| [[Media:RapportProjet3.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet2.pdf|Flyer]] - [[Media:IPopo.pdf|Rapport Consultant]] - [[Media:PatternDesign.pdf | '''Design Pattern''']] - [[Media:PresentationInteractiveDisplay.pdf|Présentation Intermédiaire]] <br />
|-<br />
<br />
!scope="row"| 4<br />
| [[Sonotone]]<br />
| LECORPS, VOUTAT, Hattinguais <br />
| Maisonnasse, Richard<br />
| [[Projets-2015-2016-Sonotone| '''Fiche''']] - [[Projets-2015-2016-Sonotone-SRS | '''SRS''']] - [[Projets-2015-2016-Sonotone-UML | '''UML''']]<br />
| [https://github.com/Gorgorot38/Sonotone-RICM4 '''github''']<br />
| [[Media:RapportProjetf.pdf|Rapport]] - [[Media:SlidesSonotone.pdf|Transparents]] - [[Media:FlyerProjet3.pdf|Flyer]] - [[Media:SRS_Consultant_Sonotone_4.pdf|Rapport_Consultant]] - [[Media:pattern_sonotone.pdf|Pattern]] - [[Media:Soutenance.pdf|Soutenance_miparcours]]<br />
|-<br />
<br />
!scope="row"| 5<br />
| [[Sous-titre_en_temps_r%C3%A9el_d%27un_cours| Sous-titre d'un cours en temps réel]]<br />
| LECHEVALLIER, BUI, OUNISSI <br />
| Maisonnasse<br />
| [[LiveSubtitles| '''Fiche''']]<br />
| [https://github.com/Lechevallier/RealTimeSubtitles '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet4.pdf|Flyer]] - [[Media: SRS_Groupe_5.pdf| Rapport Consultant]]<br />
|-<br />
<br />
!scope="row"| 6<br />
| [[GrenobloisFuté]]<br />
| MOURET, DELAPORTE, LUCIDARME<br />
| Nicolas Palix<br />
| [[GrenobleFuté| '''Fiche''']] - [[SRS - GrenobloisFuté | '''SRS''']] <br />
| [https://github.com/Lucidarme/Osmand.git '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:midPresentation.pdf|Mid Presentation]] - [[Media:Flyer GrenobloisFute(3).pdf|Flyer]] - [[Media:gl_G14.pdf|Rapport Consultant]] - [[Media:Présentation GrenobloisFuté.pdf|Transparents]]<br />
|-<br />
<br />
!scope="row"| 7<br />
| [[Streaming en stéréoscopie]]<br />
| ZHAO ZILONG, HAMMOUTI<br />
| Maisonnasse<br />
| [[Projets-2015-2016-Streaming-Stereoscopie| '''Fiche''']] - [[SRS - Streaming en stéréoscopie | '''SRS''']] - [[Projets-2015-2016-streaming_stereo-UML | '''UML''']]<br />
| [https://github.com/zhao-zilong/streaming_stereo '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet6.pdf|Flyer]] - [[Media:bruel_medewou_ndiaye.pdf|Rapport_consultant]] - [[Media:streaming.pdf|mi-parcours]]<br />
|-<br />
<br />
!scope="row"| 8<br />
| [[PersyCup2016]]<br />
| BIN, ZEGAOUI, ELLAPIN <br />
| Donsez, Maisonnasse<br />
| [[PersyCup| '''Fiche''']]<br />
| [https://github.com/legominstorm/lego '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet7.pdf|Flyer]] - [[Media:SoutenanceMiParcours-Persycup2016.pdf|Soutenance Mi-parcours]]<br />
|-<br />
<br />
!scope="row"| 9<br />
| [[Services étendus pour le modèle de composants iPOPO pour Python]]<br />
| FOUNAS, HALLAL, GATTAZ <br />
| Calmant & Donsez<br />
| [[Proj-2015-2016-Extensions_IPOPO | '''Fiche''']] - [[Proj-2015-2016-Extensions_IPOPO/SRS | '''SRS''']] - [[Proj-2015-2016-Extensions_IPOPO/UML | '''UML''']] <br />
| [https://github.com/abdelazizFounas/ipopo/tree/tlsremote '''github IPOPO'''] <br /> [https://github.com/gattazr/IPOPO-Remote-Client '''github IPOPO Client''']<br />
| [[Media:9_RapportProjet9.pdf|Rapport]] - [[Media:9_TransparentsProojet.pdf|Transparents]] - [[Media:9_FlyerProjet8.pdf|Flyer]] - [[Media:3-SRS-Pres.pdf| Rapport Consultant]] - [[Media:9_PatternStrat.pdf|Pattern Design]] - [[Media:9_Mid-Presentation.pdf|Mid Presentation]] - [[Media:9_Gantt.pdf|Gantt]]<br />
|-<br />
<br />
!scope="row"| 10<br />
| [[IndoorGeoloc2016]]<br />
| ARRADA - CRASTES - FAURE - STOIAN <br />
| Donsez<br />
| [[Proj-2015-2016-IndoorGeoloc/Fiche| '''Fiche''']] - [[Proj-2015-2016-IndoorGeoloc/SRS|SRS]]<br />
| [https://github.com/QuentinFA/Geoloc_Indoor '''github''']<br />
| [[Media:Proj-2015-2016-IndoorGeoloc/RapportProjet.pdf|Rapport]] - [[Media:Proj-2015-2016-IndoorGeoloc/TransparentsProjet.pdf|Transparents]] - [[Media:Proj-2015-2016-IndoorGeoloc/FlyerProjet9.pdf|Flyer]] - [[Media: SRSGroupe17.pdf| Rapport Consultant]] - [[Media:Mi_parcours.pdf|Mid presentation]]<br />
|-<br />
<br />
!scope="row"| 11<br />
| [[UPnPOpenHAB2016]]<br />
| Medewou , Ndiaye Yacine , Bruel Anna <br />
| Didier Donsez<br />
| [[Proj-Openhab-2016| '''Fiche''']] - [[Proj-2015-2016-Int%C3%A9gration_de_cam%C3%A9ra_de_surveillance_UPnP_%C3%A0_Openhab/SRS| '''SRS''']] - [[Proj-Openhab/UML| '''UML''']]<br />
| [https://github.com/openHab-UPnP '''github''']<br />
| [[Media:RapportProjet111.pdf|Rapport]] - [[Media:FlyerProjetAnglais111.pdf|EnglishFlyer]] - [[Media:FlyerProjet10.pdf|FrenchFlyer]] - [[Media:soutenace111.pdf|Soutenance]] - [[Media:TransparentsProojet111.pdf|Rapport Analyste]] - [[Media:gl_ZHAO_HAMMOUTI.pdf|Rapport Consultant]] - [[Media:pattern_ZHAO_HAMMOUTI.pdf|Patterns]] - [[Media:fichier111.pdf|Mini soutenance]]<br />
|-<br />
<br />
!scope="row"| 12<br />
| [[Sign2Speech]]<br />
| NIOGRET, NOGUERON, TITH<br />
| Didier Donsez<br />
| [[sign2speech_ricm4_2015_2016| '''Fiche''']] - [[SRS - Sign2Speech | '''SRS''']] - [[UML | '''UML''']]<br />
| [https://github.com/SignToSpeech-Project '''github''']<br />
| [[Media:RapportProjet12_Sign2Speech_2015_2016.pdf|Rapport]] - [[Media:TransparentsProjet12_Sign2Speech_2015_2016.pdf|Transparents]] - [[Media:FlyerProjet11_Sign2Speech_2015-2016.pdf|Flyer]] - [[Media:12-Sign2Speech-RapportConsultant.pdf|Rapport Consultant]] - [[Media:12-Sign2Speech-MidPres.pdf|Mid presentation]] [[Sign2Speech_RICM4_2015-2016_User_Manual| '''User Manual''']]<br />
|-<br />
<br />
!scope="row"| 13<br />
| [[AstroImage]] <br />
| RACHEX, BLANC, GERRY<br />
| Olivier Richard et Bruno Bzeznik<br />
| [[Proj-2015-2016-Astroimage/Fiche| '''Fiche''']] - [[AstroImage/SRS | '''SRS''']] - [[Media:AstroImage-UML.pdf | '''UML''']]<br />
| [https://github.com/nicolas-blanc/AstroImage '''github''']<br />
| [[Media:RapportProjet13.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet12.pdf|Flyer]] - [[Media:13-AstroImage-RapportConsultant.pdf|Rapport Consultant]] - [https://docs.google.com/presentation/d/15F8DRktwmOuSNabdxMASniyr-TIiRzGNNG1mOhcoSnk/edit?usp=sharing '''Patterns''']<br />
|-<br />
<br />
!scope="row"| 14<br />
| [[Tachymètre]]<br />
| MACE, NOUGUIER, RAMEL<br />
| Olivier Gattaz<br />
| [[Fiche - Tachymètre | '''Fiche''']] - [[SRS - Tachymètre| '''SRS''']] - [[UML - Tachymètre| '''UML''']]<br />
| [https://github.com/Quego/Tachymetre '''github - Tachymètre''']<br />
| [[Media:Projet_Tachym%C3%A8tre_-_MACE_NOUGUIER_RAMEL.pdf|Rapport]] - [[Media:Pr%C3%A9sentation_projet_Tachym%C3%A8tre_-_MACE_NOUGUIER_RAMEL.pdf|Transparents]] - [[Media:D%C3%A9pliant_Tachym%C3%A8tre_-_MAC%C3%89_NOUGUIER_RAMEL.pdf|Flyer]] - [[Media:srs_tachymetre.pdf|Rapport consultant]] - [[Media:14_PatternDesign.pdf | Pattern Design]] - [[Media:Tachymetre_Presentation.pdf | Présentation de milieu de projet]]<br />
|-<br />
<br />
!scope="row"| 15<br />
| [[SmartProjector]]<br />
| BRANGER, HABLOT<br />
| Donsez, Maisonnasse<br />
| [[Fiche_SmartProjector_ricm4_2015_2016| '''Fiche''']] - [[SRS - SmartProjector| '''SRS''']] - [[UML - SmartProjector| '''UML''']]<br />
| [https://github.com/P0ppoff/SmartProjector '''github''']<br />
| [[Media:Expose final.pdf|Rapport]] - [[Media:PresentationPorjet.pdf|Transparents Présentation]] - [[Media:Flyer_SmartProjector.pdf|Flyer]] - [[Media:Gl_groupe16.pdf|Rapport Consultant]] - [http://air.imag.fr/index.php/Patron_de_conception_-_SmartProjector Patterns] - [[Media:Soutenance_SP.pdf|Soutenance finale]]<br />
|-<br />
<br />
|}<br />
<br />
===Liste de projets===<br />
<br />
* [[Dashboard pour gestionnaire de tâches et de ressources]], Olivier Richard<br />
* [[Moteur distribué d'exécution de commande]], Olivier Richard<br />
* [[Environnement d'expérimentation de pour NVIDIA Shield (Tegra X1)]], Olivier Richard <br />
* [[Speeding Simplified Script Language]], Olivier Richard<br />
<br />
* Aide (Open-Source)au Handicap Auditif, avec Didier Donsez, Jérome Maisonnasse, Marie-Paule Balicco (SAH UGA) et Nicolas Vuillerme<br />
** [[Borne interactive]] (1 sujet)<br />
** [[Sonotone]] (1 sujet)<br />
** [[Sous-titre en temps réel d'un cours]] (1 sujet)<br />
* [[GrenobloisFuté]] Couche trafic sur OsmAnd avec un greffon. Données dynamique de la métro. Dvp Android. Nicolas Palix.<br />
* [[GeoDiff]] Production, visualisation, fusion de variations (diff) sur de l'information géocodée : Nicolas Palix<br />
* [[Smart campus augmenté et contributif]] Didier Donsez, Vivien Quema<br />
<br />
* [[Streaming en stéréoscopie]] sur [[WebRTC]] avec rendu sur [[Oculus]] pour le robot [[RobAIR]], Jérôme Maisonnasse. ([http://gstconf.ubicast.tv/videos/stereoscopic-3d-video/ voir]).<br />
* [[STM32F7]] : Mise en oeuvre de la chaîne de compilation sous Linux avec [[OpenSTM32]] et [[OpenOCD]]. Nicolas Palix<br />
* [[PersyCup2016]] : Persyval Robocup, Didier Donsez, Vivien Quema, Jérome Maisonnasse. (3 étudiants)<br />
* [[Services étendus pour le modèle de composants iPOPO pour Python]], Didier Donsez & Thomas Calmant. (2 étudiants)<br />
* [[SmartClassRoom2016|Développement d'une interface partagée pour tables tactiles (projet SmartClassRoom)]], Didier Donsez, Jérôme Maisonnasse. (2 étudiants)<br />
* [[iRock2016|iRock : surveillance de glissement de terrains]], Didier Donsez & Vivien Quema<br />
* [[IndoorGeoloc2016|Géolocalisation in-door au moyen de balises (beacon) BLE et Wifi à base de STM32 et de balises iBeacon & AltBeacon]], Didier Donsez & Vivien Quema<br />
* [[UPnPOpenHAB2016|Intégration et gestion de caméras de surveillance UPnP dans la plateforme domotique open-source OpenHAB et myOpenHAB]], Didier Donsez & Jérome Maisonnasse.<br />
<br />
'''Projets non prioritaires'''<br />
<br />
* [[Liveprogramming with Kivy]], Olivier Richard<br />
* [[AstroImage]] production d'image d'astronomie, Olivier Richard et Bruno Bzeznik<br />
* [[G-code Cruncher]] Controle de machine CNC (Nucleo grbl + esp8266 + Sdcard), Olivier Richard<br />
* [[Intégration OpenHAB / OpenTele]] Nicolas Palix<br />
<br />
==RICM5==<br />
<br />
===Projet Semestre S10===<br />
<br />
Enseignant responsable : Didier Donsez<br />
<br />
Démarrage : Lundi 25/01 à 10H30-12H30, P253 (Rendez-vous devant la salle AIR) - Visioconf pour Thibaut Cordier<br />
<br />
Soutenance : Jeudi 17/03 à 13H00-17H00, salle P043 (Polytech Grenoble)puis en salle C005 (Batiment C) <br />
<br />
Etudiants : RICM5 + 8 étudiants Avosti DUT RT<br />
<br />
Rappel séances MPI<br />
* Séance 1 : mardi 26 janvier après midi - Stéphanie Diligent<br />
* Séance 2 : mardi 2 février après midi - Stéphanie Diligent<br />
* Séance 3 : lundi 8 février matin - Emmanuelle Tréhoust<br />
* Séance 4 : jeudi 11 février matin - Emmanuelle Tréhoust<br />
* Séance 5 : lundi 21 mars matin - Stéphanie Diligent et Emmanuelle Tréhoust<br />
<br />
=====Soutenances=====<br />
Planning:<br />
* Bossa (13H00-13H40 en salle P043)<br />
* Immersion EDF (13H45-14H25 en salle P043)<br />
* IaaS Docker (14H30-15H10 en salle P043)<br />
* SmartCampus (15H15-15H55 en salle P043 et salle P259 AIR)<br />
* SmartClassRoom (16H15-16H55 en C005)<br />
* Pot d' "Au Revoir" (17H00-1800 en C005)<br />
<br />
Instructions:<br />
*Chaque soutenance comporte 15 minutes de présentation, 15 minutes de démonstration et 10 minutes de questions. Un transparent doit être consacré au travail confié et réalisé par les étudiants en DUT (AVOSTI).<br />
* Répétez plusieurs fois votre présentation et votre démonstration.<br />
* L'ensemble des documents (y compris photos, vidéos et ''[[Logiciels#Screencast|screencast]]s'') doivent être accessibles depuis le tableau ci-dessous et dans chaque fiche de suivi. Prévoyez une copie sur clé USB.<br />
* Les étudiants vous accompagnent lors de votre soutenance.<br />
* '''TOUT Le matériel prêté devra être rapporté et restitué dans un sac cabas lors de la soutenance.'''<br />
<br />
=====Projets=====<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM5 2015-2016<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Dépot git<br />
!scope="col"| Documents<br />
|-<br />
<br />
!scope="row"| 1<br />
| [http://air.imag.fr/index.php/IaaS_collaboratif_avec_Docker IaaS - Docker]<br />
| Eudes Robin, Damotte Alan, Barthelemy Romain, Mammar Malek, Guo Kai<br />
| Didier Donsez<br />
| [[Projets-2015-2016-IaaS_Docker| '''Fiche''']] - [[Projets-2015-2016-IaaS_Docker-SRS| '''SRS''']]<br />
| [https://github.com/EudesRobin/iaas-collaboratif '''github''']<br />
| [[Media:RapportMPI_Iaas.pdf|Rapport MPI]] - [[Media:Transparents_IaaS.pdf|Transparents]] - [[Media:Flyer_IaaS.pdf|Flyer]] - [https://youtu.be/qtqgZNrgcRc '''Screencast''']<br />
|-<br />
!scope="row"| 2<br />
| [http://air.imag.fr/index.php/Portage_de_Bossa Portage de Bossa sur le Kernel Linux 4x]<br />
| Eric Michel Fotsing, Ombeline Rossi, Longfei Yao<br />
| Nicolas Palix, Didier Donsez<br />
| [[Projets-2015-2016-Portage_Bossa| '''Fiche''']] - [[Projets-2015-2016-Portage_Bossa-SRS| '''SRS''']]<br />
| Private repository<br />
| [[Media:Rapport_Bossa.pdf|Rapport]] - [[Media:Transparents_Bossa.pdf|Transparents]] - [[Media:Flyer_Bossa.pdf|Flyer]] - Photos - Vidéos <br />
|-<br />
<br />
!scope="row"| 3<br />
| [[Visite immersive en réalité virtuelle dans une usine avec EDF]]<br />
| Adam Christophe, Aissanou Sarah, Klipffel Tararaina, Qian Jean, Zominy Laurent<br />
| Didier Donsez, Georges-Pierre Bonneau, Thibaut Cordier (EDF)<br />
| [[Projets-2015-2016-VisiteImmersiveEDF| '''Fiche''']]<br />
| [https://github.com/VisiteImmersiveEDF '''github''']<br />
| [[Media:RapportProjetX.pdf|Rapport]] - [[Media:TransparentsProojetX.pdf|Transparents]] - [[Media:FlyerProjetX.pdf|Flyer]] - Photos - Vidéos<br />
|-<br />
<br />
!scope="row"| 4<br />
| [[Contribution à OpenSmartCampus]] (voir http://data.beta.metropolegrenoble.fr/)<br />
| Quentin Torck, Vivien Michel, Jérémy Hammerer, Rama Codazzi, Zhengmeng Zhang<br />
| Didier Donsez, Vivien Quéma<br />
| [[Projets-2015-2016-OpenSmartCampus| '''Fiche''']]<br />
| [https://github.com/quentin74/SmartCampus.git '''github''']<br />
| [[Media:RapportProjetOpenSmartCampus2016.pdf|Rapport]] - [[Media:TransparentsProojetOpenSmartCampus2016.pdf|Transparents]] - [[Media:FlyerProjetOpenSmartCampus2016.pdf|Flyer]] - Photos - Vidéos<br />
|-<br />
<br />
!scope="row"| 5<br />
| [[Contribution à SmartClassRoom]] (Interfaces tactiles distribuées et partagées)<br />
| Saussac Thibault, Toussaint Sébastien, Hamdani Youcef, Zoppello Sebastien, Melik sak, Mesnier Vincent<br />
| Jérôme Maisonnasse, Didier Donsez<br />
| [[Projets-2015-2016-SmartClassRoom| '''Fiche''']] - [[Projets-2015-2016-SmartClassRoom/SRS| '''SRS''']]<br />
| [https://github.com/vince0508/SmartClassroom-TiledDisplayPart-master_Main '''github''']<br />
| [[Media:RapportProjetSmartClassRoom.pdf|Rapport]] - [[Media:TransparentsProjetSmartClassRoom.pdf|Transparents]] - [[Media:FlyerProjetSmartClassRoom.pdf|Flyer]] - [https://youtu.be/FEwoA4S9rsM '''Screencast/Vidéo''']<br />
|-<br />
<br />
<br />
|}<br />
<br />
===Projets annulés et reportés===<br />
* Projet avec [[Tango Project]] (Annulé)<br />
* Hack the Beam, Didier Donsez & Jérôme Maisonnasse.<br />
* [[Algorithmes de suivi de personnes pour robot de téléprésence RobAIR]] (Jérôme Maisonnasse, Didier Donsez)<br />
<br />
=M2PGI=<br />
==[[Projets M2PGI Services Machine-to-Machine|Projet Services Machine-to-Machine]]==<br />
* [[PM2M/2016/TP|Sujet et groupes]]</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Projets_2015-2016&diff=28946Projets 2015-20162016-04-05T22:03:18Z<p>Matthieu.Nogueron: /* Projet Semestre S8 */</p>
<hr />
<div><<[[Projets 2014-2015]] | [[Projets]] | [[Projets 2016-2017]]>><br />
=RICM=<br />
==RICM3==<br />
<br />
==RICM4==<br />
===Projet Semestre S8===<br />
<br />
Enseignants responsables : Olivier Richard, Didier Donsez<br />
<br />
<br />
* '''Evaluation à mi-parcours le lundi 7 mars''': Format: 10min (5min de présentation 3 slides au plus, 5min de discussion). Cette évaluation sera prise en compte dans la note finale.<br />
<br />
'''Consignes générales:'''<br />
<br />
* '''Vous devez être pro-actifs !!!''': Si des points sont pas ou mals spécifiés, vous le faîtes et vous justifiez vos choix. Pour les problèmes techniques éventuels vous pouvez: vous creusez la question, vous contactez l'auteur du code si il y a lieux, vous faites un rapport de bug ('''Attention:''' ca se prépare !), vous soumettez un patch, vous contactez l'enseignant ou la personne suivant le projet.<br />
<br />
* '''Vous devez maintenir une fiche de suivi de projet''': elle doit être mise à jour chaque semaine, elle rassemble les élements essentiels du projet, elle <br />
indique les évolutions du projet et présente sa feuille de route. '''Note:''' le nom de la fiche doit être composé du nom du projet et suffixé par ricm4_2015_2016.<br />
<br />
* '''Vous devez utiliser un logiciel de gestion de version''' pour vos développements comme [http://en.wikipedia.org/wiki/Git_%28software%29 git ] et nous vous conseillons d'utiliser le site [https://github.com github] pour l'hébergement de votre dépôt public.<br />
<br />
* Les document public (exemple sur github) doivent être rédigés en anglais (README, documentation, commentaires de code, nom de variables et de fonctions). Une bonnification sera accordée si le rapport et les transparents sont en anglais (la soutenance sera en francais).<br />
<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM4 2015-2016<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Dépot git<br />
|-<br />
<br />
!scope="row"| 1<br />
| [[Dashboard pour gestionnaire de tâches et de ressources]]<br />
| CROUZET, MATHIEU<br />
| Richard<br />
| [[Projets-2015-2016-DashBoard| '''Fiche''']]<br />
| [https://github.com/MatthieuCrouzet/Projet4A '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet1.pdf|Flyer]] - [[Media:gl_groupe1.pdf|Rapport Consultant]] - [[Media:Paterns.pdf|Patterns]] - [[Media:PresentationDashboard.pdf|Presentation]]<br />
|-<br />
<br />
!scope="row"| 2<br />
| [[Speeding Simplified Script Language]]<br />
| POPEK, BERTRAND-DALECHAMPS, WEI<br />
| Richard<br />
| [[Projets-2015-2016-SSSL| '''Fiche''']] - [[SSSL-UML| '''UML''']]<br />
| [https://github.com/FlorianPO/Speeding-Simplified-Script-Language.git '''github''']<br />
| [[Media:RapportProjet2.pdf|Rapport]] - [[Media:Groupe2_AIR.pdf|Rapport Consultant]] - [[Media:PresentationIntermediaireProjet2.pdf|Presentation_Intermediaire]] - [[Media:PresentationFinalProjet2.pdf|Presentation_final]] - [[Media:FlyerSSSL_projet2.pdf|flyer]]<br />
|-<br />
<br />
!scope="row"| 3<br />
| [[Borne interactive]] <br />
| DUNAND - NAVARRO - REVEL<br />
| Maisonnasse<br />
| [[Projets-2015-2016-Borne-Interactive| '''Fiche''']] - [[Projets-2015-2016-Borne-Interactive-SRS | '''SRS''']] - [[Projets-2015-2016-Borne-Interactive/UML_Diagrams | '''UML''']]<br />
| [https://github.com/Kant73/InteractiveDisplay '''github''']<br />
| [[Media:RapportProjet3.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet2.pdf|Flyer]] - [[Media:IPopo.pdf|Rapport Consultant]] - [[Media:PatternDesign.pdf | '''Design Pattern''']] - [[Media:PresentationInteractiveDisplay.pdf|Présentation Intermédiaire]] <br />
|-<br />
<br />
!scope="row"| 4<br />
| [[Sonotone]]<br />
| LECORPS, VOUTAT, Hattinguais <br />
| Maisonnasse, Richard<br />
| [[Projets-2015-2016-Sonotone| '''Fiche''']] - [[Projets-2015-2016-Sonotone-SRS | '''SRS''']] - [[Projets-2015-2016-Sonotone-UML | '''UML''']]<br />
| [https://github.com/Gorgorot38/Sonotone-RICM4 '''github''']<br />
| [[Media:RapportProjetf.pdf|Rapport]] - [[Media:SlidesSonotone.pdf|Transparents]] - [[Media:FlyerProjet3.pdf|Flyer]] - [[Media:SRS_Consultant_Sonotone_4.pdf|Rapport_Consultant]] - [[Media:pattern_sonotone.pdf|Pattern]] - [[Media:Soutenance.pdf|Soutenance_miparcours]]<br />
|-<br />
<br />
!scope="row"| 5<br />
| [[Sous-titre_en_temps_r%C3%A9el_d%27un_cours| Sous-titre d'un cours en temps réel]]<br />
| LECHEVALLIER, BUI, OUNISSI <br />
| Maisonnasse<br />
| [[LiveSubtitles| '''Fiche''']]<br />
| [https://github.com/Lechevallier/RealTimeSubtitles '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet4.pdf|Flyer]] - [[Media: SRS_Groupe_5.pdf| Rapport Consultant]]<br />
|-<br />
<br />
!scope="row"| 6<br />
| [[GrenobloisFuté]]<br />
| MOURET, DELAPORTE, LUCIDARME<br />
| Nicolas Palix<br />
| [[GrenobleFuté| '''Fiche''']] - [[SRS - GrenobloisFuté | '''SRS''']] <br />
| [https://github.com/Lucidarme/Osmand.git '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:midPresentation.pdf|Mid Presentation]] - [[Media:Flyer GrenobloisFute(3).pdf|Flyer]] - [[Media:gl_G14.pdf|Rapport Consultant]] - [[Media:Présentation GrenobloisFuté.pdf|Transparents]]<br />
|-<br />
<br />
!scope="row"| 7<br />
| [[Streaming en stéréoscopie]]<br />
| ZHAO ZILONG, HAMMOUTI<br />
| Maisonnasse<br />
| [[Projets-2015-2016-Streaming-Stereoscopie| '''Fiche''']] - [[SRS - Streaming en stéréoscopie | '''SRS''']] - [[Projets-2015-2016-streaming_stereo-UML | '''UML''']]<br />
| [https://github.com/zhao-zilong/streaming_stereo '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet6.pdf|Flyer]] - [[Media:bruel_medewou_ndiaye.pdf|Rapport_consultant]] - [[Media:streaming.pdf|mi-parcours]]<br />
|-<br />
<br />
!scope="row"| 8<br />
| [[PersyCup2016]]<br />
| BIN, ZEGAOUI, ELLAPIN <br />
| Donsez, Maisonnasse<br />
| [[PersyCup| '''Fiche''']]<br />
| [https://github.com/legominstorm/lego '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet7.pdf|Flyer]] - [[Media:SoutenanceMiParcours-Persycup2016.pdf|Soutenance Mi-parcours]]<br />
|-<br />
<br />
!scope="row"| 9<br />
| [[Services étendus pour le modèle de composants iPOPO pour Python]]<br />
| FOUNAS, HALLAL, GATTAZ <br />
| Calmant & Donsez<br />
| [[Proj-2015-2016-Extensions_IPOPO | '''Fiche''']] - [[Proj-2015-2016-Extensions_IPOPO/SRS | '''SRS''']] - [[Proj-2015-2016-Extensions_IPOPO/UML | '''UML''']] <br />
| [https://github.com/abdelazizFounas/ipopo/tree/tlsremote '''github IPOPO'''] <br /> [https://github.com/gattazr/IPOPO-Remote-Client '''github IPOPO Client''']<br />
| [[Media:9_RapportProjet9.pdf|Rapport]] - [[Media:9_TransparentsProojet.pdf|Transparents]] - [[Media:9_FlyerProjet8.pdf|Flyer]] - [[Media:3-SRS-Pres.pdf| Rapport Consultant]] - [[Media:9_PatternStrat.pdf|Pattern Design]] - [[Media:9_Mid-Presentation.pdf|Mid Presentation]] - [[Media:9_Gantt.pdf|Gantt]]<br />
|-<br />
<br />
!scope="row"| 10<br />
| [[IndoorGeoloc2016]]<br />
| ARRADA - CRASTES - FAURE - STOIAN <br />
| Donsez<br />
| [[Proj-2015-2016-IndoorGeoloc/Fiche| '''Fiche''']] - [[Proj-2015-2016-IndoorGeoloc/SRS|SRS]]<br />
| [https://github.com/QuentinFA/Geoloc_Indoor '''github''']<br />
| [[Media:Proj-2015-2016-IndoorGeoloc/RapportProjet.pdf|Rapport]] - [[Media:Proj-2015-2016-IndoorGeoloc/TransparentsProjet.pdf|Transparents]] - [[Media:Proj-2015-2016-IndoorGeoloc/FlyerProjet9.pdf|Flyer]] - [[Media: SRSGroupe17.pdf| Rapport Consultant]] - [[Media:Mi_parcours.pdf|Mid presentation]]<br />
|-<br />
<br />
!scope="row"| 11<br />
| [[UPnPOpenHAB2016]]<br />
| Medewou , Ndiaye Yacine , Bruel Anna <br />
| Didier Donsez<br />
| [[Proj-Openhab-2016| '''Fiche''']] - [[Proj-2015-2016-Int%C3%A9gration_de_cam%C3%A9ra_de_surveillance_UPnP_%C3%A0_Openhab/SRS| '''SRS''']] - [[Proj-Openhab/UML| '''UML''']]<br />
| [https://github.com/openHab-UPnP '''github''']<br />
| [[Media:RapportProjet111.pdf|Rapport]] - [[Media:FlyerProjetAnglais111.pdf|EnglishFlyer]] - [[Media:FlyerProjet10.pdf|FrenchFlyer]] - [[Media:soutenace111.pdf|Soutenance]] - [[Media:TransparentsProojet111.pdf|Rapport Analyste]] - [[Media:gl_ZHAO_HAMMOUTI.pdf|Rapport Consultant]] - [[Media:pattern_ZHAO_HAMMOUTI.pdf|Patterns]] - [[Media:fichier111.pdf|Mini soutenance]]<br />
|-<br />
<br />
!scope="row"| 12<br />
| [[Sign2Speech]]<br />
| NIOGRET, NOGUERON, TITH<br />
| Didier Donsez<br />
| [[sign2speech_ricm4_2015_2016| '''Fiche''']] - [[SRS - Sign2Speech | '''SRS''']] - [[UML | '''UML''']]<br />
| [https://github.com/SignToSpeech-Project '''github''']<br />
| [[Media:RapportProjet12_Sign2Speech_2015_2016.pdf|Rapport]] - [[Media:TransparentsProjet12_Sign2Speech_2015_2016.pdf|Transparents]] - [[Media:FlyerProjet11_Sign2Speech_2015-2016.pdf|Flyer]] - [[Media:12-Sign2Speech-RapportConsultant.pdf|Rapport Consultant]] - [[Media:12-Sign2Speech-MidPres.pdf|Mid presentation]]<br />
|-<br />
<br />
!scope="row"| 13<br />
| [[AstroImage]] <br />
| RACHEX, BLANC, GERRY<br />
| Olivier Richard et Bruno Bzeznik<br />
| [[Proj-2015-2016-Astroimage/Fiche| '''Fiche''']] - [[AstroImage/SRS | '''SRS''']] - [[Media:AstroImage-UML.pdf | '''UML''']]<br />
| [https://github.com/nicolas-blanc/AstroImage '''github''']<br />
| [[Media:RapportProjet13.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet12.pdf|Flyer]] - [[Media:13-AstroImage-RapportConsultant.pdf|Rapport Consultant]] - [https://docs.google.com/presentation/d/15F8DRktwmOuSNabdxMASniyr-TIiRzGNNG1mOhcoSnk/edit?usp=sharing '''Patterns''']<br />
|-<br />
<br />
!scope="row"| 14<br />
| [[Tachymètre]]<br />
| MACE, NOUGUIER, RAMEL<br />
| Olivier Gattaz<br />
| [[Fiche - Tachymètre | '''Fiche''']] - [[SRS - Tachymètre| '''SRS''']] - [[UML - Tachymètre| '''UML''']]<br />
| [https://github.com/Quego/Tachymetre '''github - Tachymètre''']<br />
| [[Media:Projet_Tachym%C3%A8tre_-_MACE_NOUGUIER_RAMEL.pdf|Rapport]] - [[Media:Pr%C3%A9sentation_projet_Tachym%C3%A8tre_-_MACE_NOUGUIER_RAMEL.pdf|Transparents]] - [[Media:D%C3%A9pliant_Tachym%C3%A8tre_-_MAC%C3%89_NOUGUIER_RAMEL.pdf|Flyer]] - [[Media:srs_tachymetre.pdf|Rapport consultant]] - [[Media:14_PatternDesign.pdf | Pattern Design]] - [[Media:Tachymetre_Presentation.pdf | Présentation de milieu de projet]]<br />
|-<br />
<br />
!scope="row"| 15<br />
| [[SmartProjector]]<br />
| BRANGER, HABLOT<br />
| Donsez, Maisonnasse<br />
| [[Fiche_SmartProjector_ricm4_2015_2016| '''Fiche''']] - [[SRS - SmartProjector| '''SRS''']] - [[UML - SmartProjector| '''UML''']]<br />
| [https://github.com/P0ppoff/SmartProjector '''github''']<br />
| [[Media:Expose final.pdf|Rapport]] - [[Media:PresentationPorjet.pdf|Transparents Présentation]] - [[Media:Flyer_SmartProjector.pdf|Flyer]] - [[Media:Gl_groupe16.pdf|Rapport Consultant]] - [http://air.imag.fr/index.php/Patron_de_conception_-_SmartProjector Patterns] - [[Media:Soutenance_SP.pdf|Soutenance finale]]<br />
|-<br />
<br />
|}<br />
<br />
===Liste de projets===<br />
<br />
* [[Dashboard pour gestionnaire de tâches et de ressources]], Olivier Richard<br />
* [[Moteur distribué d'exécution de commande]], Olivier Richard<br />
* [[Environnement d'expérimentation de pour NVIDIA Shield (Tegra X1)]], Olivier Richard <br />
* [[Speeding Simplified Script Language]], Olivier Richard<br />
<br />
* Aide (Open-Source)au Handicap Auditif, avec Didier Donsez, Jérome Maisonnasse, Marie-Paule Balicco (SAH UGA) et Nicolas Vuillerme<br />
** [[Borne interactive]] (1 sujet)<br />
** [[Sonotone]] (1 sujet)<br />
** [[Sous-titre en temps réel d'un cours]] (1 sujet)<br />
* [[GrenobloisFuté]] Couche trafic sur OsmAnd avec un greffon. Données dynamique de la métro. Dvp Android. Nicolas Palix.<br />
* [[GeoDiff]] Production, visualisation, fusion de variations (diff) sur de l'information géocodée : Nicolas Palix<br />
* [[Smart campus augmenté et contributif]] Didier Donsez, Vivien Quema<br />
<br />
* [[Streaming en stéréoscopie]] sur [[WebRTC]] avec rendu sur [[Oculus]] pour le robot [[RobAIR]], Jérôme Maisonnasse. ([http://gstconf.ubicast.tv/videos/stereoscopic-3d-video/ voir]).<br />
* [[STM32F7]] : Mise en oeuvre de la chaîne de compilation sous Linux avec [[OpenSTM32]] et [[OpenOCD]]. Nicolas Palix<br />
* [[PersyCup2016]] : Persyval Robocup, Didier Donsez, Vivien Quema, Jérome Maisonnasse. (3 étudiants)<br />
* [[Services étendus pour le modèle de composants iPOPO pour Python]], Didier Donsez & Thomas Calmant. (2 étudiants)<br />
* [[SmartClassRoom2016|Développement d'une interface partagée pour tables tactiles (projet SmartClassRoom)]], Didier Donsez, Jérôme Maisonnasse. (2 étudiants)<br />
* [[iRock2016|iRock : surveillance de glissement de terrains]], Didier Donsez & Vivien Quema<br />
* [[IndoorGeoloc2016|Géolocalisation in-door au moyen de balises (beacon) BLE et Wifi à base de STM32 et de balises iBeacon & AltBeacon]], Didier Donsez & Vivien Quema<br />
* [[UPnPOpenHAB2016|Intégration et gestion de caméras de surveillance UPnP dans la plateforme domotique open-source OpenHAB et myOpenHAB]], Didier Donsez & Jérome Maisonnasse.<br />
<br />
'''Projets non prioritaires'''<br />
<br />
* [[Liveprogramming with Kivy]], Olivier Richard<br />
* [[AstroImage]] production d'image d'astronomie, Olivier Richard et Bruno Bzeznik<br />
* [[G-code Cruncher]] Controle de machine CNC (Nucleo grbl + esp8266 + Sdcard), Olivier Richard<br />
* [[Intégration OpenHAB / OpenTele]] Nicolas Palix<br />
<br />
==RICM5==<br />
<br />
===Projet Semestre S10===<br />
<br />
Enseignant responsable : Didier Donsez<br />
<br />
Démarrage : Lundi 25/01 à 10H30-12H30, P253 (Rendez-vous devant la salle AIR) - Visioconf pour Thibaut Cordier<br />
<br />
Soutenance : Jeudi 17/03 à 13H00-17H00, salle P043 (Polytech Grenoble)puis en salle C005 (Batiment C) <br />
<br />
Etudiants : RICM5 + 8 étudiants Avosti DUT RT<br />
<br />
Rappel séances MPI<br />
* Séance 1 : mardi 26 janvier après midi - Stéphanie Diligent<br />
* Séance 2 : mardi 2 février après midi - Stéphanie Diligent<br />
* Séance 3 : lundi 8 février matin - Emmanuelle Tréhoust<br />
* Séance 4 : jeudi 11 février matin - Emmanuelle Tréhoust<br />
* Séance 5 : lundi 21 mars matin - Stéphanie Diligent et Emmanuelle Tréhoust<br />
<br />
=====Soutenances=====<br />
Planning:<br />
* Bossa (13H00-13H40 en salle P043)<br />
* Immersion EDF (13H45-14H25 en salle P043)<br />
* IaaS Docker (14H30-15H10 en salle P043)<br />
* SmartCampus (15H15-15H55 en salle P043 et salle P259 AIR)<br />
* SmartClassRoom (16H15-16H55 en C005)<br />
* Pot d' "Au Revoir" (17H00-1800 en C005)<br />
<br />
Instructions:<br />
*Chaque soutenance comporte 15 minutes de présentation, 15 minutes de démonstration et 10 minutes de questions. Un transparent doit être consacré au travail confié et réalisé par les étudiants en DUT (AVOSTI).<br />
* Répétez plusieurs fois votre présentation et votre démonstration.<br />
* L'ensemble des documents (y compris photos, vidéos et ''[[Logiciels#Screencast|screencast]]s'') doivent être accessibles depuis le tableau ci-dessous et dans chaque fiche de suivi. Prévoyez une copie sur clé USB.<br />
* Les étudiants vous accompagnent lors de votre soutenance.<br />
* '''TOUT Le matériel prêté devra être rapporté et restitué dans un sac cabas lors de la soutenance.'''<br />
<br />
=====Projets=====<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM5 2015-2016<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Dépot git<br />
!scope="col"| Documents<br />
|-<br />
<br />
!scope="row"| 1<br />
| [http://air.imag.fr/index.php/IaaS_collaboratif_avec_Docker IaaS - Docker]<br />
| Eudes Robin, Damotte Alan, Barthelemy Romain, Mammar Malek, Guo Kai<br />
| Didier Donsez<br />
| [[Projets-2015-2016-IaaS_Docker| '''Fiche''']] - [[Projets-2015-2016-IaaS_Docker-SRS| '''SRS''']]<br />
| [https://github.com/EudesRobin/iaas-collaboratif '''github''']<br />
| [[Media:RapportMPI_Iaas.pdf|Rapport MPI]] - [[Media:Transparents_IaaS.pdf|Transparents]] - [[Media:Flyer_IaaS.pdf|Flyer]] - [https://youtu.be/qtqgZNrgcRc '''Screencast''']<br />
|-<br />
!scope="row"| 2<br />
| [http://air.imag.fr/index.php/Portage_de_Bossa Portage de Bossa sur le Kernel Linux 4x]<br />
| Eric Michel Fotsing, Ombeline Rossi, Longfei Yao<br />
| Nicolas Palix, Didier Donsez<br />
| [[Projets-2015-2016-Portage_Bossa| '''Fiche''']] - [[Projets-2015-2016-Portage_Bossa-SRS| '''SRS''']]<br />
| Private repository<br />
| [[Media:Rapport_Bossa.pdf|Rapport]] - [[Media:Transparents_Bossa.pdf|Transparents]] - [[Media:Flyer_Bossa.pdf|Flyer]] - Photos - Vidéos <br />
|-<br />
<br />
!scope="row"| 3<br />
| [[Visite immersive en réalité virtuelle dans une usine avec EDF]]<br />
| Adam Christophe, Aissanou Sarah, Klipffel Tararaina, Qian Jean, Zominy Laurent<br />
| Didier Donsez, Georges-Pierre Bonneau, Thibaut Cordier (EDF)<br />
| [[Projets-2015-2016-VisiteImmersiveEDF| '''Fiche''']]<br />
| [https://github.com/VisiteImmersiveEDF '''github''']<br />
| [[Media:RapportProjetX.pdf|Rapport]] - [[Media:TransparentsProojetX.pdf|Transparents]] - [[Media:FlyerProjetX.pdf|Flyer]] - Photos - Vidéos<br />
|-<br />
<br />
!scope="row"| 4<br />
| [[Contribution à OpenSmartCampus]] (voir http://data.beta.metropolegrenoble.fr/)<br />
| Quentin Torck, Vivien Michel, Jérémy Hammerer, Rama Codazzi, Zhengmeng Zhang<br />
| Didier Donsez, Vivien Quéma<br />
| [[Projets-2015-2016-OpenSmartCampus| '''Fiche''']]<br />
| [https://github.com/quentin74/SmartCampus.git '''github''']<br />
| [[Media:RapportProjetOpenSmartCampus2016.pdf|Rapport]] - [[Media:TransparentsProojetOpenSmartCampus2016.pdf|Transparents]] - [[Media:FlyerProjetOpenSmartCampus2016.pdf|Flyer]] - Photos - Vidéos<br />
|-<br />
<br />
!scope="row"| 5<br />
| [[Contribution à SmartClassRoom]] (Interfaces tactiles distribuées et partagées)<br />
| Saussac Thibault, Toussaint Sébastien, Hamdani Youcef, Zoppello Sebastien, Melik sak, Mesnier Vincent<br />
| Jérôme Maisonnasse, Didier Donsez<br />
| [[Projets-2015-2016-SmartClassRoom| '''Fiche''']] - [[Projets-2015-2016-SmartClassRoom/SRS| '''SRS''']]<br />
| [https://github.com/vince0508/SmartClassroom-TiledDisplayPart-master_Main '''github''']<br />
| [[Media:RapportProjetSmartClassRoom.pdf|Rapport]] - [[Media:TransparentsProjetSmartClassRoom.pdf|Transparents]] - [[Media:FlyerProjetSmartClassRoom.pdf|Flyer]] - [https://youtu.be/FEwoA4S9rsM '''Screencast/Vidéo''']<br />
|-<br />
<br />
<br />
|}<br />
<br />
===Projets annulés et reportés===<br />
* Projet avec [[Tango Project]] (Annulé)<br />
* Hack the Beam, Didier Donsez & Jérôme Maisonnasse.<br />
* [[Algorithmes de suivi de personnes pour robot de téléprésence RobAIR]] (Jérôme Maisonnasse, Didier Donsez)<br />
<br />
=M2PGI=<br />
==[[Projets M2PGI Services Machine-to-Machine|Projet Services Machine-to-Machine]]==<br />
* [[PM2M/2016/TP|Sujet et groupes]]</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=File:TransparentsProjet12_Sign2Speech_2015_2016.pdf&diff=28945File:TransparentsProjet12 Sign2Speech 2015 2016.pdf2016-04-05T22:02:44Z<p>Matthieu.Nogueron: </p>
<hr />
<div></div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Projets_2015-2016&diff=28944Projets 2015-20162016-04-05T22:01:45Z<p>Matthieu.Nogueron: /* Projet Semestre S8 */</p>
<hr />
<div><<[[Projets 2014-2015]] | [[Projets]] | [[Projets 2016-2017]]>><br />
=RICM=<br />
==RICM3==<br />
<br />
==RICM4==<br />
===Projet Semestre S8===<br />
<br />
Enseignants responsables : Olivier Richard, Didier Donsez<br />
<br />
<br />
* '''Evaluation à mi-parcours le lundi 7 mars''': Format: 10min (5min de présentation 3 slides au plus, 5min de discussion). Cette évaluation sera prise en compte dans la note finale.<br />
<br />
'''Consignes générales:'''<br />
<br />
* '''Vous devez être pro-actifs !!!''': Si des points sont pas ou mals spécifiés, vous le faîtes et vous justifiez vos choix. Pour les problèmes techniques éventuels vous pouvez: vous creusez la question, vous contactez l'auteur du code si il y a lieux, vous faites un rapport de bug ('''Attention:''' ca se prépare !), vous soumettez un patch, vous contactez l'enseignant ou la personne suivant le projet.<br />
<br />
* '''Vous devez maintenir une fiche de suivi de projet''': elle doit être mise à jour chaque semaine, elle rassemble les élements essentiels du projet, elle <br />
indique les évolutions du projet et présente sa feuille de route. '''Note:''' le nom de la fiche doit être composé du nom du projet et suffixé par ricm4_2015_2016.<br />
<br />
* '''Vous devez utiliser un logiciel de gestion de version''' pour vos développements comme [http://en.wikipedia.org/wiki/Git_%28software%29 git ] et nous vous conseillons d'utiliser le site [https://github.com github] pour l'hébergement de votre dépôt public.<br />
<br />
* Les document public (exemple sur github) doivent être rédigés en anglais (README, documentation, commentaires de code, nom de variables et de fonctions). Une bonnification sera accordée si le rapport et les transparents sont en anglais (la soutenance sera en francais).<br />
<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM4 2015-2016<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Dépot git<br />
|-<br />
<br />
!scope="row"| 1<br />
| [[Dashboard pour gestionnaire de tâches et de ressources]]<br />
| CROUZET, MATHIEU<br />
| Richard<br />
| [[Projets-2015-2016-DashBoard| '''Fiche''']]<br />
| [https://github.com/MatthieuCrouzet/Projet4A '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet1.pdf|Flyer]] - [[Media:gl_groupe1.pdf|Rapport Consultant]] - [[Media:Paterns.pdf|Patterns]] - [[Media:PresentationDashboard.pdf|Presentation]]<br />
|-<br />
<br />
!scope="row"| 2<br />
| [[Speeding Simplified Script Language]]<br />
| POPEK, BERTRAND-DALECHAMPS, WEI<br />
| Richard<br />
| [[Projets-2015-2016-SSSL| '''Fiche''']] - [[SSSL-UML| '''UML''']]<br />
| [https://github.com/FlorianPO/Speeding-Simplified-Script-Language.git '''github''']<br />
| [[Media:RapportProjet2.pdf|Rapport]] - [[Media:Groupe2_AIR.pdf|Rapport Consultant]] - [[Media:PresentationIntermediaireProjet2.pdf|Presentation_Intermediaire]] - [[Media:PresentationFinalProjet2.pdf|Presentation_final]] - [[Media:FlyerSSSL_projet2.pdf|flyer]]<br />
|-<br />
<br />
!scope="row"| 3<br />
| [[Borne interactive]] <br />
| DUNAND - NAVARRO - REVEL<br />
| Maisonnasse<br />
| [[Projets-2015-2016-Borne-Interactive| '''Fiche''']] - [[Projets-2015-2016-Borne-Interactive-SRS | '''SRS''']] - [[Projets-2015-2016-Borne-Interactive/UML_Diagrams | '''UML''']]<br />
| [https://github.com/Kant73/InteractiveDisplay '''github''']<br />
| [[Media:RapportProjet3.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet2.pdf|Flyer]] - [[Media:IPopo.pdf|Rapport Consultant]] - [[Media:PatternDesign.pdf | '''Design Pattern''']] - [[Media:PresentationInteractiveDisplay.pdf|Présentation Intermédiaire]] <br />
|-<br />
<br />
!scope="row"| 4<br />
| [[Sonotone]]<br />
| LECORPS, VOUTAT, Hattinguais <br />
| Maisonnasse, Richard<br />
| [[Projets-2015-2016-Sonotone| '''Fiche''']] - [[Projets-2015-2016-Sonotone-SRS | '''SRS''']] - [[Projets-2015-2016-Sonotone-UML | '''UML''']]<br />
| [https://github.com/Gorgorot38/Sonotone-RICM4 '''github''']<br />
| [[Media:RapportProjetf.pdf|Rapport]] - [[Media:SlidesSonotone.pdf|Transparents]] - [[Media:FlyerProjet3.pdf|Flyer]] - [[Media:SRS_Consultant_Sonotone_4.pdf|Rapport_Consultant]] - [[Media:pattern_sonotone.pdf|Pattern]] - [[Media:Soutenance.pdf|Soutenance_miparcours]]<br />
|-<br />
<br />
!scope="row"| 5<br />
| [[Sous-titre_en_temps_r%C3%A9el_d%27un_cours| Sous-titre d'un cours en temps réel]]<br />
| LECHEVALLIER, BUI, OUNISSI <br />
| Maisonnasse<br />
| [[LiveSubtitles| '''Fiche''']]<br />
| [https://github.com/Lechevallier/RealTimeSubtitles '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet4.pdf|Flyer]] - [[Media: SRS_Groupe_5.pdf| Rapport Consultant]]<br />
|-<br />
<br />
!scope="row"| 6<br />
| [[GrenobloisFuté]]<br />
| MOURET, DELAPORTE, LUCIDARME<br />
| Nicolas Palix<br />
| [[GrenobleFuté| '''Fiche''']] - [[SRS - GrenobloisFuté | '''SRS''']] <br />
| [https://github.com/Lucidarme/Osmand.git '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:midPresentation.pdf|Mid Presentation]] - [[Media:Flyer GrenobloisFute(3).pdf|Flyer]] - [[Media:gl_G14.pdf|Rapport Consultant]] - [[Media:Présentation GrenobloisFuté.pdf|Transparents]]<br />
|-<br />
<br />
!scope="row"| 7<br />
| [[Streaming en stéréoscopie]]<br />
| ZHAO ZILONG, HAMMOUTI<br />
| Maisonnasse<br />
| [[Projets-2015-2016-Streaming-Stereoscopie| '''Fiche''']] - [[SRS - Streaming en stéréoscopie | '''SRS''']] - [[Projets-2015-2016-streaming_stereo-UML | '''UML''']]<br />
| [https://github.com/zhao-zilong/streaming_stereo '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet6.pdf|Flyer]] - [[Media:bruel_medewou_ndiaye.pdf|Rapport_consultant]] - [[Media:streaming.pdf|mi-parcours]]<br />
|-<br />
<br />
!scope="row"| 8<br />
| [[PersyCup2016]]<br />
| BIN, ZEGAOUI, ELLAPIN <br />
| Donsez, Maisonnasse<br />
| [[PersyCup| '''Fiche''']]<br />
| [https://github.com/legominstorm/lego '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet7.pdf|Flyer]] - [[Media:SoutenanceMiParcours-Persycup2016.pdf|Soutenance Mi-parcours]]<br />
|-<br />
<br />
!scope="row"| 9<br />
| [[Services étendus pour le modèle de composants iPOPO pour Python]]<br />
| FOUNAS, HALLAL, GATTAZ <br />
| Calmant & Donsez<br />
| [[Proj-2015-2016-Extensions_IPOPO | '''Fiche''']] - [[Proj-2015-2016-Extensions_IPOPO/SRS | '''SRS''']] - [[Proj-2015-2016-Extensions_IPOPO/UML | '''UML''']] <br />
| [https://github.com/abdelazizFounas/ipopo/tree/tlsremote '''github IPOPO'''] <br /> [https://github.com/gattazr/IPOPO-Remote-Client '''github IPOPO Client''']<br />
| [[Media:9_RapportProjet9.pdf|Rapport]] - [[Media:9_TransparentsProojet.pdf|Transparents]] - [[Media:9_FlyerProjet8.pdf|Flyer]] - [[Media:3-SRS-Pres.pdf| Rapport Consultant]] - [[Media:9_PatternStrat.pdf|Pattern Design]] - [[Media:9_Mid-Presentation.pdf|Mid Presentation]] - [[Media:9_Gantt.pdf|Gantt]]<br />
|-<br />
<br />
!scope="row"| 10<br />
| [[IndoorGeoloc2016]]<br />
| ARRADA - CRASTES - FAURE - STOIAN <br />
| Donsez<br />
| [[Proj-2015-2016-IndoorGeoloc/Fiche| '''Fiche''']] - [[Proj-2015-2016-IndoorGeoloc/SRS|SRS]]<br />
| [https://github.com/QuentinFA/Geoloc_Indoor '''github''']<br />
| [[Media:Proj-2015-2016-IndoorGeoloc/RapportProjet.pdf|Rapport]] - [[Media:Proj-2015-2016-IndoorGeoloc/TransparentsProjet.pdf|Transparents]] - [[Media:Proj-2015-2016-IndoorGeoloc/FlyerProjet9.pdf|Flyer]] - [[Media: SRSGroupe17.pdf| Rapport Consultant]] - [[Media:Mi_parcours.pdf|Mid presentation]]<br />
|-<br />
<br />
!scope="row"| 11<br />
| [[UPnPOpenHAB2016]]<br />
| Medewou , Ndiaye Yacine , Bruel Anna <br />
| Didier Donsez<br />
| [[Proj-Openhab-2016| '''Fiche''']] - [[Proj-2015-2016-Int%C3%A9gration_de_cam%C3%A9ra_de_surveillance_UPnP_%C3%A0_Openhab/SRS| '''SRS''']] - [[Proj-Openhab/UML| '''UML''']]<br />
| [https://github.com/openHab-UPnP '''github''']<br />
| [[Media:RapportProjet111.pdf|Rapport]] - [[Media:FlyerProjetAnglais111.pdf|EnglishFlyer]] - [[Media:FlyerProjet10.pdf|FrenchFlyer]] - [[Media:soutenace111.pdf|Soutenance]] - [[Media:TransparentsProojet111.pdf|Rapport Analyste]] - [[Media:gl_ZHAO_HAMMOUTI.pdf|Rapport Consultant]] - [[Media:pattern_ZHAO_HAMMOUTI.pdf|Patterns]] - [[Media:fichier111.pdf|Mini soutenance]]<br />
|-<br />
<br />
!scope="row"| 12<br />
| [[Sign2Speech]]<br />
| NIOGRET, NOGUERON, TITH<br />
| Didier Donsez<br />
| [[sign2speech_ricm4_2015_2016| '''Fiche''']] - [[SRS - Sign2Speech | '''SRS''']] - [[UML | '''UML''']]<br />
| [https://github.com/SignToSpeech-Project '''github''']<br />
| [[Media:RapportProjet12_Sign2Speech_2015_2016.pdf|Rapport]] - [[Media:TransparentsProjet12.pdf|Transparents]] - [[Media:FlyerProjet11_Sign2Speech_2015-2016.pdf|Flyer]] - [[Media:12-Sign2Speech-RapportConsultant.pdf|Rapport Consultant]] - [[Media:12-Sign2Speech-MidPres.pdf|Mid presentation]]<br />
|-<br />
<br />
!scope="row"| 13<br />
| [[AstroImage]] <br />
| RACHEX, BLANC, GERRY<br />
| Olivier Richard et Bruno Bzeznik<br />
| [[Proj-2015-2016-Astroimage/Fiche| '''Fiche''']] - [[AstroImage/SRS | '''SRS''']] - [[Media:AstroImage-UML.pdf | '''UML''']]<br />
| [https://github.com/nicolas-blanc/AstroImage '''github''']<br />
| [[Media:RapportProjet13.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet12.pdf|Flyer]] - [[Media:13-AstroImage-RapportConsultant.pdf|Rapport Consultant]] - [https://docs.google.com/presentation/d/15F8DRktwmOuSNabdxMASniyr-TIiRzGNNG1mOhcoSnk/edit?usp=sharing '''Patterns''']<br />
|-<br />
<br />
!scope="row"| 14<br />
| [[Tachymètre]]<br />
| MACE, NOUGUIER, RAMEL<br />
| Olivier Gattaz<br />
| [[Fiche - Tachymètre | '''Fiche''']] - [[SRS - Tachymètre| '''SRS''']] - [[UML - Tachymètre| '''UML''']]<br />
| [https://github.com/Quego/Tachymetre '''github - Tachymètre''']<br />
| [[Media:Projet_Tachym%C3%A8tre_-_MACE_NOUGUIER_RAMEL.pdf|Rapport]] - [[Media:Pr%C3%A9sentation_projet_Tachym%C3%A8tre_-_MACE_NOUGUIER_RAMEL.pdf|Transparents]] - [[Media:D%C3%A9pliant_Tachym%C3%A8tre_-_MAC%C3%89_NOUGUIER_RAMEL.pdf|Flyer]] - [[Media:srs_tachymetre.pdf|Rapport consultant]] - [[Media:14_PatternDesign.pdf | Pattern Design]] - [[Media:Tachymetre_Presentation.pdf | Présentation de milieu de projet]]<br />
|-<br />
<br />
!scope="row"| 15<br />
| [[SmartProjector]]<br />
| BRANGER, HABLOT<br />
| Donsez, Maisonnasse<br />
| [[Fiche_SmartProjector_ricm4_2015_2016| '''Fiche''']] - [[SRS - SmartProjector| '''SRS''']] - [[UML - SmartProjector| '''UML''']]<br />
| [https://github.com/P0ppoff/SmartProjector '''github''']<br />
| [[Media:Expose final.pdf|Rapport]] - [[Media:PresentationPorjet.pdf|Transparents Présentation]] - [[Media:Flyer_SmartProjector.pdf|Flyer]] - [[Media:Gl_groupe16.pdf|Rapport Consultant]] - [http://air.imag.fr/index.php/Patron_de_conception_-_SmartProjector Patterns] - [[Media:Soutenance_SP.pdf|Soutenance finale]]<br />
|-<br />
<br />
|}<br />
<br />
===Liste de projets===<br />
<br />
* [[Dashboard pour gestionnaire de tâches et de ressources]], Olivier Richard<br />
* [[Moteur distribué d'exécution de commande]], Olivier Richard<br />
* [[Environnement d'expérimentation de pour NVIDIA Shield (Tegra X1)]], Olivier Richard <br />
* [[Speeding Simplified Script Language]], Olivier Richard<br />
<br />
* Aide (Open-Source)au Handicap Auditif, avec Didier Donsez, Jérome Maisonnasse, Marie-Paule Balicco (SAH UGA) et Nicolas Vuillerme<br />
** [[Borne interactive]] (1 sujet)<br />
** [[Sonotone]] (1 sujet)<br />
** [[Sous-titre en temps réel d'un cours]] (1 sujet)<br />
* [[GrenobloisFuté]] Couche trafic sur OsmAnd avec un greffon. Données dynamique de la métro. Dvp Android. Nicolas Palix.<br />
* [[GeoDiff]] Production, visualisation, fusion de variations (diff) sur de l'information géocodée : Nicolas Palix<br />
* [[Smart campus augmenté et contributif]] Didier Donsez, Vivien Quema<br />
<br />
* [[Streaming en stéréoscopie]] sur [[WebRTC]] avec rendu sur [[Oculus]] pour le robot [[RobAIR]], Jérôme Maisonnasse. ([http://gstconf.ubicast.tv/videos/stereoscopic-3d-video/ voir]).<br />
* [[STM32F7]] : Mise en oeuvre de la chaîne de compilation sous Linux avec [[OpenSTM32]] et [[OpenOCD]]. Nicolas Palix<br />
* [[PersyCup2016]] : Persyval Robocup, Didier Donsez, Vivien Quema, Jérome Maisonnasse. (3 étudiants)<br />
* [[Services étendus pour le modèle de composants iPOPO pour Python]], Didier Donsez & Thomas Calmant. (2 étudiants)<br />
* [[SmartClassRoom2016|Développement d'une interface partagée pour tables tactiles (projet SmartClassRoom)]], Didier Donsez, Jérôme Maisonnasse. (2 étudiants)<br />
* [[iRock2016|iRock : surveillance de glissement de terrains]], Didier Donsez & Vivien Quema<br />
* [[IndoorGeoloc2016|Géolocalisation in-door au moyen de balises (beacon) BLE et Wifi à base de STM32 et de balises iBeacon & AltBeacon]], Didier Donsez & Vivien Quema<br />
* [[UPnPOpenHAB2016|Intégration et gestion de caméras de surveillance UPnP dans la plateforme domotique open-source OpenHAB et myOpenHAB]], Didier Donsez & Jérome Maisonnasse.<br />
<br />
'''Projets non prioritaires'''<br />
<br />
* [[Liveprogramming with Kivy]], Olivier Richard<br />
* [[AstroImage]] production d'image d'astronomie, Olivier Richard et Bruno Bzeznik<br />
* [[G-code Cruncher]] Controle de machine CNC (Nucleo grbl + esp8266 + Sdcard), Olivier Richard<br />
* [[Intégration OpenHAB / OpenTele]] Nicolas Palix<br />
<br />
==RICM5==<br />
<br />
===Projet Semestre S10===<br />
<br />
Enseignant responsable : Didier Donsez<br />
<br />
Démarrage : Lundi 25/01 à 10H30-12H30, P253 (Rendez-vous devant la salle AIR) - Visioconf pour Thibaut Cordier<br />
<br />
Soutenance : Jeudi 17/03 à 13H00-17H00, salle P043 (Polytech Grenoble)puis en salle C005 (Batiment C) <br />
<br />
Etudiants : RICM5 + 8 étudiants Avosti DUT RT<br />
<br />
Rappel séances MPI<br />
* Séance 1 : mardi 26 janvier après midi - Stéphanie Diligent<br />
* Séance 2 : mardi 2 février après midi - Stéphanie Diligent<br />
* Séance 3 : lundi 8 février matin - Emmanuelle Tréhoust<br />
* Séance 4 : jeudi 11 février matin - Emmanuelle Tréhoust<br />
* Séance 5 : lundi 21 mars matin - Stéphanie Diligent et Emmanuelle Tréhoust<br />
<br />
=====Soutenances=====<br />
Planning:<br />
* Bossa (13H00-13H40 en salle P043)<br />
* Immersion EDF (13H45-14H25 en salle P043)<br />
* IaaS Docker (14H30-15H10 en salle P043)<br />
* SmartCampus (15H15-15H55 en salle P043 et salle P259 AIR)<br />
* SmartClassRoom (16H15-16H55 en C005)<br />
* Pot d' "Au Revoir" (17H00-1800 en C005)<br />
<br />
Instructions:<br />
*Chaque soutenance comporte 15 minutes de présentation, 15 minutes de démonstration et 10 minutes de questions. Un transparent doit être consacré au travail confié et réalisé par les étudiants en DUT (AVOSTI).<br />
* Répétez plusieurs fois votre présentation et votre démonstration.<br />
* L'ensemble des documents (y compris photos, vidéos et ''[[Logiciels#Screencast|screencast]]s'') doivent être accessibles depuis le tableau ci-dessous et dans chaque fiche de suivi. Prévoyez une copie sur clé USB.<br />
* Les étudiants vous accompagnent lors de votre soutenance.<br />
* '''TOUT Le matériel prêté devra être rapporté et restitué dans un sac cabas lors de la soutenance.'''<br />
<br />
=====Projets=====<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM5 2015-2016<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Dépot git<br />
!scope="col"| Documents<br />
|-<br />
<br />
!scope="row"| 1<br />
| [http://air.imag.fr/index.php/IaaS_collaboratif_avec_Docker IaaS - Docker]<br />
| Eudes Robin, Damotte Alan, Barthelemy Romain, Mammar Malek, Guo Kai<br />
| Didier Donsez<br />
| [[Projets-2015-2016-IaaS_Docker| '''Fiche''']] - [[Projets-2015-2016-IaaS_Docker-SRS| '''SRS''']]<br />
| [https://github.com/EudesRobin/iaas-collaboratif '''github''']<br />
| [[Media:RapportMPI_Iaas.pdf|Rapport MPI]] - [[Media:Transparents_IaaS.pdf|Transparents]] - [[Media:Flyer_IaaS.pdf|Flyer]] - [https://youtu.be/qtqgZNrgcRc '''Screencast''']<br />
|-<br />
!scope="row"| 2<br />
| [http://air.imag.fr/index.php/Portage_de_Bossa Portage de Bossa sur le Kernel Linux 4x]<br />
| Eric Michel Fotsing, Ombeline Rossi, Longfei Yao<br />
| Nicolas Palix, Didier Donsez<br />
| [[Projets-2015-2016-Portage_Bossa| '''Fiche''']] - [[Projets-2015-2016-Portage_Bossa-SRS| '''SRS''']]<br />
| Private repository<br />
| [[Media:Rapport_Bossa.pdf|Rapport]] - [[Media:Transparents_Bossa.pdf|Transparents]] - [[Media:Flyer_Bossa.pdf|Flyer]] - Photos - Vidéos <br />
|-<br />
<br />
!scope="row"| 3<br />
| [[Visite immersive en réalité virtuelle dans une usine avec EDF]]<br />
| Adam Christophe, Aissanou Sarah, Klipffel Tararaina, Qian Jean, Zominy Laurent<br />
| Didier Donsez, Georges-Pierre Bonneau, Thibaut Cordier (EDF)<br />
| [[Projets-2015-2016-VisiteImmersiveEDF| '''Fiche''']]<br />
| [https://github.com/VisiteImmersiveEDF '''github''']<br />
| [[Media:RapportProjetX.pdf|Rapport]] - [[Media:TransparentsProojetX.pdf|Transparents]] - [[Media:FlyerProjetX.pdf|Flyer]] - Photos - Vidéos<br />
|-<br />
<br />
!scope="row"| 4<br />
| [[Contribution à OpenSmartCampus]] (voir http://data.beta.metropolegrenoble.fr/)<br />
| Quentin Torck, Vivien Michel, Jérémy Hammerer, Rama Codazzi, Zhengmeng Zhang<br />
| Didier Donsez, Vivien Quéma<br />
| [[Projets-2015-2016-OpenSmartCampus| '''Fiche''']]<br />
| [https://github.com/quentin74/SmartCampus.git '''github''']<br />
| [[Media:RapportProjetOpenSmartCampus2016.pdf|Rapport]] - [[Media:TransparentsProojetOpenSmartCampus2016.pdf|Transparents]] - [[Media:FlyerProjetOpenSmartCampus2016.pdf|Flyer]] - Photos - Vidéos<br />
|-<br />
<br />
!scope="row"| 5<br />
| [[Contribution à SmartClassRoom]] (Interfaces tactiles distribuées et partagées)<br />
| Saussac Thibault, Toussaint Sébastien, Hamdani Youcef, Zoppello Sebastien, Melik sak, Mesnier Vincent<br />
| Jérôme Maisonnasse, Didier Donsez<br />
| [[Projets-2015-2016-SmartClassRoom| '''Fiche''']] - [[Projets-2015-2016-SmartClassRoom/SRS| '''SRS''']]<br />
| [https://github.com/vince0508/SmartClassroom-TiledDisplayPart-master_Main '''github''']<br />
| [[Media:RapportProjetSmartClassRoom.pdf|Rapport]] - [[Media:TransparentsProjetSmartClassRoom.pdf|Transparents]] - [[Media:FlyerProjetSmartClassRoom.pdf|Flyer]] - [https://youtu.be/FEwoA4S9rsM '''Screencast/Vidéo''']<br />
|-<br />
<br />
<br />
|}<br />
<br />
===Projets annulés et reportés===<br />
* Projet avec [[Tango Project]] (Annulé)<br />
* Hack the Beam, Didier Donsez & Jérôme Maisonnasse.<br />
* [[Algorithmes de suivi de personnes pour robot de téléprésence RobAIR]] (Jérôme Maisonnasse, Didier Donsez)<br />
<br />
=M2PGI=<br />
==[[Projets M2PGI Services Machine-to-Machine|Projet Services Machine-to-Machine]]==<br />
* [[PM2M/2016/TP|Sujet et groupes]]</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Projets_2015-2016&diff=28939Projets 2015-20162016-04-05T21:56:23Z<p>Matthieu.Nogueron: /* Projet Semestre S8 */</p>
<hr />
<div><<[[Projets 2014-2015]] | [[Projets]] | [[Projets 2016-2017]]>><br />
=RICM=<br />
==RICM3==<br />
<br />
==RICM4==<br />
===Projet Semestre S8===<br />
<br />
Enseignants responsables : Olivier Richard, Didier Donsez<br />
<br />
<br />
* '''Evaluation à mi-parcours le lundi 7 mars''': Format: 10min (5min de présentation 3 slides au plus, 5min de discussion). Cette évaluation sera prise en compte dans la note finale.<br />
<br />
'''Consignes générales:'''<br />
<br />
* '''Vous devez être pro-actifs !!!''': Si des points sont pas ou mals spécifiés, vous le faîtes et vous justifiez vos choix. Pour les problèmes techniques éventuels vous pouvez: vous creusez la question, vous contactez l'auteur du code si il y a lieux, vous faites un rapport de bug ('''Attention:''' ca se prépare !), vous soumettez un patch, vous contactez l'enseignant ou la personne suivant le projet.<br />
<br />
* '''Vous devez maintenir une fiche de suivi de projet''': elle doit être mise à jour chaque semaine, elle rassemble les élements essentiels du projet, elle <br />
indique les évolutions du projet et présente sa feuille de route. '''Note:''' le nom de la fiche doit être composé du nom du projet et suffixé par ricm4_2015_2016.<br />
<br />
* '''Vous devez utiliser un logiciel de gestion de version''' pour vos développements comme [http://en.wikipedia.org/wiki/Git_%28software%29 git ] et nous vous conseillons d'utiliser le site [https://github.com github] pour l'hébergement de votre dépôt public.<br />
<br />
* Les document public (exemple sur github) doivent être rédigés en anglais (README, documentation, commentaires de code, nom de variables et de fonctions). Une bonnification sera accordée si le rapport et les transparents sont en anglais (la soutenance sera en francais).<br />
<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM4 2015-2016<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Dépot git<br />
|-<br />
<br />
!scope="row"| 1<br />
| [[Dashboard pour gestionnaire de tâches et de ressources]]<br />
| CROUZET, MATHIEU<br />
| Richard<br />
| [[Projets-2015-2016-DashBoard| '''Fiche''']]<br />
| [https://github.com/MatthieuCrouzet/Projet4A '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet1.pdf|Flyer]] - [[Media:gl_groupe1.pdf|Rapport Consultant]] - [[Media:Paterns.pdf|Patterns]] - [[Media:PresentationDashboard.pdf|Presentation]]<br />
|-<br />
<br />
!scope="row"| 2<br />
| [[Speeding Simplified Script Language]]<br />
| POPEK, BERTRAND-DALECHAMPS, WEI<br />
| Richard<br />
| [[Projets-2015-2016-SSSL| '''Fiche''']] - [[SSSL-UML| '''UML''']]<br />
| [https://github.com/FlorianPO/Speeding-Simplified-Script-Language.git '''github''']<br />
| [[Media:RapportProjet2.pdf|Rapport]] - [[Media:Groupe2_AIR.pdf|Rapport Consultant]] - [[Media:PresentationIntermediaireProjet2.pdf|Presentation_Intermediaire]] - [[Media:PresentationFinalProjet2.pdf|Presentation_final]] - [[Media:FlyerSSSL_projet2.pdf|flyer]]<br />
|-<br />
<br />
!scope="row"| 3<br />
| [[Borne interactive]] <br />
| DUNAND - NAVARRO - REVEL<br />
| Maisonnasse<br />
| [[Projets-2015-2016-Borne-Interactive| '''Fiche''']] - [[Projets-2015-2016-Borne-Interactive-SRS | '''SRS''']] - [[Projets-2015-2016-Borne-Interactive/UML_Diagrams | '''UML''']]<br />
| [https://github.com/Kant73/InteractiveDisplay '''github''']<br />
| [[Media:RapportProjet3.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet2.pdf|Flyer]] - [[Media:IPopo.pdf|Rapport Consultant]] - [[Media:PatternDesign.pdf | '''Design Pattern''']] - [[Media:PresentationInteractiveDisplay.pdf|Présentation Intermédiaire]] <br />
|-<br />
<br />
!scope="row"| 4<br />
| [[Sonotone]]<br />
| LECORPS, VOUTAT, Hattinguais <br />
| Maisonnasse, Richard<br />
| [[Projets-2015-2016-Sonotone| '''Fiche''']] - [[Projets-2015-2016-Sonotone-SRS | '''SRS''']] - [[Projets-2015-2016-Sonotone-UML | '''UML''']]<br />
| [https://github.com/Gorgorot38/Sonotone-RICM4 '''github''']<br />
| [[Media:RapportProjetf.pdf|Rapport]] - [[Media:SlidesSonotone.pdf|Transparents]] - [[Media:FlyerProjet3.pdf|Flyer]] - [[Media:SRS_Consultant_Sonotone_4.pdf|Rapport_Consultant]] - [[Media:pattern_sonotone.pdf|Pattern]] - [[Media:Soutenance.pdf|Soutenance_miparcours]]<br />
|-<br />
<br />
!scope="row"| 5<br />
| [[Sous-titre_en_temps_r%C3%A9el_d%27un_cours| Sous-titre d'un cours en temps réel]]<br />
| LECHEVALLIER, BUI, OUNISSI <br />
| Maisonnasse<br />
| [[LiveSubtitles| '''Fiche''']]<br />
| [https://github.com/Lechevallier/RealTimeSubtitles '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet4.pdf|Flyer]] - [[Media: SRS_Groupe_5.pdf| Rapport Consultant]]<br />
|-<br />
<br />
!scope="row"| 6<br />
| [[GrenobloisFuté]]<br />
| MOURET, DELAPORTE, LUCIDARME<br />
| Nicolas Palix<br />
| [[GrenobleFuté| '''Fiche''']] - [[SRS - GrenobloisFuté | '''SRS''']] <br />
| [https://github.com/Lucidarme/Osmand.git '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:midPresentation.pdf|Mid Presentation]] - [[Media:Flyer GrenobloisFute(3).pdf|Flyer]] - [[Media:gl_G14.pdf|Rapport Consultant]] - [[Media:Présentation GrenobloisFuté.pdf|Transparents]]<br />
|-<br />
<br />
!scope="row"| 7<br />
| [[Streaming en stéréoscopie]]<br />
| ZHAO ZILONG, HAMMOUTI<br />
| Maisonnasse<br />
| [[Projets-2015-2016-Streaming-Stereoscopie| '''Fiche''']] - [[SRS - Streaming en stéréoscopie | '''SRS''']] - [[Projets-2015-2016-streaming_stereo-UML | '''UML''']]<br />
| [https://github.com/zhao-zilong/streaming_stereo '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet6.pdf|Flyer]] - [[Media:bruel_medewou_ndiaye.pdf|Rapport_consultant]] - [[Media:streaming.pdf|mi-parcours]]<br />
|-<br />
<br />
!scope="row"| 8<br />
| [[PersyCup2016]]<br />
| BIN, ZEGAOUI, ELLAPIN <br />
| Donsez, Maisonnasse<br />
| [[PersyCup| '''Fiche''']]<br />
| [https://github.com/legominstorm/lego '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet7.pdf|Flyer]] - [[Media:SoutenanceMiParcours-Persycup2016.pdf|Soutenance Mi-parcours]]<br />
|-<br />
<br />
!scope="row"| 9<br />
| [[Services étendus pour le modèle de composants iPOPO pour Python]]<br />
| FOUNAS, HALLAL, GATTAZ <br />
| Calmant & Donsez<br />
| [[Proj-2015-2016-Extensions_IPOPO | '''Fiche''']] - [[Proj-2015-2016-Extensions_IPOPO/SRS | '''SRS''']] - [[Proj-2015-2016-Extensions_IPOPO/UML | '''UML''']] <br />
| [https://github.com/abdelazizFounas/ipopo/tree/tlsremote '''github IPOPO'''] <br /> [https://github.com/gattazr/IPOPO-Remote-Client '''github IPOPO Client''']<br />
| [[Media:9_RapportProjet9.pdf|Rapport]] - [[Media:9_TransparentsProojet.pdf|Transparents]] - [[Media:9_FlyerProjet8.pdf|Flyer]] - [[Media:3-SRS-Pres.pdf| Rapport Consultant]] - [[Media:9_PatternStrat.pdf|Pattern Design]] - [[Media:9_Mid-Presentation.pdf|Mid Presentation]] - [[Media:9_Gantt.pdf|Gantt]]<br />
|-<br />
<br />
!scope="row"| 10<br />
| [[IndoorGeoloc2016]]<br />
| ARRADA - CRASTES - FAURE - STOIAN <br />
| Donsez<br />
| [[Proj-2015-2016-IndoorGeoloc/Fiche| '''Fiche''']] - [[Proj-2015-2016-IndoorGeoloc/SRS|SRS]]<br />
| [https://github.com/QuentinFA/Geoloc_Indoor '''github''']<br />
| [[Media:Proj-2015-2016-IndoorGeoloc/RapportProjet.pdf|Rapport]] - [[Media:Proj-2015-2016-IndoorGeoloc/TransparentsProjet.pdf|Transparents]] - [[Media:Proj-2015-2016-IndoorGeoloc/FlyerProjet9.pdf|Flyer]] - [[Media: SRSGroupe17.pdf| Rapport Consultant]] - [[Media:Mi_parcours.pdf|Mid presentation]]<br />
|-<br />
<br />
!scope="row"| 11<br />
| [[UPnPOpenHAB2016]]<br />
| Medewou , Ndiaye Yacine , Bruel Anna <br />
| Didier Donsez<br />
| [[Proj-Openhab-2016| '''Fiche''']] - [[Proj-2015-2016-Int%C3%A9gration_de_cam%C3%A9ra_de_surveillance_UPnP_%C3%A0_Openhab/SRS| '''SRS''']] - [[Proj-Openhab/UML| '''UML''']]<br />
| [https://github.com/openHab-UPnP '''github''']<br />
| [[Media:RapportProjet111.pdf|Rapport]] - [[Media:FlyerProjetAnglais111.pdf|EnglishFlyer]] - [[Media:FlyerProjet10.pdf|FrenchFlyer]] - [[Media:soutenace111.pdf|Soutenance]] - [[Media:TransparentsProojet111.pdf|Rapport Analyste]] - [[Media:gl_ZHAO_HAMMOUTI.pdf|Rapport Consultant]] - [[Media:pattern_ZHAO_HAMMOUTI.pdf|Patterns]] - [[Media:fichier111.pdf|Mini soutenance]]<br />
|-<br />
<br />
!scope="row"| 12<br />
| [[Sign2Speech]]<br />
| NIOGRET, NOGUERON, TITH<br />
| Didier Donsez<br />
| [[sign2speech_ricm4_2015_2016| '''Fiche''']] - [[SRS - Sign2Speech | '''SRS''']] - [[UML | '''UML''']]<br />
| [https://github.com/SignToSpeech-Project '''github''']<br />
| [[Media:RapportProjet12_Sign2Speech_2015_2016.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet11_Sign2Speech_2015-2016.pdf|Flyer]] - [[Media:12-Sign2Speech-RapportConsultant.pdf|Rapport Consultant]] - [[Media:12-Sign2Speech-MidPres.pdf|Mid presentation]]<br />
|-<br />
<br />
!scope="row"| 13<br />
| [[AstroImage]] <br />
| RACHEX, BLANC, GERRY<br />
| Olivier Richard et Bruno Bzeznik<br />
| [[Proj-2015-2016-Astroimage/Fiche| '''Fiche''']] - [[AstroImage/SRS | '''SRS''']] - [[Media:AstroImage-UML.pdf | '''UML''']]<br />
| [https://github.com/nicolas-blanc/AstroImage '''github''']<br />
| [[Media:RapportProjet13.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet12.pdf|Flyer]] - [[Media:13-AstroImage-RapportConsultant.pdf|Rapport Consultant]] - [https://docs.google.com/presentation/d/15F8DRktwmOuSNabdxMASniyr-TIiRzGNNG1mOhcoSnk/edit?usp=sharing '''Patterns''']<br />
|-<br />
<br />
!scope="row"| 14<br />
| [[Tachymètre]]<br />
| MACE, NOUGUIER, RAMEL<br />
| Olivier Gattaz<br />
| [[Fiche - Tachymètre | '''Fiche''']] - [[SRS - Tachymètre| '''SRS''']] - [[UML - Tachymètre| '''UML''']]<br />
| [https://github.com/Quego/Tachymetre '''github - Tachymètre''']<br />
| [[Media:Projet_Tachym%C3%A8tre_-_MACE_NOUGUIER_RAMEL.pdf|Rapport]] - [[Media:Pr%C3%A9sentation_projet_Tachym%C3%A8tre_-_MACE_NOUGUIER_RAMEL.pdf|Transparents]] - [[Media:D%C3%A9pliant_Tachym%C3%A8tre_-_MAC%C3%89_NOUGUIER_RAMEL.pdf|Flyer]] - [[Media:srs_tachymetre.pdf|Rapport consultant]] - [[Media:14_PatternDesign.pdf | Pattern Design]] - [[Media:Tachymetre_Presentation.pdf | Présentation de milieu de projet]]<br />
|-<br />
<br />
!scope="row"| 15<br />
| [[SmartProjector]]<br />
| BRANGER, HABLOT<br />
| Donsez, Maisonnasse<br />
| [[Fiche_SmartProjector_ricm4_2015_2016| '''Fiche''']] - [[SRS - SmartProjector| '''SRS''']] - [[UML - SmartProjector| '''UML''']]<br />
| [https://github.com/P0ppoff/SmartProjector '''github''']<br />
| [[Media:Expose final.pdf|Rapport]] - [[Media:PresentationPorjet.pdf|Transparents Présentation]] - [[Media:Flyer_SmartProjector.pdf|Flyer]] - [[Media:Gl_groupe16.pdf|Rapport Consultant]] - [http://air.imag.fr/index.php/Patron_de_conception_-_SmartProjector Patterns] - [[Media:Soutenance_SP.pdf|Soutenance finale]]<br />
|-<br />
<br />
|}<br />
<br />
===Liste de projets===<br />
<br />
* [[Dashboard pour gestionnaire de tâches et de ressources]], Olivier Richard<br />
* [[Moteur distribué d'exécution de commande]], Olivier Richard<br />
* [[Environnement d'expérimentation de pour NVIDIA Shield (Tegra X1)]], Olivier Richard <br />
* [[Speeding Simplified Script Language]], Olivier Richard<br />
<br />
* Aide (Open-Source)au Handicap Auditif, avec Didier Donsez, Jérome Maisonnasse, Marie-Paule Balicco (SAH UGA) et Nicolas Vuillerme<br />
** [[Borne interactive]] (1 sujet)<br />
** [[Sonotone]] (1 sujet)<br />
** [[Sous-titre en temps réel d'un cours]] (1 sujet)<br />
* [[GrenobloisFuté]] Couche trafic sur OsmAnd avec un greffon. Données dynamique de la métro. Dvp Android. Nicolas Palix.<br />
* [[GeoDiff]] Production, visualisation, fusion de variations (diff) sur de l'information géocodée : Nicolas Palix<br />
* [[Smart campus augmenté et contributif]] Didier Donsez, Vivien Quema<br />
<br />
* [[Streaming en stéréoscopie]] sur [[WebRTC]] avec rendu sur [[Oculus]] pour le robot [[RobAIR]], Jérôme Maisonnasse. ([http://gstconf.ubicast.tv/videos/stereoscopic-3d-video/ voir]).<br />
* [[STM32F7]] : Mise en oeuvre de la chaîne de compilation sous Linux avec [[OpenSTM32]] et [[OpenOCD]]. Nicolas Palix<br />
* [[PersyCup2016]] : Persyval Robocup, Didier Donsez, Vivien Quema, Jérome Maisonnasse. (3 étudiants)<br />
* [[Services étendus pour le modèle de composants iPOPO pour Python]], Didier Donsez & Thomas Calmant. (2 étudiants)<br />
* [[SmartClassRoom2016|Développement d'une interface partagée pour tables tactiles (projet SmartClassRoom)]], Didier Donsez, Jérôme Maisonnasse. (2 étudiants)<br />
* [[iRock2016|iRock : surveillance de glissement de terrains]], Didier Donsez & Vivien Quema<br />
* [[IndoorGeoloc2016|Géolocalisation in-door au moyen de balises (beacon) BLE et Wifi à base de STM32 et de balises iBeacon & AltBeacon]], Didier Donsez & Vivien Quema<br />
* [[UPnPOpenHAB2016|Intégration et gestion de caméras de surveillance UPnP dans la plateforme domotique open-source OpenHAB et myOpenHAB]], Didier Donsez & Jérome Maisonnasse.<br />
<br />
'''Projets non prioritaires'''<br />
<br />
* [[Liveprogramming with Kivy]], Olivier Richard<br />
* [[AstroImage]] production d'image d'astronomie, Olivier Richard et Bruno Bzeznik<br />
* [[G-code Cruncher]] Controle de machine CNC (Nucleo grbl + esp8266 + Sdcard), Olivier Richard<br />
* [[Intégration OpenHAB / OpenTele]] Nicolas Palix<br />
<br />
==RICM5==<br />
<br />
===Projet Semestre S10===<br />
<br />
Enseignant responsable : Didier Donsez<br />
<br />
Démarrage : Lundi 25/01 à 10H30-12H30, P253 (Rendez-vous devant la salle AIR) - Visioconf pour Thibaut Cordier<br />
<br />
Soutenance : Jeudi 17/03 à 13H00-17H00, salle P043 (Polytech Grenoble)puis en salle C005 (Batiment C) <br />
<br />
Etudiants : RICM5 + 8 étudiants Avosti DUT RT<br />
<br />
Rappel séances MPI<br />
* Séance 1 : mardi 26 janvier après midi - Stéphanie Diligent<br />
* Séance 2 : mardi 2 février après midi - Stéphanie Diligent<br />
* Séance 3 : lundi 8 février matin - Emmanuelle Tréhoust<br />
* Séance 4 : jeudi 11 février matin - Emmanuelle Tréhoust<br />
* Séance 5 : lundi 21 mars matin - Stéphanie Diligent et Emmanuelle Tréhoust<br />
<br />
=====Soutenances=====<br />
Planning:<br />
* Bossa (13H00-13H40 en salle P043)<br />
* Immersion EDF (13H45-14H25 en salle P043)<br />
* IaaS Docker (14H30-15H10 en salle P043)<br />
* SmartCampus (15H15-15H55 en salle P043 et salle P259 AIR)<br />
* SmartClassRoom (16H15-16H55 en C005)<br />
* Pot d' "Au Revoir" (17H00-1800 en C005)<br />
<br />
Instructions:<br />
*Chaque soutenance comporte 15 minutes de présentation, 15 minutes de démonstration et 10 minutes de questions. Un transparent doit être consacré au travail confié et réalisé par les étudiants en DUT (AVOSTI).<br />
* Répétez plusieurs fois votre présentation et votre démonstration.<br />
* L'ensemble des documents (y compris photos, vidéos et ''[[Logiciels#Screencast|screencast]]s'') doivent être accessibles depuis le tableau ci-dessous et dans chaque fiche de suivi. Prévoyez une copie sur clé USB.<br />
* Les étudiants vous accompagnent lors de votre soutenance.<br />
* '''TOUT Le matériel prêté devra être rapporté et restitué dans un sac cabas lors de la soutenance.'''<br />
<br />
=====Projets=====<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM5 2015-2016<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Dépot git<br />
!scope="col"| Documents<br />
|-<br />
<br />
!scope="row"| 1<br />
| [http://air.imag.fr/index.php/IaaS_collaboratif_avec_Docker IaaS - Docker]<br />
| Eudes Robin, Damotte Alan, Barthelemy Romain, Mammar Malek, Guo Kai<br />
| Didier Donsez<br />
| [[Projets-2015-2016-IaaS_Docker| '''Fiche''']] - [[Projets-2015-2016-IaaS_Docker-SRS| '''SRS''']]<br />
| [https://github.com/EudesRobin/iaas-collaboratif '''github''']<br />
| [[Media:RapportMPI_Iaas.pdf|Rapport MPI]] - [[Media:Transparents_IaaS.pdf|Transparents]] - [[Media:Flyer_IaaS.pdf|Flyer]] - [https://youtu.be/qtqgZNrgcRc '''Screencast''']<br />
|-<br />
!scope="row"| 2<br />
| [http://air.imag.fr/index.php/Portage_de_Bossa Portage de Bossa sur le Kernel Linux 4x]<br />
| Eric Michel Fotsing, Ombeline Rossi, Longfei Yao<br />
| Nicolas Palix, Didier Donsez<br />
| [[Projets-2015-2016-Portage_Bossa| '''Fiche''']] - [[Projets-2015-2016-Portage_Bossa-SRS| '''SRS''']]<br />
| Private repository<br />
| [[Media:Rapport_Bossa.pdf|Rapport]] - [[Media:Transparents_Bossa.pdf|Transparents]] - [[Media:Flyer_Bossa.pdf|Flyer]] - Photos - Vidéos <br />
|-<br />
<br />
!scope="row"| 3<br />
| [[Visite immersive en réalité virtuelle dans une usine avec EDF]]<br />
| Adam Christophe, Aissanou Sarah, Klipffel Tararaina, Qian Jean, Zominy Laurent<br />
| Didier Donsez, Georges-Pierre Bonneau, Thibaut Cordier (EDF)<br />
| [[Projets-2015-2016-VisiteImmersiveEDF| '''Fiche''']]<br />
| [https://github.com/VisiteImmersiveEDF '''github''']<br />
| [[Media:RapportProjetX.pdf|Rapport]] - [[Media:TransparentsProojetX.pdf|Transparents]] - [[Media:FlyerProjetX.pdf|Flyer]] - Photos - Vidéos<br />
|-<br />
<br />
!scope="row"| 4<br />
| [[Contribution à OpenSmartCampus]] (voir http://data.beta.metropolegrenoble.fr/)<br />
| Quentin Torck, Vivien Michel, Jérémy Hammerer, Rama Codazzi, Zhengmeng Zhang<br />
| Didier Donsez, Vivien Quéma<br />
| [[Projets-2015-2016-OpenSmartCampus| '''Fiche''']]<br />
| [https://github.com/quentin74/SmartCampus.git '''github''']<br />
| [[Media:RapportProjetOpenSmartCampus2016.pdf|Rapport]] - [[Media:TransparentsProojetOpenSmartCampus2016.pdf|Transparents]] - [[Media:FlyerProjetOpenSmartCampus2016.pdf|Flyer]] - Photos - Vidéos<br />
|-<br />
<br />
!scope="row"| 5<br />
| [[Contribution à SmartClassRoom]] (Interfaces tactiles distribuées et partagées)<br />
| Saussac Thibault, Toussaint Sébastien, Hamdani Youcef, Zoppello Sebastien, Melik sak, Mesnier Vincent<br />
| Jérôme Maisonnasse, Didier Donsez<br />
| [[Projets-2015-2016-SmartClassRoom| '''Fiche''']] - [[Projets-2015-2016-SmartClassRoom/SRS| '''SRS''']]<br />
| [https://github.com/vince0508/SmartClassroom-TiledDisplayPart-master_Main '''github''']<br />
| [[Media:RapportProjetSmartClassRoom.pdf|Rapport]] - [[Media:TransparentsProjetSmartClassRoom.pdf|Transparents]] - [[Media:FlyerProjetSmartClassRoom.pdf|Flyer]] - [https://youtu.be/FEwoA4S9rsM '''Screencast/Vidéo''']<br />
|-<br />
<br />
<br />
|}<br />
<br />
===Projets annulés et reportés===<br />
* Projet avec [[Tango Project]] (Annulé)<br />
* Hack the Beam, Didier Donsez & Jérôme Maisonnasse.<br />
* [[Algorithmes de suivi de personnes pour robot de téléprésence RobAIR]] (Jérôme Maisonnasse, Didier Donsez)<br />
<br />
=M2PGI=<br />
==[[Projets M2PGI Services Machine-to-Machine|Projet Services Machine-to-Machine]]==<br />
* [[PM2M/2016/TP|Sujet et groupes]]</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=File:RapportProjet12_Sign2Speech_2015_2016.pdf&diff=28938File:RapportProjet12 Sign2Speech 2015 2016.pdf2016-04-05T21:55:53Z<p>Matthieu.Nogueron: </p>
<hr />
<div></div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Projets_2015-2016&diff=28848Projets 2015-20162016-04-05T15:10:22Z<p>Matthieu.Nogueron: /* Projet Semestre S8 */</p>
<hr />
<div><<[[Projets 2014-2015]] | [[Projets]] | [[Projets 2016-2017]]>><br />
=RICM=<br />
==RICM3==<br />
<br />
==RICM4==<br />
===Projet Semestre S8===<br />
<br />
Enseignants responsables : Olivier Richard, Didier Donsez<br />
<br />
<br />
* '''Evaluation à mi-parcours le lundi 7 mars''': Format: 10min (5min de présentation 3 slides au plus, 5min de discussion). Cette évaluation sera prise en compte dans la note finale.<br />
<br />
'''Consignes générales:'''<br />
<br />
* '''Vous devez être pro-actifs !!!''': Si des points sont pas ou mals spécifiés, vous le faîtes et vous justifiez vos choix. Pour les problèmes techniques éventuels vous pouvez: vous creusez la question, vous contactez l'auteur du code si il y a lieux, vous faites un rapport de bug ('''Attention:''' ca se prépare !), vous soumettez un patch, vous contactez l'enseignant ou la personne suivant le projet.<br />
<br />
* '''Vous devez maintenir une fiche de suivi de projet''': elle doit être mise à jour chaque semaine, elle rassemble les élements essentiels du projet, elle <br />
indique les évolutions du projet et présente sa feuille de route. '''Note:''' le nom de la fiche doit être composé du nom du projet et suffixé par ricm4_2015_2016.<br />
<br />
* '''Vous devez utiliser un logiciel de gestion de version''' pour vos développements comme [http://en.wikipedia.org/wiki/Git_%28software%29 git ] et nous vous conseillons d'utiliser le site [https://github.com github] pour l'hébergement de votre dépôt public.<br />
<br />
* Les document public (exemple sur github) doivent être rédigés en anglais (README, documentation, commentaires de code, nom de variables et de fonctions). Une bonnification sera accordée si le rapport et les transparents sont en anglais (la soutenance sera en francais).<br />
<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM4 2015-2016<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Dépot git<br />
|-<br />
<br />
!scope="row"| 1<br />
| [[Dashboard pour gestionnaire de tâches et de ressources]]<br />
| CROUZET, MATHIEU<br />
| Richard<br />
| [[Projets-2015-2016-DashBoard| '''Fiche''']]<br />
| [https://github.com/MatthieuCrouzet/Projet4A '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet1.pdf|Flyer]] - [[Media:gl_groupe1.pdf|Rapport Consultant]] - [[Media:Paterns.pdf|Patterns]] - [[Media:PresentationDashboard.pdf|Presentation]]<br />
|-<br />
<br />
!scope="row"| 2<br />
| [[Speeding Simplified Script Language]]<br />
| POPEK, BERTRAND-DALECHAMPS, WEI<br />
| Richard<br />
| [[Projets-2015-2016-SSSL| '''Fiche''']] - [[SSSL-UML| '''UML''']]<br />
| [https://github.com/FlorianPO/Speeding-Simplified-Script-Language.git '''github''']<br />
| [[Media:RapportProjet2.pdf|Rapport]] - [[Media:Groupe2_AIR.pdf|Rapport Consultant]] - [[Media:PresentationProjet.pdf|Presentation]]<br />
|-<br />
<br />
!scope="row"| 3<br />
| [[Borne interactive]] <br />
| DUNAND - NAVARRO - REVEL<br />
| Maisonnasse<br />
| [[Projets-2015-2016-Borne-Interactive| '''Fiche''']] - [[Projets-2015-2016-Borne-Interactive-SRS | '''SRS''']] - [[Projets-2015-2016-Borne-Interactive/UML_Diagrams | '''UML''']]<br />
| [https://github.com/Kant73/InteractiveDisplay '''github''']<br />
| [[Media:RapportProjet3.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet2.pdf|Flyer]] - [[Media:IPopo.pdf|Rapport Consultant]] - [[Media:PatternDesign.pdf | '''Design Pattern''']] - [[Media:PresentationInteractiveDisplay.pdf|Présentation Intermédiaire]] <br />
|-<br />
<br />
!scope="row"| 4<br />
| [[Sonotone]]<br />
| LECORPS, VOUTAT, Hattinguais <br />
| Maisonnasse, Richard<br />
| [[Projets-2015-2016-Sonotone| '''Fiche''']] - [[Projets-2015-2016-Sonotone-SRS | '''SRS''']] - [[Projets-2015-2016-Sonotone-UML | '''UML''']]<br />
| [https://github.com/Gorgorot38/Sonotone-RICM4 '''github''']<br />
| [[Media:RapportProjetf.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet3.pdf|Flyer]] - [[Media:SRS_Consultant_Sonotone_4.pdf|Rapport_Consultant]] - [[Media:pattern_sonotone.pdf|Pattern]] - [[Media:Soutenance.pdf|Soutenance_miparcours]]<br />
|-<br />
<br />
!scope="row"| 5<br />
| [[Sous-titre_en_temps_r%C3%A9el_d%27un_cours| Sous-titre d'un cours en temps réel]]<br />
| LECHEVALLIER, BUI, OUNISSI <br />
| Maisonnasse<br />
| [[LiveSubtitles| '''Fiche''']]<br />
| [https://github.com/Lechevallier/RealTimeSubtitles '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet4.pdf|Flyer]] - [[Media: SRS_Groupe_5.pdf| Rapport Consultant]]<br />
|-<br />
<br />
!scope="row"| 6<br />
| [[GrenobloisFuté]]<br />
| MOURET, DELAPORTE, Lucidarme<br />
| Nicolas Palix<br />
| [[GrenobleFuté| '''Fiche''']] - [[SRS - GrenobloisFuté | '''SRS''']] <br />
| [https://github.com/Lucidarme/Osmand.git '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProjet.pdf|Transparents]] - [[Media:FlyerProjet5.pdf|Flyer]] - [[Media:gl_G14.pdf|Rapport Consultant]]<br />
|-<br />
<br />
!scope="row"| 7<br />
| [[Streaming en stéréoscopie]]<br />
| ZHAO ZILONG, HAMMOUTI<br />
| Maisonnasse<br />
| [[Projets-2015-2016-Streaming-Stereoscopie| '''Fiche''']] - [[SRS - Streaming en stéréoscopie | '''SRS''']] <br />
| [https://github.com/zhao-zilong/streaming_stereo '''github''']<br />
| [[Media:RapportProjet1.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet6.pdf|Flyer]] - [[Media:bruel_medewou_ndiaye.pdf|Rapport_consultant]] - [[Media:streaming.pdf|mi-parcours]]<br />
|-<br />
<br />
!scope="row"| 8<br />
| [[PersyCup2016]]<br />
| BIN, ZEGAOUI, ELLAPIN <br />
| Donsez, Maisonnasse<br />
| [[PersyCup| '''Fiche''']]<br />
| [https://github.com/legominstorm/lego '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet7.pdf|Flyer]] - [[Media:SoutenanceMiParcours-Persycup2016.pdf|Soutenance Mi-parcours]]<br />
|-<br />
<br />
!scope="row"| 9<br />
| [[Services étendus pour le modèle de composants iPOPO pour Python]]<br />
| FOUNAS, HALLAL, GATTAZ <br />
| Calmant & Donsez<br />
| [[Proj-2015-2016-Extensions_IPOPO | '''Fiche''']] - [[Proj-2015-2016-Extensions_IPOPO/SRS | '''SRS''']] - [[Proj-2015-2016-Extensions_IPOPO/UML | '''UML''']] <br />
| [https://github.com/abdelazizFounas/ipopo/tree/tlsremote '''github IPOPO'''] <br /> [https://github.com/gattazr/IPOPO-Remote-Client '''github IPOPO Client''']<br />
| [[Media:9_RapportProjet9.pdf|Rapport]] - [[Media:9_TransparentsProojet.pdf|Transparents]] - [[Media:9_FlyerProjet8.pdf|Flyer]] - [[Media:3-SRS-Pres.pdf| Rapport Consultant]] - [[Media:9_PatternStrat.pdf|Pattern Design]] - [[Media:9_Mid-Presentation.pdf|Mid Presentation]] - [[Media:9_Gantt.pdf|Gantt]]<br />
|-<br />
<br />
!scope="row"| 10<br />
| [[IndoorGeoloc2016]]<br />
| ARRADA - CRASTES - FAURE - STOIAN <br />
| Donsez<br />
| [[Proj-2015-2016-IndoorGeoloc/Fiche| '''Fiche''']] - [[Proj-2015-2016-IndoorGeoloc/SRS|SRS]]<br />
| [https://github.com/QuentinFA/Geoloc_Indoor '''github''']<br />
| [[Media:Proj-2015-2016-IndoorGeoloc/RapportProjet.pdf|Rapport]] - [[Media:Proj-2015-2016-IndoorGeoloc/TransparentsProjet.pdf|Transparents]] - [[Media:Proj-2015-2016-IndoorGeoloc/FlyerProjet9.pdf|Flyer]] - [[Media: SRSGroupe17.pdf| Rapport Consultant]] - [[Media:Mi_parcours.pdf|Mid presentation]]<br />
|-<br />
<br />
!scope="row"| 11<br />
| [[UPnPOpenHAB2016]]<br />
| Medewou , Ndiaye Yacine , Bruel Anna <br />
| Didier Donsez<br />
| [[Proj-Openhab-2016| '''Fiche''']] - [[Proj-2015-2016-Int%C3%A9gration_de_cam%C3%A9ra_de_surveillance_UPnP_%C3%A0_Openhab/SRS| '''SRS''']] - [[Proj-Openhab/UML| '''UML''']]<br />
| [https://github.com/openHab-UPnP '''github''']<br />
| [[Media:RapportProjet111.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet10.pdf|Flyer]] - [[Media:FlyerProjetAnglais111.pdf|EnglishFlyer]] - [[Media:gl_ZHAO_HAMMOUTI.pdf|Rapport Consultant]] - [[Media:pattern_ZHAO_HAMMOUTI.pdf|Patterns]] - [[Media:fichier.pdf|Mini soutenance]]<br />
|-<br />
<br />
!scope="row"| 12<br />
| [[Sign2Speech]]<br />
| NIOGRET, NOGUERON, TITH<br />
| Didier Donsez<br />
| [[sign2speech_ricm4_2015_2016| '''Fiche''']] - [[SRS - Sign2Speech | '''SRS''']] - [[UML | '''UML''']]<br />
| [https://github.com/SignToSpeech-Project '''github''']<br />
| [[Media:RapportProjet12.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet11_Sign2Speech_2015-2016.pdf|Flyer]] - [[Media:12-Sign2Speech-RapportConsultant.pdf|Rapport Consultant]] - [[Media:12-Sign2Speech-MidPres.pdf|Mid presentation]]<br />
|-<br />
<br />
!scope="row"| 13<br />
| [[AstroImage]] <br />
| RACHEX, BLANC, GERRY<br />
| Olivier Richard et Bruno Bzeznik<br />
| [[Proj-2015-2016-Astroimage/Fiche| '''Fiche''']] - [[AstroImage/SRS | '''SRS''']] - [[Media:AstroImage-UML.pdf | '''UML''']]<br />
| [https://github.com/nicolas-blanc/AstroImage '''github''']<br />
| [[Media:RapportProjet13.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet12.pdf|Flyer]] - [[Media:13-AstroImage-RapportConsultant.pdf|Rapport Consultant]] - [https://docs.google.com/presentation/d/15F8DRktwmOuSNabdxMASniyr-TIiRzGNNG1mOhcoSnk/edit?usp=sharing '''Patterns''']<br />
|-<br />
<br />
!scope="row"| 14<br />
| [[Tachymètre]]<br />
| MACE, NOUGUIER, RAMEL<br />
| Olivier Gattaz<br />
| [[Fiche - Tachymètre | '''Fiche''']] - [[SRS - Tachymètre| '''SRS''']] - [[UML - Tachymètre| '''UML''']]<br />
| [https://github.com/Quego/Tachymetre '''github - Tachymètre''']<br />
| [[Media:Projet_Tachym%C3%A8tre_-_MACE_NOUGUIER_RAMEL.pdf|Rapport]] - [[Media:Pr%C3%A9sentation_projet_Tachym%C3%A8tre_-_MACE_NOUGUIER_RAMEL.pdf|Transparents]] - [[Media:FlyerProjet13.pdf|Flyer]] - [[Media:srs_tachymetre.pdf|Rapport consultant]] - [[Media:14_PatternDesign.pdf | Pattern Design]] - [[Media:Tachymetre_Presentation.pdf | Présentation de milieu de projet]]<br />
|-<br />
<br />
!scope="row"| 15<br />
| [[SmartProjector]]<br />
| BRANGER, HABLOT<br />
| Donsez, Maisonnasse<br />
| [[Fiche_SmartProjector_ricm4_2015_2016| '''Fiche''']] - [[SRS - SmartProjector| '''SRS''']] - [[UML - SmartProjector| '''UML''']]<br />
| [https://github.com/P0ppoff/SmartProjector '''github''']<br />
| [[Media:Expose_final|Rapport]] - [[Media:PresentationPorjet.pdf|Transparents]] - [[Media:Flyer_SmartProjector.pdf|Flyer]] - [[Media:Gl_groupe16.pdf|Rapport Consultant]] - [http://air.imag.fr/index.php/Patron_de_conception_-_SmartProjector patterns]<br />
|-<br />
<br />
|}<br />
<br />
===Liste de projets===<br />
<br />
* [[Dashboard pour gestionnaire de tâches et de ressources]], Olivier Richard<br />
* [[Moteur distribué d'exécution de commande]], Olivier Richard<br />
* [[Environnement d'expérimentation de pour NVIDIA Shield (Tegra X1)]], Olivier Richard <br />
* [[Speeding Simplified Script Language]], Olivier Richard<br />
<br />
* Aide (Open-Source)au Handicap Auditif, avec Didier Donsez, Jérome Maisonnasse, Marie-Paule Balicco (SAH UGA) et Nicolas Vuillerme<br />
** [[Borne interactive]] (1 sujet)<br />
** [[Sonotone]] (1 sujet)<br />
** [[Sous-titre en temps réel d'un cours]] (1 sujet)<br />
* [[GrenobloisFuté]] Couche trafic sur OsmAnd avec un greffon. Données dynamique de la métro. Dvp Android. Nicolas Palix.<br />
* [[GeoDiff]] Production, visualisation, fusion de variations (diff) sur de l'information géocodée : Nicolas Palix<br />
* [[Smart campus augmenté et contributif]] Didier Donsez, Vivien Quema<br />
<br />
* [[Streaming en stéréoscopie]] sur [[WebRTC]] avec rendu sur [[Oculus]] pour le robot [[RobAIR]], Jérôme Maisonnasse. ([http://gstconf.ubicast.tv/videos/stereoscopic-3d-video/ voir]).<br />
* [[STM32F7]] : Mise en oeuvre de la chaîne de compilation sous Linux avec [[OpenSTM32]] et [[OpenOCD]]. Nicolas Palix<br />
* [[PersyCup2016]] : Persyval Robocup, Didier Donsez, Vivien Quema, Jérome Maisonnasse. (3 étudiants)<br />
* [[Services étendus pour le modèle de composants iPOPO pour Python]], Didier Donsez & Thomas Calmant. (2 étudiants)<br />
* [[SmartClassRoom2016|Développement d'une interface partagée pour tables tactiles (projet SmartClassRoom)]], Didier Donsez, Jérôme Maisonnasse. (2 étudiants)<br />
* [[iRock2016|iRock : surveillance de glissement de terrains]], Didier Donsez & Vivien Quema<br />
* [[IndoorGeoloc2016|Géolocalisation in-door au moyen de balises (beacon) BLE et Wifi à base de STM32 et de balises iBeacon & AltBeacon]], Didier Donsez & Vivien Quema<br />
* [[UPnPOpenHAB2016|Intégration et gestion de caméras de surveillance UPnP dans la plateforme domotique open-source OpenHAB et myOpenHAB]], Didier Donsez & Jérome Maisonnasse.<br />
<br />
'''Projets non prioritaires'''<br />
<br />
* [[Liveprogramming with Kivy]], Olivier Richard<br />
* [[AstroImage]] production d'image d'astronomie, Olivier Richard et Bruno Bzeznik<br />
* [[G-code Cruncher]] Controle de machine CNC (Nucleo grbl + esp8266 + Sdcard), Olivier Richard<br />
* [[Intégration OpenHAB / OpenTele]] Nicolas Palix<br />
<br />
==RICM5==<br />
<br />
===Projet Semestre S10===<br />
<br />
Enseignant responsable : Didier Donsez<br />
<br />
Démarrage : Lundi 25/01 à 10H30-12H30, P253 (Rendez-vous devant la salle AIR) - Visioconf pour Thibaut Cordier<br />
<br />
Soutenance : Jeudi 17/03 à 13H00-17H00, salle P043 (Polytech Grenoble)puis en salle C005 (Batiment C) <br />
<br />
Etudiants : RICM5 + 8 étudiants Avosti DUT RT<br />
<br />
Rappel séances MPI<br />
* Séance 1 : mardi 26 janvier après midi - Stéphanie Diligent<br />
* Séance 2 : mardi 2 février après midi - Stéphanie Diligent<br />
* Séance 3 : lundi 8 février matin - Emmanuelle Tréhoust<br />
* Séance 4 : jeudi 11 février matin - Emmanuelle Tréhoust<br />
* Séance 5 : lundi 21 mars matin - Stéphanie Diligent et Emmanuelle Tréhoust<br />
<br />
=====Soutenances=====<br />
Planning:<br />
* Bossa (13H00-13H40 en salle P043)<br />
* Immersion EDF (13H45-14H25 en salle P043)<br />
* IaaS Docker (14H30-15H10 en salle P043)<br />
* SmartCampus (15H15-15H55 en salle P043 et salle P259 AIR)<br />
* SmartClassRoom (16H15-16H55 en C005)<br />
* Pot d' "Au Revoir" (17H00-1800 en C005)<br />
<br />
Instructions:<br />
*Chaque soutenance comporte 15 minutes de présentation, 15 minutes de démonstration et 10 minutes de questions. Un transparent doit être consacré au travail confié et réalisé par les étudiants en DUT (AVOSTI).<br />
* Répétez plusieurs fois votre présentation et votre démonstration.<br />
* L'ensemble des documents (y compris photos, vidéos et ''[[Logiciels#Screencast|screencast]]s'') doivent être accessibles depuis le tableau ci-dessous et dans chaque fiche de suivi. Prévoyez une copie sur clé USB.<br />
* Les étudiants vous accompagnent lors de votre soutenance.<br />
* '''TOUT Le matériel prêté devra être rapporté et restitué dans un sac cabas lors de la soutenance.'''<br />
<br />
=====Projets=====<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM5 2015-2016<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Dépot git<br />
!scope="col"| Documents<br />
|-<br />
<br />
!scope="row"| 1<br />
| [http://air.imag.fr/index.php/IaaS_collaboratif_avec_Docker IaaS - Docker]<br />
| Eudes Robin, Damotte Alan, Barthelemy Romain, Mammar Malek, Guo Kai<br />
| Didier Donsez<br />
| [[Projets-2015-2016-IaaS_Docker| '''Fiche''']] - [[Projets-2015-2016-IaaS_Docker-SRS| '''SRS''']]<br />
| [https://github.com/EudesRobin/iaas-collaboratif '''github''']<br />
| [[Media:RapportMPI_Iaas.pdf|Rapport MPI]] - [[Media:Transparents_IaaS.pdf|Transparents]] - [[Media:Flyer_IaaS.pdf|Flyer]] - [https://youtu.be/qtqgZNrgcRc '''Screencast''']<br />
|-<br />
!scope="row"| 2<br />
| [http://air.imag.fr/index.php/Portage_de_Bossa Portage de Bossa sur le Kernel Linux 4x]<br />
| Eric Michel Fotsing, Ombeline Rossi, Longfei Yao<br />
| Nicolas Palix, Didier Donsez<br />
| [[Projets-2015-2016-Portage_Bossa| '''Fiche''']] - [[Projets-2015-2016-Portage_Bossa-SRS| '''SRS''']]<br />
| Private repository<br />
| [[Media:Rapport_Bossa.pdf|Rapport]] - [[Media:Transparents_Bossa.pdf|Transparents]] - [[Media:Flyer_Bossa.pdf|Flyer]] - Photos - Vidéos <br />
|-<br />
<br />
!scope="row"| 3<br />
| [[Visite immersive en réalité virtuelle dans une usine avec EDF]]<br />
| Adam Christophe, Aissanou Sarah, Klipffel Tararaina, Qian Jean, Zominy Laurent<br />
| Didier Donsez, Georges-Pierre Bonneau, Thibaut Cordier (EDF)<br />
| [[Projets-2015-2016-VisiteImmersiveEDF| '''Fiche''']]<br />
| [https://github.com/VisiteImmersiveEDF '''github''']<br />
| [[Media:RapportProjetX.pdf|Rapport]] - [[Media:TransparentsProojetX.pdf|Transparents]] - [[Media:FlyerProjetX.pdf|Flyer]] - Photos - Vidéos<br />
|-<br />
<br />
!scope="row"| 4<br />
| [[Contribution à OpenSmartCampus]] (voir http://data.beta.metropolegrenoble.fr/)<br />
| Quentin Torck, Vivien Michel, Jérémy Hammerer, Rama Codazzi, Zhengmeng Zhang<br />
| Didier Donsez, Vivien Quéma<br />
| [[Projets-2015-2016-OpenSmartCampus| '''Fiche''']]<br />
| [https://github.com/quentin74/SmartCampus.git '''github''']<br />
| [[Media:RapportProjetOpenSmartCampus2016.pdf|Rapport]] - [[Media:TransparentsProojetOpenSmartCampus2016.pdf|Transparents]] - [[Media:FlyerProjetOpenSmartCampus2016.pdf|Flyer]] - Photos - Vidéos<br />
|-<br />
<br />
!scope="row"| 5<br />
| [[Contribution à SmartClassRoom]] (Interfaces tactiles distribuées et partagées)<br />
| Saussac Thibault, Toussaint Sébastien, Hamdani Youcef, Zoppello Sebastien, Melik sak, Mesnier Vincent<br />
| Jérôme Maisonnasse, Didier Donsez<br />
| [[Projets-2015-2016-SmartClassRoom| '''Fiche''']] - [[Projets-2015-2016-SmartClassRoom/SRS| '''SRS''']]<br />
| [https://github.com/vince0508/SmartClassroom-TiledDisplayPart-master_Main '''github''']<br />
| [[Media:RapportProjetSmartClassRoom.pdf|Rapport]] - [[Media:TransparentsProjetSmartClassRoom.pdf|Transparents]] - [[Media:FlyerProjetSmartClassRoom.pdf|Flyer]] - [https://youtu.be/FEwoA4S9rsM '''Screencast/Vidéo''']<br />
|-<br />
<br />
<br />
|}<br />
<br />
===Projets annulés et reportés===<br />
* Projet avec [[Tango Project]] (Annulé)<br />
* Hack the Beam, Didier Donsez & Jérôme Maisonnasse.<br />
* [[Algorithmes de suivi de personnes pour robot de téléprésence RobAIR]] (Jérôme Maisonnasse, Didier Donsez)<br />
<br />
=M2PGI=<br />
==[[Projets M2PGI Services Machine-to-Machine|Projet Services Machine-to-Machine]]==<br />
* [[PM2M/2016/TP|Sujet et groupes]]</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=File:FlyerProjet11_Sign2Speech_2015-2016.pdf&diff=28847File:FlyerProjet11 Sign2Speech 2015-2016.pdf2016-04-05T15:09:46Z<p>Matthieu.Nogueron: Flyer for project Sign2Speech</p>
<hr />
<div>Flyer for project Sign2Speech</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=SRS_-_Sign2Speech&diff=28764SRS - Sign2Speech2016-04-05T08:48:00Z<p>Matthieu.Nogueron: /* Operating environment */</p>
<hr />
<div>= Introduction =<br />
<br />
== Purpose of the requirements document ==<br />
This Software Requirements Specification (SRS) identifies the requirements for project "Sign2Speech". This is an open source projet and we shall present what we did for this project in case to catch interest of new potential contributors. This document is a guideline about the functionalities offered and the problems that the system solve.<br />
<br />
== Scope of the product ==<br />
Sign2Speech could be used at reception desks or during video conferences to allow signing people to speak with people who don't know the French Sign Language.<br />
The main point of this project is to use Intel's Real Sense camera to recognize gestures from the French Sign Language to offer a new means of communication.<br />
The program will be able to transcribe gestures, done by a signing person, into written words, printed on the screen of the person who doesn't know the FSL. This communication will be made via a chat application working on WebRTC. <br />
<br />
== Glossary ==<br />
* FSL: French Sign Language<br />
* JSON: Javascript Object Notation . We use this format to store our dictionary.<br />
<br />
== References ==<br />
* https://software.intel.com/sites/landingpage/realsense/camera-sdk/v1.1/documentation/html/index.html?doc_manuals_sdk_algorithms.html<br />
* http://rapidjson.org/index.html<br />
<br />
== Overview of the remainder of the document ==<br />
<br />
In the remainder of the document, the general description of the software will be exposed. The requirements (functional and non-functional) will be specified in another part.<br />
The document will end with the product evolution, the appendices and the index.<br />
<br />
= General Description=<br />
== Product perspective ==<br />
<br />
The main aim of our project is to help speechless people to communicate with other people. In this case, we develop a software able to recognize and analyze the sign language to retranscribing it in writting.<br />
<br />
== Product functions ==<br />
<br />
Our product is able to understand a sign from the hand and to analyze and show the corresponding word on a screen.<br />
<br />
== User characteristics ==<br />
There is two types of users for the application:<br />
* The first user (User1) knows the FSL,<br />
* The second user (User2) doesn't understand the FSL<br />
They both want to communicate together. User1 will stand in the front of the camera and will sign while User2 will watch the monitor to see the translation of the gestures. He will be able to reply using the messaging chat.<br />
<br />
== Operating environment ==<br />
The camera's SDK only works on Windows. A good Internet connection is also required for the chat application, which only works with Mozilla Firefox due to restriction on Chrome (WebRTC needs a HTTPS connection) and other browser doesn't provide a full support of WebRTC.<br />
The user must not use a hotspot or a connection wich is under a complex NAT. The connection process for WebRTC will struggle to pass through the NAT and will send back an error message.<br />
<br />
== General constraints ==<br />
Of course, the user needs to have Intel's Real Sense camera.<br />
We have reported different factors that have a negative consequence on the hand tracking process:<br />
* The user must not wear bracelets or rings,<br />
* The user should, as much as possible, use the camera under natural light, rather than artificial light sources,<br />
* The user must wear a monochrome top that contrasts with the color of the skin.<br />
These elements can reduce the errors and make the tracking better, but it still won’t be perfect because of the imprecisions of the camera themselves.<br />
<br />
== Assumptions and dependencies ==<br />
<br />
= Specific requirements, covering functional, non-functional and interface requirements =<br />
* document external interfaces,<br />
* describe system functionality and performance<br />
* specify logical database requirements,<br />
* design constraints,<br />
* emergent system properties and quality characteristics.<br />
<br />
== Requirement ==<br />
'''Function''':<br />
<br />
'''Description''': <br />
<br />
'''Inputs''': <br />
<br />
'''Source''': <br />
<br />
'''Outputs''': <br />
<br />
'''Destination''': <br />
<br />
'''Action''':<br />
* Natural language sentences (with MUST, MAY, SHALL)<br />
* Graphical Notations : UML Sequence w/o collaboration diagrams, Process maps, Task Analysis (HTA, CTT)<br />
* Mathematical Notations<br />
* Tabular notations for several (condition --> action) tuples<br />
<br />
'''Non functional requirements''':<br />
<br />
'''Pre-condition''':<br />
<br />
'''Post-condition''':<br />
<br />
'''Side-effects''':<br />
<br />
<br />
= Product Evolution =<br />
<br />
<br />
= Appendices =<br />
<br />
<br />
= Index =</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=SRS_-_Sign2Speech&diff=28762SRS - Sign2Speech2016-04-05T08:44:19Z<p>Matthieu.Nogueron: /* Operating environment */</p>
<hr />
<div>= Introduction =<br />
<br />
== Purpose of the requirements document ==<br />
This Software Requirements Specification (SRS) identifies the requirements for project "Sign2Speech". This is an open source projet and we shall present what we did for this project in case to catch interest of new potential contributors. This document is a guideline about the functionalities offered and the problems that the system solve.<br />
<br />
== Scope of the product ==<br />
Sign2Speech could be used at reception desks or during video conferences to allow signing people to speak with people who don't know the French Sign Language.<br />
The main point of this project is to use Intel's Real Sense camera to recognize gestures from the French Sign Language to offer a new means of communication.<br />
The program will be able to transcribe gestures, done by a signing person, into written words, printed on the screen of the person who doesn't know the FSL. This communication will be made via a chat application working on WebRTC. <br />
<br />
== Glossary ==<br />
* FSL: French Sign Language<br />
* JSON: Javascript Object Notation . We use this format to store our dictionary.<br />
<br />
== References ==<br />
* https://software.intel.com/sites/landingpage/realsense/camera-sdk/v1.1/documentation/html/index.html?doc_manuals_sdk_algorithms.html<br />
* http://rapidjson.org/index.html<br />
<br />
== Overview of the remainder of the document ==<br />
<br />
In the remainder of the document, the general description of the software will be exposed. The requirements (functional and non-functional) will be specified in another part.<br />
The document will end with the product evolution, the appendices and the index.<br />
<br />
= General Description=<br />
== Product perspective ==<br />
<br />
The main aim of our project is to help speechless people to communicate with other people. In this case, we develop a software able to recognize and analyze the sign language to retranscribing it in writting.<br />
<br />
== Product functions ==<br />
<br />
Our product is able to understand a sign from the hand and to analyze and show the corresponding word on a screen.<br />
<br />
== User characteristics ==<br />
<br />
Mainly, you will need one user that master sign language and another that doesn't know how to understand it.<br />
The first one will stand in the front of the camera and will speak with sign langage and the other one will watch the monitor to see the translation.<br />
<br />
== Operating environment ==<br />
The camera's SDK only works on Windows. A good Internet connection is also required for the chat application, which only works with Mozilla Firefox due to restriction on Chrome (WebRTC needs a HTTPS connection).<br />
The user must not use a hotspot or a connection wich is under a complex NAT. The connection process for WebRTC will struggle to pass through the NAT and will send back an error message.<br />
<br />
== General constraints ==<br />
Of course, the user needs to have Intel's Real Sense camera.<br />
We have reported different factors that have a negative consequence on the hand tracking process:<br />
* The user must not wear bracelets or rings,<br />
* The user should, as much as possible, use the camera under natural light, rather than artificial light sources,<br />
* The user must wear a monochrome top that contrasts with the color of the skin.<br />
These elements can reduce the errors and make the tracking better, but it still won’t be perfect because of the imprecisions of the camera themselves.<br />
<br />
== Assumptions and dependencies ==<br />
<br />
= Specific requirements, covering functional, non-functional and interface requirements =<br />
* document external interfaces,<br />
* describe system functionality and performance<br />
* specify logical database requirements,<br />
* design constraints,<br />
* emergent system properties and quality characteristics.<br />
<br />
== Requirement ==<br />
'''Function''':<br />
<br />
'''Description''': <br />
<br />
'''Inputs''': <br />
<br />
'''Source''': <br />
<br />
'''Outputs''': <br />
<br />
'''Destination''': <br />
<br />
'''Action''':<br />
* Natural language sentences (with MUST, MAY, SHALL)<br />
* Graphical Notations : UML Sequence w/o collaboration diagrams, Process maps, Task Analysis (HTA, CTT)<br />
* Mathematical Notations<br />
* Tabular notations for several (condition --> action) tuples<br />
<br />
'''Non functional requirements''':<br />
<br />
'''Pre-condition''':<br />
<br />
'''Post-condition''':<br />
<br />
'''Side-effects''':<br />
<br />
<br />
= Product Evolution =<br />
<br />
<br />
= Appendices =<br />
<br />
<br />
= Index =</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=28745Sign2speech ricm4 2015 20162016-04-04T20:55:09Z<p>Matthieu.Nogueron: /* Semaine 11 (28 Mars - 03 Avril) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
<br />
* Compréhension du code précédemment fait<br />
* Décision de repasser sur un code nouveau face aux incompatibilités avec le nouvel SDK<br />
* Mise en place d'un Scrum Board sur Trello<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
<br />
* Ecriture des [[patrons de conception - S2S]] par HABLOT Jules et BRANGER Matthias (nous avons fait le leur en retour)<br />
* Début de l'implémentation du dictionnaire et du serveur de négociation WebRTC (signalling server - utilisation de [http://wisdom-framework.org/ '''Wisdom Framework'''])<br />
* Implémentation d'un chat sous WebRTC avec affichage de "sous-titres"<br />
* Implémentation d'un parser JSON pour remplir le dictionnaire (lecture seulement)<br />
<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
<br />
[[File:Trello_15_02_s2s.png|300px|right|Scrum Board au début de la semaine 5]]<br />
<br />
* Chat en WebRTC avec sous-titre fonctionnel<br />
* Implémentation finale du parser avec l'écriture d'un dictionnaire dans un fichier JSON<br />
* Reconnaissance basique de gestes (poing, victoire, signe des cornes)<br />
<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
<br />
* Implémentation d'un système de reconnaissance plus générique<br />
* Réflexion sur les moyens permettant de diminuer les erreurs de la caméra<br />
* Recherche d'une librairie C++ permettant la mise en œuvre de Websocket pour la communication avec le serveur<br />
<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
<br />
* Interface utilisateur<br />
* Communication entre le dictionnaire, le parser et la reconnaissance pour reconnaître les mots du dictionnaire<br />
* Implémentation de la communication par WebSockets en C++<br />
* Reconnaissance des jours de la semaine (sauf dimanche) <br />
<br />
Problèmes/difficultés :<br />
* Utilisation des WebSockets en C++ : multitude de librairies, exemples très peu expliqués<br />
* Impossibilité de lancer le programme sous Chrome à cause de la nécessité de lancer la page en HTTPS ce qui implique la demande d'un certificat SSL<br />
<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
<br />
* Soutenance intermédiaire<br />
<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
<br />
* Ajout de bits supplémentaires dans l'encodage pour intégrer les trajectoires. Un symbole est maintenant composé de 18 bits au lieu de 10.<br />
* Implémentation des trajectoires : rectiligne (vertical, horizontal, diagonal) et elliptique<br />
* Mise en place du calcul d'erreur pour trouver dans le dictionnaire le signe qui ressemble le plus à celui reconnu par la caméra, pour faire face au manque de précision de cette dernière<br />
* Implémentation de la fonctionnalité "tchat écrit"<br />
* Déploiement du serveur web sur une VM Amazon<br />
<br />
Problèmes et difficultés :<br />
* Définir des marges d'erreur correctes pour qu'une trajectoire soit acceptée ou non (la trajectoire verticale est souvent reconnue comme étant une ellipse partielle si le mouvement n'est pas exactement rectiligne)<br />
* Les demi ellipses sont reconnues, mais nous avons beaucoup plus de mal avec les ellipses complètes<br />
* Calibrage du taux d'erreur (définition du poids pour les différents types d'erreurs en fonction de leur importance et du seuil d'erreur à partir duquel on considère qu'il est correct d'accepter un geste)<br />
<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
<br />
* Réflexion et implémentation du "mode apprentissage"<br />
* Amélioration de la gestion des erreurs lors de la récupération de nouvelles frames<br />
<br />
Difficultés rencontrées :<br />
<br />
* La caméra est trop imprécise lors des captures. En apprentissage, nous n'avons pas de modèle de référence permettant de connaître à l'avance le "geste parfait" qui aurait dû être reconnu. La correction d'erreur est donc beaucoup plus délicate qu'en "mode reconnaissance".<br />
<br />
== Semaine 12 (04 Avril - 10 Avril) ==<br />
<br />
* Derniers tests<br />
* Mise au propre du code<br />
* Rédaction du rapport<br />
* Création des flyers<br />
* Préparation de la soutenance finale (Powerpoint + démonstration)</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=27401Sign2speech ricm4 2015 20162016-02-28T22:01:56Z<p>Matthieu.Nogueron: /* Semaine 8 (07 Mars - 13 Mars) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
<br />
* Compréhension du code précédemment fait<br />
* Décision de repasser sur un code nouveau face aux incompatibilités avec le nouvel SDK<br />
* Mise en place d'un Scrum Board sur Trello<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
<br />
* Ecriture des [[patrons de conception - S2S]] par HABLOT Jules et BRANGER Matthias (nous avons fait le leur en retour)<br />
* Début de l'implémentation du dictionnaire et du serveur de négociation WebRTC (signalling server - utilisation de [http://wisdom-framework.org/ '''Wisdom Framework'''])<br />
* Implémentation d'un chat sous WebRTC avec affichage de "sous-titres"<br />
* Implémentation d'un parser JSON pour remplir le dictionnaire (lecture seulement)<br />
<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
<br />
[[File:Trello_15_02_s2s.png|300px|right|Scrum Board au début de la semaine 5]]<br />
<br />
* Chat en WebRTC avec sous-titre fonctionnel<br />
* Implémentation finale du parser avec l'écriture d'un dictionnaire dans un fichier JSON<br />
* Reconnaissance basique de gestes (poing, victoire, signe des cornes)<br />
<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
<br />
* Implémentation d'un système de reconnaissance plus générique<br />
* Réflexion sur les moyens permettant de diminuer les erreurs de la caméra<br />
* Recherche d'une librairie C++ permettant la mise en œuvre de Websocket pour la communication avec le serveur<br />
<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
<br />
* Soutenance intermédiaire<br />
<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=27400Sign2speech ricm4 2015 20162016-02-28T22:01:40Z<p>Matthieu.Nogueron: /* Semaine 7 (29 Février - 06 Mars) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
<br />
* Compréhension du code précédemment fait<br />
* Décision de repasser sur un code nouveau face aux incompatibilités avec le nouvel SDK<br />
* Mise en place d'un Scrum Board sur Trello<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
<br />
* Ecriture des [[patrons de conception - S2S]] par HABLOT Jules et BRANGER Matthias (nous avons fait le leur en retour)<br />
* Début de l'implémentation du dictionnaire et du serveur de négociation WebRTC (signalling server - utilisation de [http://wisdom-framework.org/ '''Wisdom Framework'''])<br />
* Implémentation d'un chat sous WebRTC avec affichage de "sous-titres"<br />
* Implémentation d'un parser JSON pour remplir le dictionnaire (lecture seulement)<br />
<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
<br />
[[File:Trello_15_02_s2s.png|300px|right|Scrum Board au début de la semaine 5]]<br />
<br />
* Chat en WebRTC avec sous-titre fonctionnel<br />
* Implémentation finale du parser avec l'écriture d'un dictionnaire dans un fichier JSON<br />
* Reconnaissance basique de gestes (poing, victoire, signe des cornes)<br />
<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
<br />
* Implémentation d'un système de reconnaissance plus générique<br />
* Réflexion sur les moyens permettant de diminuer les erreurs de la caméra<br />
* Recherche d'une librairie C++ permettant la mise en œuvre de Websocket pour la communication avec le serveur<br />
<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=27399Sign2speech ricm4 2015 20162016-02-28T22:01:24Z<p>Matthieu.Nogueron: /* Semaine 6 (22 Février - 28 Février) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
<br />
* Compréhension du code précédemment fait<br />
* Décision de repasser sur un code nouveau face aux incompatibilités avec le nouvel SDK<br />
* Mise en place d'un Scrum Board sur Trello<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
<br />
* Ecriture des [[patrons de conception - S2S]] par HABLOT Jules et BRANGER Matthias (nous avons fait le leur en retour)<br />
* Début de l'implémentation du dictionnaire et du serveur de négociation WebRTC (signalling server - utilisation de [http://wisdom-framework.org/ '''Wisdom Framework'''])<br />
* Implémentation d'un chat sous WebRTC avec affichage de "sous-titres"<br />
* Implémentation d'un parser JSON pour remplir le dictionnaire (lecture seulement)<br />
<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
<br />
[[File:Trello_15_02_s2s.png|300px|right|Scrum Board au début de la semaine 5]]<br />
<br />
* Chat en WebRTC avec sous-titre fonctionnel<br />
* Implémentation finale du parser avec l'écriture d'un dictionnaire dans un fichier JSON<br />
* Reconnaissance basique de gestes (poing, victoire, signe des cornes)<br />
<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
<br />
* Implémentation d'un système de reconnaissance plus générique<br />
* Réflexion sur les moyens permettant de diminuer les erreurs de la caméra<br />
* Recherche d'une librairie C++ permettant la mise en œuvre de Websocket pour la communication avec le serveur<br />
<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
*Soutenance intermédiaire<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=27398Sign2speech ricm4 2015 20162016-02-28T21:57:18Z<p>Matthieu.Nogueron: /* Semaine 6 (22 Février - 28 Février) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
<br />
* Compréhension du code précédemment fait<br />
* Décision de repasser sur un code nouveau face aux incompatibilités avec le nouvel SDK<br />
* Mise en place d'un Scrum Board sur Trello<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
<br />
* Ecriture des [[patrons de conception - S2S]] par HABLOT Jules et BRANGER Matthias (nous avons fait le leur en retour)<br />
* Début de l'implémentation du dictionnaire et du serveur de négociation WebRTC (signalling server - utilisation de [http://wisdom-framework.org/ '''Wisdom Framework'''])<br />
* Implémentation d'un chat sous WebRTC avec affichage de "sous-titres"<br />
* Implémentation d'un parser JSON pour remplir le dictionnaire (lecture seulement)<br />
<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
<br />
[[File:Trello_15_02_s2s.png|300px|right|Scrum Board au début de la semaine 5]]<br />
<br />
* Chat en WebRTC avec sous-titre fonctionnel<br />
* Implémentation finale du parser avec l'écriture d'un dictionnaire dans un fichier JSON<br />
* Reconnaissance basique de gestes (poing, victoire, signe des cornes)<br />
<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
<br />
* Implémentation d'un système de reconnaissance plus générique<br />
* Réflexion sur les moyens permettant de diminuer les erreurs de la caméra<br />
<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
*Soutenance intermédiaire<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=27397Sign2speech ricm4 2015 20162016-02-28T21:55:23Z<p>Matthieu.Nogueron: /* Semaine 5 (15 Février - 21 Février) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
<br />
* Compréhension du code précédemment fait<br />
* Décision de repasser sur un code nouveau face aux incompatibilités avec le nouvel SDK<br />
* Mise en place d'un Scrum Board sur Trello<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
<br />
* Ecriture des [[patrons de conception - S2S]] par HABLOT Jules et BRANGER Matthias (nous avons fait le leur en retour)<br />
* Début de l'implémentation du dictionnaire et du serveur de négociation WebRTC (signalling server - utilisation de [http://wisdom-framework.org/ '''Wisdom Framework'''])<br />
* Implémentation d'un chat sous WebRTC avec affichage de "sous-titres"<br />
* Implémentation d'un parser JSON pour remplir le dictionnaire (lecture seulement)<br />
<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
<br />
[[File:Trello_15_02_s2s.png|300px|right|Scrum Board au début de la semaine 5]]<br />
<br />
* Chat en WebRTC avec sous-titre fonctionnel<br />
* Implémentation finale du parser avec l'écriture d'un dictionnaire dans un fichier JSON<br />
* Reconnaissance basique de gestes (poing, victoire, signe des cornes)<br />
<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
*Soutenance intermédiaire<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=27396Sign2speech ricm4 2015 20162016-02-28T21:52:21Z<p>Matthieu.Nogueron: /* Semaine 5 (15 Février - 21 Février) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
<br />
* Compréhension du code précédemment fait<br />
* Décision de repasser sur un code nouveau face aux incompatibilités avec le nouvel SDK<br />
* Mise en place d'un Scrum Board sur Trello<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
<br />
* Ecriture des [[patrons de conception - S2S]] par HABLOT Jules et BRANGER Matthias (nous avons fait le leur en retour)<br />
* Début de l'implémentation du dictionnaire et du serveur de négociation WebRTC (signalling server - utilisation de [http://wisdom-framework.org/ '''Wisdom Framework'''])<br />
* Implémentation d'un chat sous WebRTC avec affichage de "sous-titres"<br />
* Implémentation d'un parser JSON pour remplir le dictionnaire (lecture seulement)<br />
<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
<br />
[[File:Trello_15_02_s2s.png|300px|right|Scrum Board au début de la semaine 5]]<br />
<br />
* Chat en WebRTC avec sous-titre fonctionnel<br />
*<br />
<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
*Soutenance intermédiaire<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Projets_2015-2016&diff=27395Projets 2015-20162016-02-28T21:47:40Z<p>Matthieu.Nogueron: /* Projet Semestre S8 */</p>
<hr />
<div><<[[Projets 2014-2015]] | [[Projets]] | [[Projets 2016-2017]]>><br />
=RICM=<br />
==RICM3==<br />
<br />
==RICM4==<br />
===Projet Semestre S8===<br />
<br />
Enseignants responsables : Olivier Richard, Didier Donsez<br />
<br />
<br />
* '''Evaluation à mi-parcours le lundi 7 mars''': Format: 10min (5min de présentation 3 slides au plus, 5min de discussion). Cette évaluation sera prise en compte dans la note finale.<br />
<br />
'''Consignes générales:'''<br />
<br />
* '''Vous devez être pro-actifs !!!''': Si des points sont pas ou mals spécifiés, vous le faîtes et vous justifiez vos choix. Pour les problèmes techniques éventuels vous pouvez: vous creusez la question, vous contactez l'auteur du code si il y a lieux, vous faites un rapport de bug ('''Attention:''' ca se prépare !), vous soumettez un patch, vous contactez l'enseignant ou la personne suivant le projet.<br />
<br />
* '''Vous devez maintenir une fiche de suivi de projet''': elle doit être mise à jour chaque semaine, elle rassemble les élements essentiels du projet, elle <br />
indique les évolutions du projet et présente sa feuille de route. '''Note:''' le nom de la fiche doit être composé du nom du projet et suffixé par ricm4_2015_2016.<br />
<br />
* '''Vous devez utiliser un logiciel de gestion de version''' pour vos développements comme [http://en.wikipedia.org/wiki/Git_%28software%29 git ] et nous vous conseillons d'utiliser le site [https://github.com github] pour l'hébergement de votre dépôt public.<br />
<br />
* Les document public (exemple sur github) doivent être rédigés en anglais (README, documentation, commentaires de code, nom de variables et de fonctions). Une bonnification sera accordée si le rapport et les transparents sont en anglais (la soutenance sera en francais).<br />
<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM4 2015-2016<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Dépot git<br />
|-<br />
<br />
!scope="row"| 1<br />
| [[Dashboard pour gestionnaire de tâches et de ressources]]<br />
| CROUZET, MATHIEU<br />
| Richard<br />
| [[Projets-2015-2016-DashBoard| '''Fiche''']]<br />
| [https://github.com/MatthieuCrouzet/Projet4A '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet.pdf|Flyer]] - [[Media:gl_groupe1.pdf|Rapport Consultant]] - [[Media:Paterns.pdf|Patterns]]<br />
|-<br />
<br />
!scope="row"| 2<br />
| [[Speeding Simplified Script Language]]<br />
| POPEK, BERTRAND-DALECHAMPS, WEI<br />
| Richard<br />
| [[Projets-2015-2016-SSSL| '''Fiche''']] - [[SSSL-UML| '''UML''']]<br />
| [https://github.com/FlorianPO/Speeding-Simplified-Script-Language.git '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet.pdf|Flyer]] - [[Media:Groupe2_AIR.pdf|Rapport Consultant]]<br />
|-<br />
<br />
!scope="row"| 3<br />
| [[Borne interactive]] <br />
| DUNAND - NAVARRO - REVEL<br />
| Maisonnasse<br />
| [[Projets-2015-2016-Borne-Interactive| '''Fiche''']] - [[Projets-2015-2016-Borne-Interactive-SRS | '''SRS''']]<br />
| [https://github.com/Kant73/InteractiveDisplay '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet.pdf|Flyer]] - [[Media:IPopo.pdf|Rapport Consultant]] - [[Media:PatternDesign.pdf | '''Design Pattern''']]<br />
|-<br />
<br />
!scope="row"| 4<br />
| [[Sonotone]]<br />
| LECORPS, VOUTAT, Hattinguais <br />
| Maisonnasse, Richard<br />
| [[Projets-2015-2016-Sonotone| '''Fiche''']] - [[Projets-2015-2016-Sonotone-SRS | '''SRS''']] <br />
| [https://github.com/Gorgorot38/Sonotone-RICM4 '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet.pdf|Flyer]] - [[Media:SRS_Consultant_Sonotone_4.pdf|Rapport_Consultant]] - [[Media:pattern_sonotone.pdf|Pattern]]<br />
|-<br />
<br />
!scope="row"| 5<br />
| [[Sous-titre en temps réel d'un cours]]<br />
| LECHEVALLIER, BUI, OUNISSI <br />
| Maisonnasse<br />
| [[Fiche| '''Fiche''']]<br />
| [https://github.com/xxx '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet.pdf|Flyer]] - [[Media: SRS_Groupe_5.pdf| Rapport Consultant]]<br />
|-<br />
<br />
!scope="row"| 6<br />
| [[GrenobloisFuté]]<br />
| MOURET, DELAPORTE, Lucidarme<br />
| Nicolas Palix<br />
| [[Fiche| '''Fiche''']]<br />
| [https://github.com/xxx '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet.pdf|Flyer]] - [[Media:gl_G14.pdf|Rapport Consultant]]<br />
|-<br />
<br />
!scope="row"| 7<br />
| [[Streaming en stéréoscopie]]<br />
| ZHAO ZILONG, HAMMOUTI<br />
| Maisonnasse<br />
| [[Projets-2015-2016-Streaming-Stereoscopie| '''Fiche''']] - [[SRS - Streaming en stéréoscopie | '''SRS''']] <br />
| [https://github.com/zhao-zilong/streaming_stereo '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet.pdf|Flyer]] - [[Media:bruel_medewou_ndiaye.pdf|Rapport_consultant]] <br />
|-<br />
<br />
!scope="row"| 8<br />
| [[PersyCup2016]]<br />
| BIN, ZEGAOUI, ELLAPIN <br />
| Donsez, Maisonnasse<br />
| [[PersyCup| '''Fiche''']]<br />
| [https://github.com/xxx '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet.pdf|Flyer]]<br />
|-<br />
<br />
!scope="row"| 9<br />
| [[Services étendus pour le modèle de composants iPOPO pour Python]]<br />
| FOUNAS, HALLAL, GATTAZ <br />
| Calmant & Donsez<br />
| [[Proj-2015-2016-Extensions_IPOPO | '''Fiche''']] - [[Proj-2015-2016-Extensions_IPOPO/SRS | '''SRS''']] <br />
| [https://github.com/xxx '''github''']<br />
| [[Media:9_RapportProjet.pdf|Rapport]] - [[Media:9_TransparentsProojet.pdf|Transparents]] - [[Media:9_FlyerProjet.pdf|Flyer]] - [[Media:3-SRS-Pres.pdf| Rapport Consultant]] - [[Media:9_PatternStrat.pdf|Pattern Design]]<br />
|-<br />
<br />
!scope="row"| 10<br />
| [[IndoorGeoloc2016]]<br />
| ARRADA - CRASTES - FAURE - STOIAN <br />
| Donsez<br />
| [[Proj-2015-2016-IndoorGeoloc/Fiche| '''Fiche''']] - [[Proj-2015-2016-IndoorGeoloc/SRS|SRS]]<br />
| [https://github.com/xxx '''github''']<br />
| [[Media:Proj-2015-2016-IndoorGeoloc/RapportProjet.pdf|Rapport]] - [[Media:Proj-2015-2016-IndoorGeoloc/TransparentsProjet.pdf|Transparents]] - [[Media:Proj-2015-2016-IndoorGeoloc/FlyerProjet.pdf|Flyer]] - [[Media: SRSGroupe17.pdf| Rapport Consultant]]<br />
|-<br />
<br />
!scope="row"| 11<br />
| [[UPnPOpenHAB2016]]<br />
| Medewou , Ndiyae Yacine , Bruel Anna <br />
| Didier Donsez & Jérome Maisonnasse<br />
| [[Proj-Openhab-2016| '''Fiche''']] - [[Proj-2015-2016-Int%C3%A9gration_de_cam%C3%A9ra_de_surveillance_UPnP_%C3%A0_Openhab/SRS| '''SRS''']] - [[Proj-Openhab/UML| '''UML''']]<br />
| [https://github.com/openHab-UPnP/projetAir2016.git '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet.pdf|Flyer]] - [[Media:gl_ZHAO_HAMMOUTI.pdf|Rapport Consultant]] - [[Media:pattern_ZHAO_HAMMOUTI.pdf|Patterns]]<br />
|-<br />
<br />
!scope="row"| 12<br />
| [[Sign2Speech]]<br />
| NIOGRET, NOGUERON, TITH<br />
| Didier Donsez<br />
| [[sign2speech_ricm4_2015_2016| '''Fiche''']] - [[SRS - Sign2Speech | '''SRS''']] - [[UML | '''UML''']]<br />
| [https://github.com/SignToSpeech-Project '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet.pdf|Flyer]] - [[Media:12-Sign2Speech-RapportConsultant.pdf|Rapport Consultant]]<br />
|-<br />
<br />
!scope="row"| 13<br />
| [[AstroImage]] <br />
| RACHEX, BLANC, GERRY<br />
| Olivier Richard et Bruno Bzeznik<br />
| [[Fiche| '''Fiche''']] - [[AstroImage/SRS | '''SRS''']] - [[Media:AstroImage-UML.pdf | '''UML''']] - [https://docs.google.com/presentation/d/15F8DRktwmOuSNabdxMASniyr-TIiRzGNNG1mOhcoSnk/edit?usp=sharing '''Patterns''']<br />
| [https://github.com/nicolas-blanc/AstroImage '''github''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet.pdf|Flyer]] - [[Media:13-AstroImage-RapportConsultant.pdf|Rapport Consultant]]<br />
|-<br />
<br />
!scope="row"| 14<br />
| [[Tachymètre]]<br />
| MACE, NOUGUIER, RAMEL<br />
| Olivier Gattaz<br />
| [[Fiche - Tachymètre | '''Fiche''']] - [[SRS - Tachymètre| '''SRS''']] - [[UML - Tachymètre| '''UML''']]<br />
| [https://github.com/Quego/Tachymetre '''github - Tachymètre''']<br />
| [[Media:RapportProjet.pdf|Rapport]] - [[Media:TransparentsProojet.pdf|Transparents]] - [[Media:FlyerProjet.pdf|Flyer]] - [[Media:srs_tachymetre.pdf|Rapport consultant]] - [[Media:14_PatternDesign.pdf | Pattern Design]]<br />
|-<br />
<br />
!scope="row"| 16<br />
| [[SmartProjector]]<br />
| BRANGER, HABLOT<br />
| Donsez, Maisonnasse<br />
| [[Fiche_SmartProjector_ricm4_2015_2016| '''Fiche''']] - [[SRS - SmartProjector| '''SRS''']] - [[UML - SmartProjector| '''UML''']]<br />
| [https://github.com/P0ppoff/SmartProjector '''github''']<br />
| [[Rapport]] - [[Transparents]] - [[Media:FlyerProjet.pdf|Flyer]] - [[Media:Gl_groupe16.pdf|Rapport Consultant]] - [http://air.imag.fr/index.php/Patron_de_conception_-_SmartProjector patterns]<br />
|-<br />
<br />
|}<br />
<br />
===Liste de projets===<br />
<br />
* [[Dashboard pour gestionnaire de tâches et de ressources]], Olivier Richard<br />
* [[Moteur distribué d'exécution de commande]], Olivier Richard<br />
* [[Environnement d'expérimentation de pour NVIDIA Shield (Tegra X1)]], Olivier Richard <br />
* [[Speeding Simplified Script Language]], Olivier Richard<br />
<br />
* Aide (Open-Source)au Handicap Auditif, avec Didier Donsez, Jérome Maisonnasse, Marie-Paule Balicco (SAH UGA) et Nicolas Vuillerme<br />
** [[Borne interactive]] (1 sujet)<br />
** [[Sonotone]] (1 sujet)<br />
** [[Sous-titre en temps réel d'un cours]] (1 sujet)<br />
* [[GrenobloisFuté]] Couche trafic sur OsmAnd avec un greffon. Données dynamique de la métro. Dvp Android. Nicolas Palix.<br />
* [[GeoDiff]] Production, visualisation, fusion de variations (diff) sur de l'information géocodée : Nicolas Palix<br />
* [[Smart campus augmenté et contributif]] Didier Donsez, Vivien Quema<br />
<br />
* [[Streaming en stéréoscopie]] sur [[WebRTC]] avec rendu sur [[Oculus]] pour le robot [[RobAIR]], Jérôme Maisonnasse. ([http://gstconf.ubicast.tv/videos/stereoscopic-3d-video/ voir]).<br />
* [[STM32F7]] : Mise en oeuvre de la chaîne de compilation sous Linux avec [[OpenSTM32]] et [[OpenOCD]]. Nicolas Palix<br />
* [[PersyCup2016]] : Persyval Robocup, Didier Donsez, Vivien Quema, Jérome Maisonnasse. (3 étudiants)<br />
* [[Services étendus pour le modèle de composants iPOPO pour Python]], Didier Donsez & Thomas Calmant. (2 étudiants)<br />
* [[SmartClassRoom2016|Développement d'une interface partagée pour tables tactiles (projet SmartClassRoom)]], Didier Donsez, Jérôme Maisonnasse. (2 étudiants)<br />
* [[iRock2016|iRock : surveillance de glissement de terrains]], Didier Donsez & Vivien Quema<br />
* [[IndoorGeoloc2016|Géolocalisation in-door au moyen de balises (beacon) BLE et Wifi à base de STM32 et de balises iBeacon & AltBeacon]], Didier Donsez & Vivien Quema<br />
* [[UPnPOpenHAB2016|Intégration et gestion de caméras de surveillance UPnP dans la plateforme domotique open-source OpenHAB et myOpenHAB]], Didier Donsez & Jérome Maisonnasse.<br />
<br />
'''Projets non prioritaires'''<br />
<br />
* [[Liveprogramming with Kivy]], Olivier Richard<br />
* [[AstroImage]] production d'image d'astronomie, Olivier Richard et Bruno Bzeznik<br />
* [[G-code Cruncher]] Controle de machine CNC (Nucleo grbl + esp8266 + Sdcard), Olivier Richard<br />
* [[Intégration OpenHAB / OpenTele]] Nicolas Palix<br />
<br />
==RICM5==<br />
<br />
===Projet Semestre S10===<br />
<br />
Enseignant responsable : Didier Donsez<br />
<br />
Démarrage : Lundi 25/01 à 10H30-12H30, P253 (Rendez-vous devant la salle AIR) - Visioconf pour Thibaut Cordier<br />
<br />
Soutenance : Vendredi 18/03 à 8H30-12H30, P257 <br />
<br />
Etudiants : RICM5 + 8 étudiants Avosti DUT RT<br />
<br />
Rappel séances MPI<br />
* Séance 1 : mardi 26 janvier après midi - Stéphanie Diligent<br />
* Séance 2 : mardi 2 février après midi - Stéphanie Diligent<br />
* Séance 3 : lundi 8 février matin - Emmanuelle Tréhoust<br />
* Séance 4 : jeudi 11 février matin - Emmanuelle Tréhoust<br />
* Séance 5 : lundi 21 mars matin - Stéphanie Diligent et Emmanuelle Tréhoust<br />
<br />
Planning soutenance (à venir).<br />
* Bossa<br />
* IaaS Docker<br />
* Immersion EDF<br />
* SmartCampus<br />
* SmartClassRoom (en C005)<br />
* Pot d' "Au Revoir"<br />
<br />
<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM5 2015-2016<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Dépot git<br />
|-<br />
<br />
!scope="row"| 1<br />
| [http://air.imag.fr/index.php/IaaS_collaboratif_avec_Docker IaaS - Docker]<br />
| Eudes Robin, Damotte Alan, Barthelemy Romain, Mammar Malek, Guo Kai, Bonnard Loïc, Caperan Théo<br />
| Didier Donsez<br />
| [[Projets-2015-2016-IaaS_Docker| '''Fiche''']]<br />
| [https://github.com/EudesRobin/iaas-collaboratif '''github''']<br />
| [[Media:Rapport_IaaS.pdf|Rapport]] - [[Media:Transparents_IaaS.pdf|Transparents]] - [[Media:Flyer_IaaS.pdf|Flyer]]<br />
|-<br />
!scope="row"| 2<br />
| [http://air.imag.fr/index.php/Portage_de_Bossa Portage de Bossa sur le Kernel Linux 4x]<br />
| Eric Michel Fotsing, Ombeline Rossi, Longfei Yao<br />
| Nicolas Palix, Didier Donsez<br />
| [[Projets-2015-2016-Portage_Bossa| '''Fiche''']]<br />
| [https://github.com/ZenithKaizer/ '''github''']<br />
| [[Media:Rapport_Bossa.pdf|Rapport]] - [[Media:Transparents_Bossa.pdf|Transparents]] - [[Media:Flyer_Bossa.pdf|Flyer]]<br />
|-<br />
<br />
!scope="row"| 3<br />
| [[Visite immersive en réalité virtuelle dans une usine avec EDF]]<br />
| Adam Christophe, Aissanou Sarah, Klipffel Tararaina, Qian Jean, Zominy Laurent<br />
| Didier Donsez, Georges-Pierre Bonneau, Thibaut Cordier (EDF)<br />
| [[Projets-2015-2016-VisiteImmersiveEDF| '''Fiche''']]<br />
| [https://github.com/VisiteImmersiveEDF '''github''']<br />
| [[Media:RapportProjetX.pdf|Rapport]] - [[Media:TransparentsProojetX.pdf|Transparents]] - [[Media:FlyerProjetX.pdf|Flyer]]<br />
|-<br />
<br />
!scope="row"| 4<br />
| [[Contribution à OpenSmartCampus]] (voir http://data.beta.metropolegrenoble.fr/)<br />
| Quentin Torck, Vivien Michel, Jérémy Hammerer, Rama Codazzi, Zhengmeng Zhang<br />
| Didier Donsez, Vivien Quéma<br />
| [[Projets-2015-2016-OpenSmartCampus| '''Fiche''']]<br />
| [https://github.com/quentin74/SmartCampus.git '''github''']<br />
| [[Media:RapportProjetX.pdf|Rapport]] - [[Media:TransparentsProojetX.pdf|Transparents]] - [[Media:FlyerProjetX.pdf|Flyer]]<br />
|-<br />
<br />
!scope="row"| 5<br />
| [[Contribution à SmartClassRoom]] (Interfaces tactiles distribuées et partagées)<br />
| Saussac Thibault, Toussaint Sébastien, Hamdani Youcef, Zoppello Sebastien, Melik sak, Mesnier Vincent<br />
| Jérôme Maisonnasse, Didier Donsez<br />
| [[Projets-2015-2016-SmartClassRoom| '''Fiche''']]<br />
| [https://github.com/XXXX '''github''']<br />
| [[Media:RapportProjetSmartClassRoom.pdf|Rapport]] - [[Media:TransparentsProjetSmartClassRoom.pdf|Transparents]] - [[Media:FlyerProjetSmartClassRoom.pdf|Flyer]]<br />
|-<br />
<br />
<br />
|}<br />
<br />
===Projets annulés et reportés===<br />
* Projet avec [[Tango Project]] (Annulé)<br />
* Hack the Beam, Didier Donsez & Jérôme Maisonnasse.<br />
* [[Algorithmes de suivi de personnes pour robot de téléprésence RobAIR]] (Jérôme Maisonnasse, Didier Donsez)<br />
<br />
=M2PGI=<br />
==[[Projets M2PGI Services Machine-to-Machine|Projet Services Machine-to-Machine]]==<br />
* [[PM2M/2016/TP|Sujet et groupes]]</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=27104Sign2speech ricm4 2015 20162016-02-15T11:50:59Z<p>Matthieu.Nogueron: /* Semaine 5 (15 Février - 21 Février) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
<br />
* Compréhension du code précédemment fait<br />
* Décision de repasser sur un code nouveau face aux incompatibilités avec le nouvel SDK<br />
* Mise en place d'un Scrum Board sur Trello<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
<br />
* Ecriture des [[patrons de conception - S2S]] par HABLOT Jules et BRANGER Matthias (nous avons fait le leur en retour)<br />
* Début de l'implémentation du dictionnaire et du serveur de négociation WebRTC (signalling server - utilisation de [http://wisdom-framework.org/ '''Wisdom Framework'''])<br />
* Implémentation d'un chat sous WebRTC avec affichage de "sous-titres"<br />
* Implémentation d'un parser JSON pour remplir le dictionnaire (lecture seulement)<br />
<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
<br />
[[File:Trello_15_02_s2s.png|300px|right|Scrum Board au début de la semaine 5]]<br />
<br />
* Chat en WebRTC avec sous-titre fonctionnel<br />
<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
*Soutenance intermédiaire<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=File:Trello_15_02_s2s.png&diff=27103File:Trello 15 02 s2s.png2016-02-15T11:50:21Z<p>Matthieu.Nogueron: Scrum board of Sign2Speech project - 15/02</p>
<hr />
<div>Scrum board of Sign2Speech project - 15/02</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=27102Sign2speech ricm4 2015 20162016-02-15T11:44:40Z<p>Matthieu.Nogueron: /* Semaine 5 (15 Février - 21 Février) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
<br />
* Compréhension du code précédemment fait<br />
* Décision de repasser sur un code nouveau face aux incompatibilités avec le nouvel SDK<br />
* Mise en place d'un Scrum Board sur Trello<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
<br />
* Ecriture des [[patrons de conception - S2S]] par HABLOT Jules et BRANGER Matthias (nous avons fait le leur en retour)<br />
* Début de l'implémentation du dictionnaire et du serveur de négociation WebRTC (signalling server - utilisation de [http://wisdom-framework.org/ '''Wisdom Framework'''])<br />
* Implémentation d'un chat sous WebRTC avec affichage de "sous-titres"<br />
* Implémentation d'un parser JSON pour remplir le dictionnaire (lecture seulement)<br />
<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
* [[File:Trello_15_02_s2s.png|300px|right|Scrum Board au début de la semaine 5]]<br />
* Chat en WebRTC avec sous-titre fonctionnel<br />
<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
*Soutenance intermédiaire<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=27101Sign2speech ricm4 2015 20162016-02-15T11:43:36Z<p>Matthieu.Nogueron: /* Semaine 5 (15 Février - 21 Février) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
<br />
* Compréhension du code précédemment fait<br />
* Décision de repasser sur un code nouveau face aux incompatibilités avec le nouvel SDK<br />
* Mise en place d'un Scrum Board sur Trello<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
<br />
* Ecriture des [[patrons de conception - S2S]] par HABLOT Jules et BRANGER Matthias (nous avons fait le leur en retour)<br />
* Début de l'implémentation du dictionnaire et du serveur de négociation WebRTC (signalling server - utilisation de [http://wisdom-framework.org/ '''Wisdom Framework'''])<br />
* Implémentation d'un chat sous WebRTC avec affichage de "sous-titres"<br />
* Implémentation d'un parser JSON pour remplir le dictionnaire (lecture seulement)<br />
<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
* [[File:|300px|right|Scrum Board au début de la semaine 5]]<br />
* Chat en WebRTC avec sous-titre fonctionnel<br />
<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
*Soutenance intermédiaire<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=27100Sign2speech ricm4 2015 20162016-02-15T11:28:59Z<p>Matthieu.Nogueron: /* Semaine 5 (15 Février - 21 Février) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
<br />
* Compréhension du code précédemment fait<br />
* Décision de repasser sur un code nouveau face aux incompatibilités avec le nouvel SDK<br />
* Mise en place d'un Scrum Board sur Trello<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
<br />
* Ecriture des [[patrons de conception - S2S]] par HABLOT Jules et BRANGER Matthias (nous avons fait le leur en retour)<br />
* Début de l'implémentation du dictionnaire et du serveur de négociation WebRTC (signalling server - utilisation de [http://wisdom-framework.org/ '''Wisdom Framework'''])<br />
* Implémentation d'un chat sous WebRTC avec affichage de "sous-titres"<br />
* Implémentation d'un parser JSON pour remplir le dictionnaire (lecture seulement)<br />
<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
* Chat en WebRTC avec sous-titre fonctionnel<br />
<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
*Soutenance intermédiaire<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Patrons_de_conception_-_S2S&diff=27095Patrons de conception - S2S2016-02-15T10:59:47Z<p>Matthieu.Nogueron: /* Spiltter */</p>
<hr />
<div>= List of Design Pattern = <br />
* [http://www.oodesign.com OODesign]<br />
* [https://sourcemaking.com/design_patterns SourceMaking]<br />
<br />
<br />
== MVC ==<br />
* Model: communicate with database : dictionnary<br />
<br />
* View: video chat interface for each client<br />
<br />
* Controller: updates view and model, processes data<br />
<br />
== Message Translator ==<br />
<br />
Goal : "Use a special filter, a Message Translator, between other filters or applications to translate one data format into another."<br />
<br />
The Sign Language will be converted into text (french).<br />
<br />
== Splitter ==<br />
<br />
"Use a Splitter to break out the composite message into a series of individual messages, each containing data related to one item."<br />
<br />
In this case, each sign will be related to a word or multiple words.<br />
<br />
== RBAC (WebRTC) ==<br />
This pattern is involved by the use of WebRTC.<br />
[[File:RBAC.png]]<br />
<br />
== Continuous Delivery Patterns (auto-learning) ==<br />
<br />
A sign will never be exactly the same so that the system has to learn to improve its signs recognition continuously.</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=27093Sign2speech ricm4 2015 20162016-02-15T10:59:18Z<p>Matthieu.Nogueron: </p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
<br />
* Compréhension du code précédemment fait<br />
* Décision de repasser sur un code nouveau face aux incompatibilités avec le nouvel SDK<br />
* Mise en place d'un Scrum Board sur Trello<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
<br />
* Ecriture des [[patrons de conception - S2S]] par HABLOT Jules et BRANGER Matthias (nous avons fait le leur en retour)<br />
* Début de l'implémentation du dictionnaire et du serveur de négociation WebRTC (signalling server - utilisation de [http://wisdom-framework.org/ '''Wisdom Framework'''])<br />
* Implémentation d'un chat sous WebRTC avec affichage de "sous-titres"<br />
* Implémentation d'un parser JSON pour remplir le dictionnaire (lecture seulement)<br />
<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
*Soutenance intermédiaire<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=27092Sign2speech ricm4 2015 20162016-02-15T10:58:37Z<p>Matthieu.Nogueron: /* Semaine 4 (08 Février - 14 Février) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
<br />
* Compréhension du code précédemment fait<br />
* Décision de repasser sur un code nouveau face aux incompatibilités avec le nouvel SDK<br />
* Mise en place d'un Scrum Board sur Trello<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
<br />
* Ecriture des [[patrons de conception - S2S]] par HABLOT Jules et BRANGER Matthias (nous avons fait le leur en retour)<br />
* Début de l'implémentation du dictionnaire et du serveur de négociation WebRTC (signalling server - utilisation de Wisdom Framework)<br />
* Implémentation d'un chat sous WebRTC avec affichage de "sous-titres"<br />
* Implémentation d'un parser JSON pour remplir le dictionnaire (lecture seulement)<br />
<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
*Soutenance intermédiaire<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Patron_de_conception_-_SmartProjector&diff=26773Patron de conception - SmartProjector2016-02-08T11:05:57Z<p>Matthieu.Nogueron: /* MVC */</p>
<hr />
<div>== Pipes and filters ==<br />
How can we perform complex processing on a message while maintaining independence and flexibility?<br />
<br />
That's how GStreamer (framework) works<br />
<br />
== MVC ==<br />
Model: communicate with database : sends logins + comments + settings, to the view and controller<br />
<br />
View: one window with streams from different computers + users window (on his computer) with the possibility of adding comments and setting up the view + admin interface<br />
<br />
Controller: updates view and model, processes data<br />
<br />
== RBAC : Role-Based Access Control ==<br />
Students (users) don't have the same permissions as the teacher (admin)</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Patron_de_conception_-_SmartProjector&diff=26763Patron de conception - SmartProjector2016-02-08T11:03:14Z<p>Matthieu.Nogueron: /* MVC */</p>
<hr />
<div>== Pipes and filters ==<br />
How can we perform complex processing on a message while maintaining independence and flexibility?<br />
<br />
That's how GStreamer (framework) works<br />
<br />
== MVC ==<br />
Model: communicate with database : sends logins + comments + settings, to the view and controller<br />
<br />
View: one window with streams from different computers + user window (on his computer) with the possibility of adding comments and setting up the view + admin interface<br />
<br />
Controller: updates view and model, processes data<br />
<br />
== RBAC : Role-Based Access Control ==<br />
Students (users) don't have the same permissions as the teacher (admin)</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Patron_de_conception_-_SmartProjector&diff=26759Patron de conception - SmartProjector2016-02-08T11:01:45Z<p>Matthieu.Nogueron: /* MVC */</p>
<hr />
<div>== Pipes and filters ==<br />
How can we perform complex processing on a message while maintaining independence and flexibility?<br />
<br />
That's how GStreamer (framework) works<br />
<br />
== MVC ==<br />
Model: sends logins + comments + settings to the view and controller<br />
<br />
View: one window with streams from different computers + user window (on his computer) with the possibility of adding comments and setting up the view + admin interface<br />
<br />
Controller: updates view and model, processes data<br />
<br />
== RBAC : Role-Based Access Control ==<br />
Students (users) don't have the same permissions as the teacher (admin)</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Fiche_SmartProjector_ricm4_2015_2016&diff=26743Fiche SmartProjector ricm4 2015 20162016-02-08T10:13:37Z<p>Matthieu.Nogueron: </p>
<hr />
<div>= Current activity =<br />
Technological watch<br />
<br />
= Requirements = <br />
<br />
* Minimum debit ?<br />
* Which Protocol ?<br />
* How many flops ?<br />
<br />
== Solutions == <br />
<br />
* [https://fr.wikipedia.org/wiki/Virtual_Network_Computing VNC]<br />
* XOrg<br />
* [https://fr.wikipedia.org/wiki/Framebuffer Framebuffer]<br />
* [https://doc.ubuntu-fr.org/xrandr xrandr]<br />
* look Klaxoon<br />
<br />
= Meeting with Maisonnasse Jérôme =<br />
<br />
* high level :[http://gstreamer.freedesktop.org GStreamer]<br />
* low level : [https://www.ffmpeg.org FFMPEG]<br />
* [https://fr.wikipedia.org/wiki/HTML5 HTML5]<br />
* Screencast<br />
<br />
= Todo =<br />
<br />
* Multi display with multi users (different types of displays)<br />
* Multi display with one user (one screen for each app)<br />
* Zoom/Unzoom on a screen with a click<br />
* Check if students are here / presence dashboard<br />
* Drop files into a screen to share it with the screen owner.<br />
* Quizz : questions on screen / students answer on their computers<br />
* feedback about the lesson.<br />
* save courses + transcription (link with some other projects)<br />
<br />
= Design Pattern =<br />
<br />
* [[Patron de conception - SmartProjector]]<br />
<br />
= Glossary =<br />
<br />
* [https://fr.wikipedia.org/wiki/Wi-Fi_Direct Protocole WiFi Direct]<br />
* [http://liliputing.com/2015/07/ubuntu-on-the-32gb-intel-compute-stick-you-have-to-install-it-yourself.html Stick]<br />
* raspberry pi<br />
* [http://www.intel.com/content/www/us/en/compute-stick/intel-compute-stick.html Intel stick]<br />
* [http://www.clubic.com/processeur/processeur-intel/article-774166-1-intel-compute-stick.html Intel site]<br />
* [http://tice974.ac-reunion.fr/tablettes/aspects-techniques/connexion-a-un-videoprojecteur/ éducation nationale ?]<br />
* [https://klaxoon.com/?_locale=frd klaxoon]<br />
* [https://www.youtube.com/watch?v=lNvYanDLHZA Live Streaming Raspberry Pi Camera to Windows PC]<br />
* [http://gstreamer.freedesktop.org/data/doc/gstreamer/head/manual/html/chapter-helloworld.html#section-helloworld tuto gstreamer]<br />
* [http://stackoverflow.com/questions/33747500/using-gstreamer-to-capture-screen-and-show-it-in-a-window Capture screen]<br />
* [http://stackoverflow.com/questions/11996715/gstreamer-udp-send-receive-one-liner gstreamer udp ]</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=26742Sign2speech ricm4 2015 20162016-02-08T10:12:09Z<p>Matthieu.Nogueron: /* Semaine 4 (08 Février - 14 Février) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
<br />
* Compréhension du code précédemment fait<br />
* Décision de repasser sur un code nouveau face aux incompatibilités avec le nouvel SDK<br />
* Mise en place d'un Scrum Board sur Trello<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
<br />
* Ecriture des [[patrons de conception - S2S]]<br />
<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
*Soutenance intermédiaire<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=26740Sign2speech ricm4 2015 20162016-02-08T10:09:25Z<p>Matthieu.Nogueron: /* Semaine 4 (08 Février - 14 Février) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
<br />
* Compréhension du code précédemment fait<br />
* Décision de repasser sur un code nouveau face aux incompatibilités avec le nouvel SDK<br />
* Mise en place d'un Scrum Board sur Trello<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
<br />
* Ecriture des [[patrons de conception]]<br />
<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
*Soutenance intermédiaire<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=26735Sign2speech ricm4 2015 20162016-02-08T09:52:13Z<p>Matthieu.Nogueron: /* Semaine 4 (08 Février - 14 Février) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
<br />
* Compréhension du code précédemment fait<br />
* Décision de repasser sur un code nouveau face aux incompatibilités avec le nouvel SDK<br />
* Mise en place d'un Scrum Board sur Trello<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
<br />
* Ecriture des patrons de conception<br />
<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
*Soutenance intermédiaire<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=26734Sign2speech ricm4 2015 20162016-02-08T09:51:38Z<p>Matthieu.Nogueron: /* Semaine 3 (01 Février - 07 Février) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
<br />
* Compréhension du code précédemment fait<br />
* Décision de repasser sur un code nouveau face aux incompatibilités avec le nouvel SDK<br />
* Mise en place d'un Scrum Board sur Trello<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
*Soutenance intermédiaire<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=26478Sign2speech ricm4 2015 20162016-01-31T11:10:39Z<p>Matthieu.Nogueron: /* Semaine 3 (01 Février - 07 Février) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
<br />
* Compréhension du code précédemment fait<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
*Soutenance intermédiaire<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=26477Sign2speech ricm4 2015 20162016-01-31T11:10:22Z<p>Matthieu.Nogueron: /* Semaine 2 (25 Janvier - 31 Janvier) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
- compréhension du code précédemment fait<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
*Soutenance intermédiaire<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueronhttps://air.imag.fr/index.php?title=Sign2speech_ricm4_2015_2016&diff=26476Sign2speech ricm4 2015 20162016-01-31T11:10:06Z<p>Matthieu.Nogueron: /* Semaine 1 (18 Janvier - 24 Janvier) */</p>
<hr />
<div>== Objectifs ==<br />
<br />
Le projet a pour but de retranscrire en temps réel (de façon textuelle la langue des signes française afin de faciliter la communication entre une personne muette et une personne qui ne maîtrise pas ce langage.<br />
La communication se ferait avec du WebRTC.<br />
L'idée est également de permettre à l'utilisateur de sauvegarder les mots qu'il souhaite pour agrandir le dictionnaire.<br />
<br />
== Equipe ==<br />
<br />
*Tuteur : Didier Donsez<br />
<br />
*Membres : Edwin NIOGRET, Matthieu NOGUERON, Reatha TITH<br />
<br />
*Département : [http://www.polytech-grenoble.fr/ricm.html RICM 4], [[Polytech Grenoble]]<br />
<br />
== Outils ==<br />
<br />
=== LeapMotion ===<br />
<br />
[[File:leapmotion.jpg|300px|right|Leap Motion]]<br />
<br />
*Nous disposons d'un capteur type [https://www.leapmotion.com/ '''Leap Motion'''] permettant la reconnaissance des doigts d'une main, mais aussi de gestes simples. Le Leap Motion est fourni avec un SDK propriétaire compatible avec tous les systèmes d'exploitation.<br />
<br />
=== Caméras Intel ===<br />
<br />
[[File:creative.jpeg|300px|right|Intel Creative]]<br />
<br />
*Nous disposons de la caméra [http://fr.creative.com/p/web-cameras/creative-senz3d '''Creative Senz3D'''] qui permet la reconnaissance de gestes et la détection de la profondeur. Elle est fournie avec un '''SDK RealSense''', compatible uniquement avec Windows.<br />
<br />
*Nous disposons également de la caméra '''Intel RealSense'''. Elle possède les mêmes fonctionnalités de base que la précédente, auxquelles ont été rajoutées quelques fonctionnalités très utiles telle que la détection et la reconnaissance précise des différents doigts. Elle est fournie avec le '''SDK RealSense''', compatible uniquement avec Windows encore une fois.<br />
<br />
=== Langages de programmation ===<br />
<br />
Le SDK RealSense fourni avec les caméras Intel permet l’utilisation de nombreux langages. Nous avons donc décidé d’utiliser le C++ ou le C# car ces deux langages sont très populaires et ce projet serait donc une bonne façons pour nous d’en découvrir un d’entre eux.<br />
<br />
= Avancement du projet =<br />
<br />
Le projet nous a été attribué le 11 janvier 2016, cependant nous avons pu le commencer qu’à partir de la semaine du 18. Nous décrirons donc dans cette partie la progression de notre projet pour chaque semaine.<br />
<br />
== Semaine 1 (18 Janvier - 24 Janvier) ==<br />
<br />
*Nous considérons pour l'instant que nous allons reprendre le sujet à zéro, n'ayant pas pu obtenir le code du projet des années précédentes.<br />
<br />
*Familiarisation avec la technologie de la caméra Creative Senz3D, dans l'attente de la réception d'une caméra nouvelle génération Intel RealSense.<br />
<br />
*Réflexion sur nos objectifs de projet, et sur les technologies à utiliser (SDK, langage...). Le choix du langage supporté par le SDK RealSense a été porté sur le C# ou C++.<br />
<br />
== Semaine 2 (25 Janvier - 31 Janvier) ==<br />
<br />
* Installation des SDK LeapMotion et Intel RealSense, comparaison de leurs fonctionnalités<br />
* Réflexion sur la reconnaissance des gestes en utilisant un automate<br />
* Réalisation de diagrammes UML (cas d'utilisations, séquence et composants)<br />
* Nous apprenons également que nous allons repartir du code du projet précédent, et non de zéro comme nous le pensions.<br />
<br />
== Semaine 3 (01 Février - 07 Février) ==<br />
- compréhension du code précédemment fait<br />
<br />
== Semaine 4 (08 Février - 14 Février) ==<br />
== Semaine 5 (15 Février - 21 Février) ==<br />
== Semaine 6 (22 Février - 28 Février) ==<br />
== Semaine 7 (29 Février - 06 Mars) ==<br />
*Soutenance intermédiaire<br />
== Semaine 8 (07 Mars - 13 Mars) ==<br />
== Semaine 9 (14 Mars - 20 Mars) ==<br />
== Semaine 10 (21 Mars - 27 Mars) ==<br />
== Semaine 11 (28 Mars - 03 Avril) ==<br />
== Semaine 12 (04 Avril - 10 Avril) ==</div>Matthieu.Nogueron