https://air.imag.fr/api.php?action=feedcontributions&user=Wirthc&feedformat=atomair - User contributions [en]2024-03-28T23:16:14ZUser contributionsMediaWiki 1.35.13https://air.imag.fr/index.php?title=Soutenances_Projet_RICM_5_2012-2013&diff=10242Soutenances Projet RICM 5 2012-20132013-03-22T12:19:25Z<p>Wirthc: /* Planning */</p>
<hr />
<div>==Planning==<br />
<br />
{|class="wikitable alternance"<br />
|+ Planning Jeudi 21/03 P257 ([[Polytech Grenoble]])<br />
|-<br />
|<br />
!scope="col"| Horaire<br />
!scope="col"| Projet<br />
!scope="col"| Encadrant(s)<br />
!scope="col"| Etudiant(s)<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| 13H00-13H45<br />
| [[RobAIR2013]]<br />
| [[User:Donsez|Didier Donsez]]<br />
| NICOLACCINI MICKAEL , ALEXANDRE ARTHUR, Salem HARRACHE , PAZ HERNANDEZ ELIZABETH<br />
| [http://air.imag.fr/mediawiki/index.php/RobAIR2013-RICM5-Suivi Fiche suivi RobAIR] - [[Media:Projet_RobAIR2013_diapo.pdf |Transparents]] - [[Media:Flyer-RobAIR.pdf|Flyer]] - [[Media:Poster-RobAIR.pdf|Poster]] [http://youtu.be/-3mbR5M8lzw Video] - [http://robair.quicker.fr/ Site web]<br />
|-<br />
!scope="row"| 2<br />
| 13H45-14H30<br />
| [[Armind]]<br />
| Renaud Blanch, Nicolas Glade, Nicolas Vuillerme, Didier Pradon (APHP Garches)<br />
| CHEVALLIER MARIE (PL), FALL YACINE, LU XIAO<br />
| [http://air.imag.fr/mediawiki/index.php/Armind Fiche de suivi Armind] & [[Media:presentationArmind.ppt|transparents]] & [[Media:flyersArmind.pdf|flyers]] & [[Media:posterArmind.pdf|poster]]<br />
|-<br />
!scope="row"| 3<br />
| 14H30-14H45<br />
| Pause<br />
|-<br />
!scope="row"| 4<br />
| 14H45-15H15<br />
| [[Fusion multi-capteurs pour table tactile]]<br />
| Renaud Blanch, Renaud Collin<br />
| RAOUX MAXENCE (PL), DAUVERGNE LEOPOLD<br />
| [http://air.imag.fr/mediawiki/index.php/Fusion_multi-capteurs_pour_table_tactile fiche suivi] & [http://air.imag.fr/mediawiki/images/b/be/Sonar_TablePresentation.pdf Transparents] & [http://air.imag.fr/mediawiki/images/0/07/FliyerSonarTable.pdf Flyer] & [http://air.imag.fr/mediawiki/images/thumb/2/2f/PosterSonarTable.jpg/600px-PosterSonarTable.jpg Poster] & [http://www.youtube.com/watch?v=8VKd9UdPNmc Video]<br />
|-<br />
!scope="row"| 5<br />
| 15H15-16H00<br />
| [[Coconode | Projet Réseaux de Capteurs]]<br />
| Bernard Tourancheau<br />
| CARAMELLI NOE-JEAN (PL), LEVEQUE FLORIAN, HO MINH QUAN<br />
| [[Coconode | Fiche suivi]] & [[Media:Presentation_coconode.pdf | transparents]] & [[Media:Coconode_flyer.pdf | Flyer]] & [[Media:Coconode_poster.pdf | Poster]] & [[video ...]]<br />
|-<br />
!scope="row"| 6<br />
| 16H00-16H30<br />
| [[OAR Cloud Computing 2013]]<br />
| Olivier Richard<br />
| MERCIER MICHAEL (PL)<br />
| [[Proj-2012-2013-OAR-Cloud | fiche suivi]] & [[Media:Oar-cloud-pres.pdf | transparents]]<br />
|}<br />
<br />
<br />
<br />
{|class="wikitable alternance"<br />
|+ Planning Vendredi 22/03 P249 ([[Polytech Grenoble]])<br />
|-<br />
|<br />
!scope="col"| Horaire<br />
!scope="col"| Projet<br />
!scope="col"| Encadrant(s)<br />
!scope="col"| Etudiant(s)<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| 14H30-15H15<br />
| [[Projet 2013 : Interactive Digital Signage]]<br />
| [[User:Donsez|Didier Donsez]]<br />
| FOURURE FLORIAN, BISCH SIMON (PL), CLAVELIN AURELIEN<br />
| [[fiche suivi ...]] & [http://air.imag.fr/mediawiki/index.php/File:-BISCH-FOURURE-CLAVELIN--RICM5-IDS-Presentation.pdf transparents] & [http://air.imag.fr/mediawiki/index.php/File:Flyers-IDS-BISCH-FOURURE-CLAVELIN.pdf flyer] & [http://air.imag.fr/mediawiki/index.php/File:Poster-IDS-RICM5-BISCH-FOURURE-CLAVELIN.png poster] & [[video ...]]<br />
|-<br />
!scope="row"| 2<br />
| 15H15-16H00<br />
| [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone Projet CERVIN de "Rehab Lab"]<br />
| Renaud Blanch, Francois Letellier de l'association [http://www.aconit.org/ ACONIT], le [http://www.ccsti-grenoble.org/ CCSTI Grenoble]<br />
| OSWALD CAMILLE, WIRTH CLÉMENT, PRAK SORIYA, GNATTO-BAHIE CHRISTOPHER<br />
| [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone Wiki projet Cervin] & [http://air.imag.fr/mediawiki/images/c/c5/CervinPres.pdf transparent] & [http://air.imag.fr/mediawiki/images/9/9b/FlyerCervin.pdf flyer] & [http://air.imag.fr/mediawiki/images/9/9e/Poster.pdf poster ] & [http://www.youtube.com/watch?v=5qn1mFXITK4 Video]<br />
|-<br />
!scope="row"| 3<br />
| 16H00-16H45<br />
| [[Développement d'une appli mobile pour urgentistes en Afrique utilisant la synthèse vocale]]<br />
| Laurent Besacier, F. Camara et la [http://voxygen.fr/ société Voxygen]<br />
| ELOY FABIEN, NGOUALA ROLLY, VIGIER SYLVAIN, GU QIKAI, SEGALA JOACHIM<br />
| [http://air.imag.fr/mediawiki/index.php/D%C3%A9veloppement_d%27une_appli_mobile_pour_urgentistes_en_Afrique_utilisant_la_synth%C3%A8se_vocale suivi] & [[Media:Soutenance_ProjetVoxygen.pdf|transparent]] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|}<br />
<br />
==Recommandations==<br />
* Prévenez vos tuteurs de votre horaire de passage pour qu'ils assistent à votre soutenance (ainsi que des éventuels changements).<br />
* La durée des soutenances est STRICTEMENT 45 minutes (et 30 minutes pour Michael Mercier)<br />
* Chaque soutenance comporte 20 minutes de présentation, 15 minutes de démonstration suivi de 10 minutes de questions/réponse<br />
* La présentation doit aborder l'ensemble des aspects du projet (contexte, technique, gestion, ...)<br />
* Les transparents doivent être ajoutés à cette page avant le Jeudi matin<br />
* Des ''flyers'' (3 volets d'un A4) et un poster (A4 ou 2*A4 ou A3) devront être apportés puis laissés dans la salle AIR.<br />
<br />
==Conseils==<br />
* Le chef de projet orchestre<br />
* Répétez plusieurs fois et chronométrez vous !<br />
* Répartissez vous la parole pendant la présentation et la démo<br />
* Attention à l' ''effet démo'' : prévoyez une vidéo de secours</div>Wirthchttps://air.imag.fr/index.php?title=Soutenances_Projet_RICM_5_2012-2013&diff=10240Soutenances Projet RICM 5 2012-20132013-03-22T12:11:58Z<p>Wirthc: /* Planning */</p>
<hr />
<div>==Planning==<br />
<br />
{|class="wikitable alternance"<br />
|+ Planning Jeudi 21/03 P257 ([[Polytech Grenoble]])<br />
|-<br />
|<br />
!scope="col"| Horaire<br />
!scope="col"| Projet<br />
!scope="col"| Encadrant(s)<br />
!scope="col"| Etudiant(s)<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| 13H00-13H45<br />
| [[RobAIR2013]]<br />
| [[User:Donsez|Didier Donsez]]<br />
| NICOLACCINI MICKAEL , ALEXANDRE ARTHUR, Salem HARRACHE , PAZ HERNANDEZ ELIZABETH<br />
| [http://air.imag.fr/mediawiki/index.php/RobAIR2013-RICM5-Suivi Fiche suivi RobAIR] - [[Media:Projet_RobAIR2013_diapo.pdf |Transparents]] - [[Media:Flyer-RobAIR.pdf|Flyer]] - [[Media:Poster-RobAIR.pdf|Poster]] [http://youtu.be/-3mbR5M8lzw Video] - [http://robair.quicker.fr/ Site web]<br />
|-<br />
!scope="row"| 2<br />
| 13H45-14H30<br />
| [[Armind]]<br />
| Renaud Blanch, Nicolas Glade, Nicolas Vuillerme, Didier Pradon (APHP Garches)<br />
| CHEVALLIER MARIE (PL), FALL YACINE, LU XIAO<br />
| [http://air.imag.fr/mediawiki/index.php/Armind Fiche de suivi Armind] & [[Media:presentationArmind.ppt|transparents]] & [[Media:flyersArmind.pdf|flyers]] & [[Media:posterArmind.pdf|poster]]<br />
|-<br />
!scope="row"| 3<br />
| 14H30-14H45<br />
| Pause<br />
|-<br />
!scope="row"| 4<br />
| 14H45-15H15<br />
| [[Fusion multi-capteurs pour table tactile]]<br />
| Renaud Blanch, Renaud Collin<br />
| RAOUX MAXENCE (PL), DAUVERGNE LEOPOLD<br />
| [http://air.imag.fr/mediawiki/index.php/Fusion_multi-capteurs_pour_table_tactile fiche suivi] & [http://air.imag.fr/mediawiki/images/b/be/Sonar_TablePresentation.pdf Transparents] & [http://air.imag.fr/mediawiki/images/0/07/FliyerSonarTable.pdf Flyer] & [http://air.imag.fr/mediawiki/images/thumb/2/2f/PosterSonarTable.jpg/600px-PosterSonarTable.jpg Poster] & [http://www.youtube.com/watch?v=8VKd9UdPNmc Video]<br />
|-<br />
!scope="row"| 5<br />
| 15H15-16H00<br />
| [[Coconode | Projet Réseaux de Capteurs]]<br />
| Bernard Tourancheau<br />
| CARAMELLI NOE-JEAN (PL), LEVEQUE FLORIAN, HO MINH QUAN<br />
| [[Coconode | Fiche suivi]] & [[Media:Presentation_coconode.pdf | transparents]] & [[Media:Coconode_flyer.pdf | Flyer]] & [[Media:Coconode_poster.pdf | Poster]] & [[video ...]]<br />
|-<br />
!scope="row"| 6<br />
| 16H00-16H30<br />
| [[OAR Cloud Computing 2013]]<br />
| Olivier Richard<br />
| MERCIER MICHAEL (PL)<br />
| [[Proj-2012-2013-OAR-Cloud | fiche suivi]] & [[Media:Oar-cloud-pres.pdf | transparents]]<br />
|}<br />
<br />
<br />
<br />
{|class="wikitable alternance"<br />
|+ Planning Vendredi 22/03 P249 ([[Polytech Grenoble]])<br />
|-<br />
|<br />
!scope="col"| Horaire<br />
!scope="col"| Projet<br />
!scope="col"| Encadrant(s)<br />
!scope="col"| Etudiant(s)<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| 14H30-15H15<br />
| [[Projet 2013 : Interactive Digital Signage]]<br />
| [[User:Donsez|Didier Donsez]]<br />
| FOURURE FLORIAN, BISCH SIMON (PL), CLAVELIN AURELIEN<br />
| [[fiche suivi ...]] & [http://air.imag.fr/mediawiki/index.php/File:-BISCH-FOURURE-CLAVELIN--RICM5-IDS-Presentation.pdf transparents] & [http://air.imag.fr/mediawiki/index.php/File:Flyers-IDS-BISCH-FOURURE-CLAVELIN.pdf flyer] & [http://air.imag.fr/mediawiki/index.php/File:Poster-IDS-RICM5-BISCH-FOURURE-CLAVELIN.png poster] & [[video ...]]<br />
|-<br />
!scope="row"| 2<br />
| 15H15-16H00<br />
| [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone Projet CERVIN de "Rehab Lab"]<br />
| Renaud Blanch, Francois Letellier de l'association [http://www.aconit.org/ ACONIT], le [http://www.ccsti-grenoble.org/ CCSTI Grenoble]<br />
| OSWALD CAMILLE, WIRTH CLÉMENT, PRAK SORIYA, GNATTO-BAHIE CHRISTOPHER<br />
| [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone Wiki projet Cervin] & [http://air.imag.fr/mediawiki/images/c/c5/CervinPres.pdf transparent] & [http://air.imag.fr/mediawiki/images/9/9b/FlyerCervin.pdf flyer] & [http://air.imag.fr/mediawiki/images/9/9e/Poster.pdf poster ] & [[video ...]]<br />
|-<br />
!scope="row"| 3<br />
| 16H00-16H45<br />
| [[Développement d'une appli mobile pour urgentistes en Afrique utilisant la synthèse vocale]]<br />
| Laurent Besacier, F. Camara et la [http://voxygen.fr/ société Voxygen]<br />
| ELOY FABIEN, NGOUALA ROLLY, VIGIER SYLVAIN, GU QIKAI, SEGALA JOACHIM<br />
| [http://air.imag.fr/mediawiki/index.php/D%C3%A9veloppement_d%27une_appli_mobile_pour_urgentistes_en_Afrique_utilisant_la_synth%C3%A8se_vocale suivi] & [[Media:Soutenance_ProjetVoxygen.pdf|transparent]] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|}<br />
<br />
==Recommandations==<br />
* Prévenez vos tuteurs de votre horaire de passage pour qu'ils assistent à votre soutenance (ainsi que des éventuels changements).<br />
* La durée des soutenances est STRICTEMENT 45 minutes (et 30 minutes pour Michael Mercier)<br />
* Chaque soutenance comporte 20 minutes de présentation, 15 minutes de démonstration suivi de 10 minutes de questions/réponse<br />
* La présentation doit aborder l'ensemble des aspects du projet (contexte, technique, gestion, ...)<br />
* Les transparents doivent être ajoutés à cette page avant le Jeudi matin<br />
* Des ''flyers'' (3 volets d'un A4) et un poster (A4 ou 2*A4 ou A3) devront être apportés puis laissés dans la salle AIR.<br />
<br />
==Conseils==<br />
* Le chef de projet orchestre<br />
* Répétez plusieurs fois et chronométrez vous !<br />
* Répartissez vous la parole pendant la présentation et la démo<br />
* Attention à l' ''effet démo'' : prévoyez une vidéo de secours</div>Wirthchttps://air.imag.fr/index.php?title=Soutenances_Projet_RICM_5_2012-2013&diff=10238Soutenances Projet RICM 5 2012-20132013-03-22T12:10:53Z<p>Wirthc: /* Planning */</p>
<hr />
<div>==Planning==<br />
<br />
{|class="wikitable alternance"<br />
|+ Planning Jeudi 21/03 P257 ([[Polytech Grenoble]])<br />
|-<br />
|<br />
!scope="col"| Horaire<br />
!scope="col"| Projet<br />
!scope="col"| Encadrant(s)<br />
!scope="col"| Etudiant(s)<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| 13H00-13H45<br />
| [[RobAIR2013]]<br />
| [[User:Donsez|Didier Donsez]]<br />
| NICOLACCINI MICKAEL , ALEXANDRE ARTHUR, Salem HARRACHE , PAZ HERNANDEZ ELIZABETH<br />
| [http://air.imag.fr/mediawiki/index.php/RobAIR2013-RICM5-Suivi Fiche suivi RobAIR] - [[Media:Projet_RobAIR2013_diapo.pdf |Transparents]] - [[Media:Flyer-RobAIR.pdf|Flyer]] - [[Media:Poster-RobAIR.pdf|Poster]] [http://youtu.be/-3mbR5M8lzw Video] - [http://robair.quicker.fr/ Site web]<br />
|-<br />
!scope="row"| 2<br />
| 13H45-14H30<br />
| [[Armind]]<br />
| Renaud Blanch, Nicolas Glade, Nicolas Vuillerme, Didier Pradon (APHP Garches)<br />
| CHEVALLIER MARIE (PL), FALL YACINE, LU XIAO<br />
| [http://air.imag.fr/mediawiki/index.php/Armind Fiche de suivi Armind] & [[Media:presentationArmind.ppt|transparents]] & [[Media:flyersArmind.pdf|flyers]] & [[Media:posterArmind.pdf|poster]]<br />
|-<br />
!scope="row"| 3<br />
| 14H30-14H45<br />
| Pause<br />
|-<br />
!scope="row"| 4<br />
| 14H45-15H15<br />
| [[Fusion multi-capteurs pour table tactile]]<br />
| Renaud Blanch, Renaud Collin<br />
| RAOUX MAXENCE (PL), DAUVERGNE LEOPOLD<br />
| [http://air.imag.fr/mediawiki/index.php/Fusion_multi-capteurs_pour_table_tactile fiche suivi] & [http://air.imag.fr/mediawiki/images/b/be/Sonar_TablePresentation.pdf Transparents] & [http://air.imag.fr/mediawiki/images/0/07/FliyerSonarTable.pdf Flyer] & [http://air.imag.fr/mediawiki/images/thumb/2/2f/PosterSonarTable.jpg/600px-PosterSonarTable.jpg Poster] & [http://www.youtube.com/watch?v=8VKd9UdPNmc Video]<br />
|-<br />
!scope="row"| 5<br />
| 15H15-16H00<br />
| [[Coconode | Projet Réseaux de Capteurs]]<br />
| Bernard Tourancheau<br />
| CARAMELLI NOE-JEAN (PL), LEVEQUE FLORIAN, HO MINH QUAN<br />
| [[Coconode | Fiche suivi]] & [[Media:Presentation_coconode.pdf | transparents]] & [[Media:Coconode_flyer.pdf | Flyer]] & [[Media:Coconode_poster.pdf | Poster]] & [[video ...]]<br />
|-<br />
!scope="row"| 6<br />
| 16H00-16H30<br />
| [[OAR Cloud Computing 2013]]<br />
| Olivier Richard<br />
| MERCIER MICHAEL (PL)<br />
| [[Proj-2012-2013-OAR-Cloud | fiche suivi]] & [[Media:Oar-cloud-pres.pdf | transparents]]<br />
|}<br />
<br />
<br />
<br />
{|class="wikitable alternance"<br />
|+ Planning Vendredi 22/03 P249 ([[Polytech Grenoble]])<br />
|-<br />
|<br />
!scope="col"| Horaire<br />
!scope="col"| Projet<br />
!scope="col"| Encadrant(s)<br />
!scope="col"| Etudiant(s)<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| 14H30-15H15<br />
| [[Projet 2013 : Interactive Digital Signage]]<br />
| [[User:Donsez|Didier Donsez]]<br />
| FOURURE FLORIAN, BISCH SIMON (PL), CLAVELIN AURELIEN<br />
| [[fiche suivi ...]] & [http://air.imag.fr/mediawiki/index.php/File:-BISCH-FOURURE-CLAVELIN--RICM5-IDS-Presentation.pdf transparents] & [http://air.imag.fr/mediawiki/index.php/File:Flyers-IDS-BISCH-FOURURE-CLAVELIN.pdf flyer] & [http://air.imag.fr/mediawiki/index.php/File:Poster-IDS-RICM5-BISCH-FOURURE-CLAVELIN.png poster] & [[video ...]]<br />
|-<br />
!scope="row"| 2<br />
| 15H15-16H00<br />
| [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone Projet CERVIN de "Rehab Lab"]<br />
| Renaud Blanch, Francois Letellier de l'association [http://www.aconit.org/ ACONIT], le [http://www.ccsti-grenoble.org/ CCSTI Grenoble]<br />
| OSWALD CAMILLE, WIRTH CLÉMENT, PRAK SORIYA, GNATTO-BAHIE CHRISTOPHER<br />
| [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone Wiki projet Cervin] & [http://air.imag.fr/mediawiki/images/c/c5/CervinPres.pdf transparent] & [http://air.imag.fr/mediawiki/images/9/9b/FlyerCervin.pdf flyer] & [http://air.imag.fr/mediawiki/images/9/9e/Poster.pdf poster ] & [[video ...]]<br />
|-<br />
!scope="row"| 3<br />
| 16H00-16H45<br />
| [[Développement d'une appli mobile pour urgentistes en Afrique utilisant la synthèse vocale]]<br />
| Laurent Besacier, F. Camara et la [http://voxygen.fr/ société Voxygen]<br />
| ELOY FABIEN, NGOUALA ROLLY, VIGIER SYLVAIN, GU QIKAI, SEGALA JOACHIM<br />
| [http://air.imag.fr/mediawiki/index.php/D%C3%A9veloppement_d%27une_appli_mobile_pour_urgentistes_en_Afrique_utilisant_la_synth%C3%A8se_vocale suivi] & [[Media:Soutenance_ProjetVoxygen.pdf|transparent]] & [[flyer ...]] & [[poster ...]] & [http://www.youtube.com/watch?v=PU7jYjShw4w Video]<br />
|}<br />
<br />
==Recommandations==<br />
* Prévenez vos tuteurs de votre horaire de passage pour qu'ils assistent à votre soutenance (ainsi que des éventuels changements).<br />
* La durée des soutenances est STRICTEMENT 45 minutes (et 30 minutes pour Michael Mercier)<br />
* Chaque soutenance comporte 20 minutes de présentation, 15 minutes de démonstration suivi de 10 minutes de questions/réponse<br />
* La présentation doit aborder l'ensemble des aspects du projet (contexte, technique, gestion, ...)<br />
* Les transparents doivent être ajoutés à cette page avant le Jeudi matin<br />
* Des ''flyers'' (3 volets d'un A4) et un poster (A4 ou 2*A4 ou A3) devront être apportés puis laissés dans la salle AIR.<br />
<br />
==Conseils==<br />
* Le chef de projet orchestre<br />
* Répétez plusieurs fois et chronométrez vous !<br />
* Répartissez vous la parole pendant la présentation et la démo<br />
* Attention à l' ''effet démo'' : prévoyez une vidéo de secours</div>Wirthchttps://air.imag.fr/index.php?title=PAGE_WIKI_ETUDIANTS_2012-13_RECONNAISSANCE_FACIALE&diff=10160PAGE WIKI ETUDIANTS 2012-13 RECONNAISSANCE FACIALE2013-03-22T09:29:44Z<p>Wirthc: /* Compilation de la librairie OpenCv */</p>
<hr />
<div>==Description du projet==<br />
Le principe est de permettre d'identifier un utilisateur. Le système dispose d'une base de données contenant l'ensemble des utilisateurs connus et leur visage. Le système doit reconnaitre l'utilisateur test dans la base de données.<br><br />
'''Scénario type :''' Une personne se présente au système. Le système détecte son visage et analyse la situation. Il répond alors de 2 manières possibles :<br />
* La personne est vraisemblablement Monsieur X<br />
* La personne n'est pas dans la base de données<br />
<br />
==Composition de l'équipe==<br />
'''Chef de projet :''' Camille OSWALD<br><br><br />
'''Equipiers :'''<br />
* Marie CHEVALLIER<br />
* Fabien ELOY<br />
* Christopher GNATTO<br />
* Maxence RAOUX<br />
* Sylvain VIGIER<br />
* Clément WIRTH<br />
<br />
==Gestion du projet==<br />
<br />
{|class="wikitable organisation Bio-Face"<br />
|+ Grands temps de développement du projet<br />
|-<br />
|<br />
!scope="col"| Apprentissage<br />
!scope="col"| Détection<br />
!scope="col"| Technologie<br />
!scope="col"| Sous-équipe<br />
!scope="col"| Etat<br />
<br />
|-<br />
!scope="row"| Base de données<br />
| X<br />
| -<br />
| TinyXml<br />
| Fabien & Christopher & Sylvain<br />
| FAIT<br />
<br />
|-<br />
!scope="row"| Acquisition de données<br />
| X<br />
| X<br />
| OpenCV<br />
| Sylvain & Christopher<br />
| FAIT<br />
<br />
|-<br />
!scope="row"| Détection de visages<br />
| X<br />
| X<br />
| OpenCV<br />
| Marie & Maxence & Camille & Clément<br />
| FAIT<br />
<br />
|-<br />
!scope="row"| Authentification<br />
| -<br />
| X<br />
| OpenCV<br />
| Marie & Camille<br />
| A tester<br />
<br />
|-<br />
!scope="row"| Documentation<br />
| -<br />
| -<br />
| Wiki air<br />
| Marie<br />
| En cours<br />
<br />
|-<br />
!scope="row"| Interface<br />
| -<br />
| -<br />
| Qt project<br />
| Maxence & Clément<br />
| En cours<br />
<br />
|-<br />
!scope="row"| Synchro. Interface-Auth.<br />
| -<br />
| -<br />
| Qt project<br />
| Camille & Christopher & Sylvain & Fabien<br />
| En cours<br />
<br />
|}<br />
<br />
===Technologies et matériel utilisés===<br />
* C++<br />
* librairies et frameworks : [http://opencv.org/ OpenCV], [http://qt-project.org/ Qt Project], [http://www.grinninglizard.com/tinyxml/ TinyXml]<br />
* webcam<br />
<br />
===Chronologie de développement===<br />
# Détection avec quelques images en base<br />
#* Nous commençons par élaborer un modèle avec une petite base pour nous permettre de faire des tests. Nous agrandirons la base pour davantage de tests par la suite.<br />
#* L'acquisition des données de la webcam est très facilement gérée par OpenCV<br />
#* La détection de visage se base sur la méthode de [http://fr.wikipedia.org/wiki/M%C3%A9thode_de_Viola_et_Jones Viola et Jones], aussi géré par OpenCV<br />
#* Se focaliser sur la phase critique : l'identification de visages<br />
# Gérer la phase d'apprentissage du système<br><br />
# optimiser le système (statistiques, réglage du seuil,…)<br><br />
<br />
==Fonctionnement du projet ==<br />
<br />
=== Utilisation de la librairie OpenCv ===<br />
<br />
Comme ce projet nécéssitait l'utilisation d'une kinect, nous avions décidé de développer sous Windows.<br />
<br />
Nous avons donc tout d'abord essayé d'utiliser Visual Studio pour développer notre projet. Par la suite, nous avons choisi de passer par un autre éditeur : Codeblocks.<br />
<br />
1) Utilisation de Visual Studio (2012)<br />
<br />
Après avoir réussi à inclure les librairies dans notre code, nous avons rencontrés les problèmes suivants : <br />
<br />
<br />
Problèmes rencontrés :<br />
* Difficulté de comprendre le fonctionnement du compilateur de visual studio, notamment lorsqu'il faut ajouter de nouveaux fichiers<br />
* Problème lors du fonctionnement des objets utilisés par opencv (Exception au lancement, ou détection des visages non effectuées) pour certaines machines.<br />
* La librairie devait se trouver sur au même endroit pour toutes les machines<br />
<br />
2) Utilisation de Code Blocks<br />
<br />
Pour une meilleure compréhension et un projet fonctionnant sur des machines différentes avec des librairies qui ne sont pas installées aux mêmes endroits, nous avons choisi de porter le projet sur codeblocks.<br />
<br />
Dans ce projet, nous avons utilisé Codeblocks 12.11 avec MinGW inclu (version 4.7.1).<br />
<br />
==== Compilation de la librairie OpenCv ====<br />
<br />
Afin d'éviter les problèmes d'utilisation de la librairie, il était nécessaire de recompiler la librairie avec le même compilateur que nous utilisons pour notre projet (ici MinGW fourni avec CodeBlocks).<br />
<br />
Pour compiler la librairie, nous avons utilisé l'utilitaire Cmake.<br />
<br />
Les fichiers de configurations de Cmake étant déjà fourni avec opencv (fichiers CMakeLists.txt), son utilisation devient très simple. Nous avons suivi le tutoriel ci-dessous :<br />
<br />
<br />
<br />
* Lancement de Cmake-gui<br />
* Dans le champs Source Code, spécifier le chemin de la librairie openCv (exemple : C:\opencv-2.4.3)<br />
* Dans le champs build, mettre le chemin ou la librairie compilée sera enregistrée (exemple : C:\openCV-build)<br />
* Cliquer ensuite sur configure (créer le nouveau dossier)<br />
* Spécification du générateur : MinGW Makefiles<br />
* Sélectionner "Specify native compilers"<br />
* Définir le compilateur C (ex : C:/Program Files/CodeBlocks/MinGW/bin/gcc.exe)<br />
* Définir le compilateur C++ (ex: C:/Program Files/CodeBlocks/MinGW/bin/g++.exe)<br />
* Cliquer sur Finish<br />
* Cliquer sur generate<br />
* Fermer Cmake<br />
* Ouvrir une fenêtre de commande et aller dans le dossier que vous avez spécifié dans le champs build (ici : C:\openCV-build)<br />
* Executer "ming32-make" (prend du temps et nécessite peut être d'avoir le répertoire bin de MinGW dans le PATH)<br />
* Enfin executer "mingw32-make install"<br />
<br />
==== Configuration de codeblocks ====<br />
<br />
Pour configurer codeblocks, nous avons suivi ce tutoriel : http://opencv.willowgarage.com/wiki/CodeBlocks<br />
<br />
Afin que chacun puisse installer sa librairie openCv où bon lui semble, nous avons décidé de configurer chacun notre CodeBlocks. La démarche suivie est la suivante :<br />
<br />
* Menu "settings" / "Compiler" <br />
* Onglet "search directories"<br />
* Dans le sous onglet "Compiler", spécifier le dossier include de notre openCv recompilé<br />
* Dans le sous onglet "Linker", spécifier le dossier lib de notre openCv recompilé<br />
* Aller dans l'onglet "linker settings" et ajouter toutes les libraies .dll.a contenues dans le dossier lib.<br />
* Inclure le dossier bin de notre openCv recompilé dans la variable système PATH (nécessite peut être un redemmarrage)<br />
<br />
Après ces étapes nous pouvons inclure les librairies openCV dans n'importe quel projet Codeblocks.<br />
<br />
=== Utilisation de Qt project ===<br />
<br />
=== Détection de visages ===<br />
<u>''Référence</u> : ''<br />
* [http://opencv.willowgarage.com/wiki/FaceDetection Tutoriel pour la détection de visage par OpenCV]<br />
* [http://www.cs.princeton.edu/courses/archive/fall08/cos429/CourseMaterials/Precept1/facedetect.pdf Tutoriel pour la détection de visage]<br><br />
<br />
<br />
Après nous être inspirés de ces tutoriels, voici comment la détection de visages est implémentée dans notre projet :<br />
<span style="color:grey">// Déclaration des variables</span><br />
char Filexml[]="haarcascade_frontalface_alt.xml";<br />
CvHaarClassifierCascade* cascade = 0;<br />
IplImage* frame = 0;<br />
struct stat buf;<br />
int statResult = stat(Filexml,&buf);<br />
char s[] = "picture.jpg";<br />
int nbFrame = 0;<br />
CvCapture* capture;<br />
IplImage *subImg;<br />
CvSeq *faceRectSeq;<br />
CvMemStorage *storage = cvCreateMemStorage(0);<br />
<span style="color:grey">// Teste si le fichier d'entrée est bien chargé</span><br />
if (statResult ||buf.st_ino<0) {<br />
printf("xml non trouvé");<br />
}<br />
else {<br />
<span style="color:grey">// Crée un nouveau Haar classifier :<br />
// Crée des classes permettant d'identifier des objets dans des rectangles d'images<br />
// Le système s'entraine sur les images du fichier xml</span><br />
cascade = (CvHaarClassifierCascade*) cvLoad(Filexml);<br />
}<br />
<span style="color:grey">// Détection des visages en continue, à partir de la webcam</span><br />
while (true)<br />
{<br />
<span style="color:grey">// Capture de la caméra</span><br />
capture = cvCaptureFromCAM(1);<br />
<span style="color:grey">// Crée un IplImage à partir de la caméra</span><br />
frame = cvQueryFrame(capture);<br />
<span style="color:grey">// Crée une fenêtre pour afficher les visages détectés</span><br />
cvNamedWindow("Sample Program", CV_WINDOW_AUTOSIZE);<br />
cvNamedWindow("Visage", CV_WINDOW_AUTOSIZE);<br />
<span style="color:grey">// Détection des objets dans l'image de la caméra</span><br />
faceRectSeq = cvHaarDetectObjects(frame,cascade,storage,1.2, 3,CV_HAAR_DO_CANNY_PRUNING,cvSize(50,50));<br />
CvRect *r;<br />
for ( int i = 0; i < (faceRectSeq? faceRectSeq->total:0); i++ )<br />
{<br />
r = (CvRect*)cvGetSeqElem(faceRectSeq,i);<br />
CvPoint p1 = { r->x, r->y };<br />
CvPoint p2 = { r->x + r->width, r->y + r->height };<br />
cvRectangle(frame,p1,p2,CV_RGB(0,255,0),1,4,0);<br />
<span style="color:grey">// Récupération de l'image à l'interieur du rectangle r</span><br />
cvSetImageROI(frame, *r);<br />
subImg = cvCreateImage(cvGetSize(frame), frame->depth, frame->nChannels);<br />
cvCopy(frame, subImg, NULL);<br />
<span style="color:grey">// On enregistre l'image du visage</span><br />
saveTrainImg(frame, subImg, nbFrame);<br />
<span style="color:grey">// Affiche l'image dans le rectangle, et l'image de la caméra dans son intégralité</span><br />
cvShowImage("Visage", subImg);<br />
cvResetImageROI(frame);<br />
cvShowImage("Sample Program", frame);<br />
}<br />
<span style="color:grey">// Fermeture de l'application sur commande Echap</span><br />
int c = cvWaitKey(10);<br />
if( (char)c == 27 )<br />
{<br />
cvSaveImage(s, frame);<br />
exit(0);<br />
}<br />
nbFrame++;<br />
}<br />
}<br />
<br />
=== Traitement des images ===<br />
<br />
<span style="color:grey">// Copie l'image source ''frame'' dans ''subImg'' pour traitement</span><br />
subImg = cvCreateImage(cvGetSize(frame), frame->depth, frame->nChannels);<br />
cvCopy(frame, subImg, NULL);<br />
<span style="color:grey">// Crée le nom de fichier pour l'enregistrement de l'image</span><br />
string Result;<br />
ostringstream convert;<br />
ostringstream convertIdPersonne;<br />
convert << nbFrame;<br />
convertIdPersonne <<idPersonne;<br />
Result = "imgResizedGray\\picture"+convertIdPersonne.str()+""+convert.str()+".jpg";<br />
<span style="color:grey">// Variables nécessaires au traitement de l'image</span><br />
IplImage *dst = cvCreateImage(cvSize(400, 400),subImg->depth,3)<br />
IplImage *dstGray = cvCreateImage(cvSize(400, 400),dst->depth,1);<br />
<span style="color:grey">// Redimensionne l'image</span><br />
cvResize(subImg,dst, CV_INTER_LINEAR );<br />
<span style="color:grey">// Convertie en matrice et en niveaux de gris</span><br />
cvCvtColor(dst, dstGray, CV_RGB2GRAY);<br />
<span style="color:grey">// Enregistre l'image retraitée</span><br />
cvSaveImage(Result.c_str(), dstGray);<br />
return Result;<br />
<br />
=== Identification de visages ===<br />
<u>''Référence</u> : '' [http://docs.opencv.org/modules/contrib/doc/facerec/facerec_tutorial.html Tutoriel pour la reconnaissance de visage]<br><br />
L'identification de visage consiste à reconnaitre un utilisateur dans un ensemble de visages connu. Plusieurs algorithmes existent pour comparer un visage à un autre : Eigenfaces, Fisherfaces, Local Binary Patterns Histograms,...<br />
<br />
Dans notre solution, nous utilisons la technique Fisherfaces. Il faut générer un modèle, permettant de lier chaque identité à un set d'images lui correspondant. A la phase d'identification, l'image test (visage) sera comparée avec ce modèle. On va sélectionner le visage le plus proche du visage test, selon un certain calcul de distance. Il est possible d'améliorer les résultats en jouant sur le seuil d'acceptation.<br />
<br />
'''Création du modèle '''<br />
<span style="color:grey">// Vecteurs permettant de stocker l'ensemble des images et des noms des utilisateurs pour le modèle</span><br />
vector<Mat> images;<br />
vector<int> labels;<br />
<span style="color:grey">// Va chercher les données dans notre fichier de données</span><br />
vector<Personne> personnes = collection->getPersonnes();<br />
<span style="color:grey">// Vecteur contenant les images de notre système de données</span><br />
vector<Image> imageRefs;<br />
<span style="color:grey">// Parcours de l'ensemble des personnes du système de données</span><br />
Personne personne;<br />
for(int i=0;i<(int)personnes.size();i++){<br />
personne = personnes[i];<br />
imageRefs = personne.getImageReferences();<br />
for(int j=0;j<(int)imageRefs.size();j++){<br />
<span style="color:grey">// Récupère l'image</span><br />
IplImage* src = cvLoadImage(imageRefs[j].getChemin().c_str(), CV_LOAD_IMAGE_GRAYSCALE);<br />
<span style="color:grey">// Transforme l'image en matrice</span><br />
Mat matDst=src;<br />
<span style="color:grey">// Stocke l'image dans le vecteur ''images'' et la lie à l'identité dans le vecteur ''labels''</span><br />
images.push_back(matDst); labels.push_back(personne.getId());<br />
}<br />
}<br />
<span style="color:grey">// Crée le modèle avec la technique Fisherfaces</span><br />
Ptr<FaceRecognizer> model = createFisherFaceRecognizer();<br />
<span style="color:grey">// Entraine/génère le modèle en fonction des vecteurs créés</span><br />
model->train(images, labels);<br />
return model;<br />
<br />
'''Identification du visage'''<br />
<br />
<span style="color:grey">// Formatage de l'image du visage test</span><br />
IplImage *dstTest = cvCreateImage(cvSize(400 , 400),subImg->depth,3);<br />
IplImage *dstTestGray = cvCreateImage(cvSize(400 , 400),subImg->depth,1);<br />
cvResize(subImg,dstTest, CV_INTER_LINEAR );<br />
cvCvtColor(dstTest, dstTestGray, CV_RGB2GRAY);<br />
<span style="color:grey">// Création de la matrice de l'image de visage test pour comparaison avec le modèle</span><br />
Mat matTest=dstTestGray;<br />
<span style="color:grey">// Variable stockant la confiance accordée au résultat</span><br />
double confidence = -1.0;<br />
<span style="color:grey">// Identité résultat prédite</span><br />
int predicted = -1;<br />
<span style="color:grey">// Demande la prédiction à partir du modèle cv::FaceRecognizer:</span><br />
model->predict(matTest, predicted, confidence);<br />
<br />
=== Persistance des données ===<br />
Pour réaliser un système de reconnaissance faciale, il faut mettre en place une base des utilisateurs. Lorsqu'une personne souhaitera être authentifiée (ou identifiée), la comparaison sera faite avec les individus présents dans cette base. Pour chaque individu, nous lui associons une liste d'images, captures de son visage. Le système de reconnaissance d'OpenCV fonctionnant directement avec des images, nous les stockons directement en format JPG dans un dossier "imgResizedGray".<br />
<br />
==== Format de données ====<br />
Les données sont stockées en XML (fichier Personnes.xml dans le dossier data). Pour chaque personne, nous enregistrons son nom, prénom, un identifiant unique (généré automatiquement), et une liste d'images associées (date + chemin). Voici un exemple de fichier:<br />
<span style="color:purple"><?xml version="1.0" encoding="utf-8"?><br />
<ListePersonnes><br />
<Personne><br />
<Nom></span><br />
Mercier<br />
<span style="color:purple"></Nom><br />
<Prenom></span><br />
Jean-Francois<br />
<span style="color:purple"></Prenom><br />
<Id></span><br />
1<br />
<span style="color:purple"></Id><br />
<Image><br />
<Chemin></span><br />
MercierJean-Francois.jpg<br />
<span style="color:purple"></Chemin><br />
<Date></span><br />
DD/MM/YYYY HH:MM:SS<br />
<span style="color:purple"></Date><br />
</Image><br />
<Image><br />
<Chemin></span><br />
MercierJean-Francois2.jpg<br />
<span style="color:purple"></Chemin><br />
<Date></span><br />
DD/MM/YYYY HH:MM:SS<br />
<span style="color:purple"></Date><br />
</Image><br />
</Personne><br />
</ListePersonnes></span><br />
Une fois parsées, les données sont en mémoire dans la classe "Connexion". Les modifications des données effectuées dans cette structure sont enregistrée en même temps dans le fichier xml.<br />
<br />
==== Librairie utilisée ====<br />
La librairie utilisée pour parser le fichier xml est tinyXML. L'import de la librairie est très simple puisque ce sont des classes C++ à ajouter dans le projet:<br />
<br />
<ul><br />
<li>tinystr.cpp<br />
<li>tinyxml.cpp<br />
<li>tinyxmlerror.cpp<br />
<li>tinyxmlparser.cpp<br />
</ul><br />
<br><br />
<br />
La documentation est disponible [http://www.grinninglizard.com/tinyxml/ ici].<br />
Quelques éléments sur le fonctionnement de la librairie:<br />
<ul><br />
<li> Chargement d'un fichier XML :</li> <br />
TiXmlDocument doc = TiXmlDocument(xmlFile);<br />
<li> Accès à une balise fille (dans ce cas c'est <ListePersonnes>) :</li><br />
TiXmlHandle hdl(&doc);<br />
TiXmlElement *elem1 = hdl.FirstChildElement("ListePersonnes").Element();<br />
//Si l'élément cherché est non trouvé<br />
if(!elem1) return false;<br />
<li> Accès à une balise soeur (on passe de <Nom> à <Prenom>) :</li><br />
TiXmlElement *elem1=elem1->NextSiblingElement("Prenom");<br />
<li> Modification du fichier XML (ajout d'une balise fille <Personne> ainsi que ses balises filles <Nom>, <Prenom>, <Id>) :</li><br />
<pre><br />
TiXmlText* newText;<br />
TiXmlElement new_personne("Personne");<br />
TiXmlElement new_nom("Nom");<br />
TiXmlElement new_prenom("Prenom");<br />
TiXmlElement new_id("Id");<br />
<br />
//Récupération des informations de la personne<br />
newText = new TiXmlText(firstName.c_str());<br />
new_nom.InsertEndChild(*newText);<br />
newText = new TiXmlText(lastName.c_str());<br />
new_prenom.InsertEndChild(*newText);<br />
oss <<id;<br />
newText = new TiXmlText(oss.str().c_str());<br />
new_id.InsertEndChild(*newText);<br />
<br />
//Création des balises filles de <Personne><br />
new_personne.InsertEndChild(new_nom);<br />
new_personne.InsertEndChild(new_prenom);<br />
new_personne.InsertEndChild(new_id);<br />
<br />
//Création de la balise fille <Personne><br />
elem1->InsertEndChild(new_personne);<br />
</pre><br />
<li> Sauvegarde du fichier XML :</li><br />
doc.SaveFile(xmlFile);<br />
</ul></div>Wirthchttps://air.imag.fr/index.php?title=Video_...&diff=10050Video ...2013-03-21T14:13:15Z<p>Wirthc: Created page with "Media: video"</p>
<hr />
<div>[[Media: video]]</div>Wirthchttps://air.imag.fr/index.php?title=Soutenances_Projet_RICM_5_2012-2013&diff=10049Soutenances Projet RICM 5 2012-20132013-03-21T14:12:40Z<p>Wirthc: /* Planning */</p>
<hr />
<div>==Planning==<br />
<br />
{|class="wikitable alternance"<br />
|+ Planning Jeudi 21/03 P257 ([[Polytech Grenoble]])<br />
|-<br />
|<br />
!scope="col"| Horaire<br />
!scope="col"| Projet<br />
!scope="col"| Encadrant(s)<br />
!scope="col"| Etudiant(s)<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| 13H00-13H45<br />
| [[RobAIR2013]]<br />
| [[User:Donsez|Didier Donsez]]<br />
| NICOLACCINI MICKAEL , ALEXANDRE ARTHUR, Salem HARRACHE , PAZ HERNANDEZ ELIZABETH<br />
| [http://air.imag.fr/mediawiki/index.php/RobAIR2013-RICM5-Suivi Fiche suivi RobAIR] - [[Media:Projet_RobAIR2013_diapo.pdf |Transparents]] - [[Media:Flyer-RobAIR.pdf|Flyer]] - [[Media:Poster-RobAIR.pdf|Poster]] [http://youtu.be/-3mbR5M8lzw Video] - [http://robair.quicker.fr/ Site web]<br />
|-<br />
!scope="row"| 2<br />
| 13H45-14H30<br />
| [[Armind]]<br />
| Renaud Blanch, Nicolas Glade, Nicolas Vuillerme, Didier Pradon (APHP Garches)<br />
| CHEVALLIER MARIE (PL), FALL YACINE, LU XIAO<br />
| [http://air.imag.fr/mediawiki/index.php/Armind Fiche de suivi Armind] & [[Media:presentationArmind.ppt|transparents]] & [[Media:flyersArmind.pdf|flyers]] & [[Media:posterArmind.pdf|poster]]<br />
|-<br />
!scope="row"| 3<br />
| 14H30-14H45<br />
| Pause<br />
|-<br />
!scope="row"| 4<br />
| 14H45-15H15<br />
| [[Fusion multi-capteurs pour table tactile]]<br />
| Renaud Blanch, Renaud Collin<br />
| RAOUX MAXENCE (PL), DAUVERGNE LEOPOLD<br />
| [http://air.imag.fr/mediawiki/index.php/Fusion_multi-capteurs_pour_table_tactile fiche suivi] & [http://air.imag.fr/mediawiki/images/b/be/Sonar_TablePresentation.pdf Transparents] & [http://air.imag.fr/mediawiki/images/0/07/FliyerSonarTable.pdf Flyer] & [http://air.imag.fr/mediawiki/images/thumb/2/2f/PosterSonarTable.jpg/600px-PosterSonarTable.jpg Poster] & [http://www.youtube.com/watch?v=8VKd9UdPNmc Video]<br />
|-<br />
!scope="row"| 5<br />
| 15H15-16H00<br />
| [[Projet Réseaux de Capteurs]]<br />
| Bernard Tourancheau<br />
| CARAMELLI NOE-JEAN (PL), LEVEQUE FLORIAN, HO MINH QUAN<br />
| [[fiche suivi ...]] & [[Media:Presentation_coconode.pdf | transparents]] & [[Media:Coconode_flyer.pdf | Flyer]] & [[Media:Coconode_poster.pdf | Poster]] & [[video ...]]<br />
|-<br />
!scope="row"| 6<br />
| 16H00-16H30<br />
| [[OAR Cloud Computing 2013]]<br />
| Olivier Richard<br />
| MERCIER MICHAEL (PL)<br />
| [[Proj-2012-2013-OAR-Cloud | fiche suivi]] & [[Media:Oar-cloud-pres.pdf | transparents]]<br />
|}<br />
<br />
<br />
<br />
{|class="wikitable alternance"<br />
|+ Planning Vendredi 22/03 P249 ([[Polytech Grenoble]])<br />
|-<br />
|<br />
!scope="col"| Horaire<br />
!scope="col"| Projet<br />
!scope="col"| Encadrant(s)<br />
!scope="col"| Etudiant(s)<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| 14H30-15H15<br />
| [[Projet 2013 : Interactive Digital Signage]]<br />
| [[User:Donsez|Didier Donsez]]<br />
| FOURURE FLORIAN, BISCH SIMON (PL), CLAVELIN AURELIEN<br />
| [[fiche suivi ...]] & [http://air.imag.fr/mediawiki/index.php/File:-BISCH-FOURURE-CLAVELIN--RICM5-IDS-Presentation.pdf transparents] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|-<br />
!scope="row"| 2<br />
| 15H15-16H00<br />
| [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone Projet CERVIN de "Rehab Lab"]<br />
| Renaud Blanch, Francois Letellier de l'association [http://www.aconit.org/ ACONIT], le [http://www.ccsti-grenoble.org/ CCSTI Grenoble]<br />
| OSWALD CAMILLE, WIRTH CLÉMENT, PRAK SORIYA, GNATTO-BAHIE CHRISTOPHER<br />
| [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone Wiki projet Cervin] & [http://air.imag.fr/mediawiki/images/c/c5/CervinPres.pdf transparent] & [http://air.imag.fr/mediawiki/images/9/9b/FlyerCervin.pdf flyer] & [http://air.imag.fr/mediawiki/images/9/9e/Poster.pdf poster ] & [[video ...]]<br />
|-<br />
!scope="row"| 3<br />
| 16H00-16H45<br />
| [[Développement d'une appli mobile pour urgentistes en Afrique utilisant la synthèse vocale]]<br />
| Laurent Besacier, F. Camara et la [http://voxygen.fr/ société Voxygen]<br />
| ELOY FABIEN, NGOUALA ROLLY, VIGIER SYLVAIN, GU QIKAI, SEGALA JOACHIM<br />
| [[fiche suivi ...]] & [[transparents ...]] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|}<br />
<br />
==Recommandations==<br />
* Prévenez vos tuteurs de votre horaire de passage pour qu'ils assistent à votre soutenance (ainsi que des éventuels changements).<br />
* La durée des soutenances est STRICTEMENT 45 minutes (et 30 minutes pour Michael Mercier)<br />
* Chaque soutenance comporte 20 minutes de présentation, 15 minutes de démonstration suivi de 10 minutes de questions/réponse<br />
* La présentation doit aborder l'ensemble des aspects du projet (contexte, technique, gestion, ...)<br />
* Les transparents doivent être ajoutés à cette page avant le Jeudi matin<br />
* Des ''flyers'' (3 volets d'un A4) et un poster (A4 ou 2*A4 ou A3) devront être apportés puis laissés dans la salle AIR.<br />
<br />
==Conseils==<br />
* Le chef de projet orchestre<br />
* Répétez plusieurs fois et chronométrez vous !<br />
* Répartissez vous la parole pendant la présentation et la démo<br />
* Attention à l' ''effet démo'' : prévoyez une vidéo de secours</div>Wirthchttps://air.imag.fr/index.php?title=File:Poster.pdf&diff=10048File:Poster.pdf2013-03-21T14:12:01Z<p>Wirthc: uploaded a new version of "File:Poster.pdf"</p>
<hr />
<div>poster arduigrid</div>Wirthchttps://air.imag.fr/index.php?title=Poster_...&diff=10047Poster ...2013-03-21T14:11:44Z<p>Wirthc: Created page with "Media: poster"</p>
<hr />
<div>[[Media: poster]]</div>Wirthchttps://air.imag.fr/index.php?title=Soutenances_Projet_RICM_5_2012-2013&diff=10046Soutenances Projet RICM 5 2012-20132013-03-21T14:11:14Z<p>Wirthc: /* Planning */</p>
<hr />
<div>==Planning==<br />
<br />
{|class="wikitable alternance"<br />
|+ Planning Jeudi 21/03 P257 ([[Polytech Grenoble]])<br />
|-<br />
|<br />
!scope="col"| Horaire<br />
!scope="col"| Projet<br />
!scope="col"| Encadrant(s)<br />
!scope="col"| Etudiant(s)<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| 13H00-13H45<br />
| [[RobAIR2013]]<br />
| [[User:Donsez|Didier Donsez]]<br />
| NICOLACCINI MICKAEL , ALEXANDRE ARTHUR, Salem HARRACHE , PAZ HERNANDEZ ELIZABETH<br />
| [http://air.imag.fr/mediawiki/index.php/RobAIR2013-RICM5-Suivi Fiche suivi RobAIR] - [[Media:Projet_RobAIR2013_diapo.pdf |Transparents]] - [[Media:Flyer-RobAIR.pdf|Flyer]] - [[Media:Poster-RobAIR.pdf|Poster]] [http://youtu.be/-3mbR5M8lzw Video] - [http://robair.quicker.fr/ Site web]<br />
|-<br />
!scope="row"| 2<br />
| 13H45-14H30<br />
| [[Armind]]<br />
| Renaud Blanch, Nicolas Glade, Nicolas Vuillerme, Didier Pradon (APHP Garches)<br />
| CHEVALLIER MARIE (PL), FALL YACINE, LU XIAO<br />
| [http://air.imag.fr/mediawiki/index.php/Armind Fiche de suivi Armind] & [[Media:presentationArmind.ppt|transparents]] & [[Media:flyersArmind.pdf|flyers]] & [[Media:posterArmind.pdf|poster]]<br />
|-<br />
!scope="row"| 3<br />
| 14H30-14H45<br />
| Pause<br />
|-<br />
!scope="row"| 4<br />
| 14H45-15H15<br />
| [[Fusion multi-capteurs pour table tactile]]<br />
| Renaud Blanch, Renaud Collin<br />
| RAOUX MAXENCE (PL), DAUVERGNE LEOPOLD<br />
| [http://air.imag.fr/mediawiki/index.php/Fusion_multi-capteurs_pour_table_tactile fiche suivi] & [http://air.imag.fr/mediawiki/images/b/be/Sonar_TablePresentation.pdf Transparents] & [http://air.imag.fr/mediawiki/images/0/07/FliyerSonarTable.pdf Flyer] & [http://air.imag.fr/mediawiki/images/thumb/2/2f/PosterSonarTable.jpg/600px-PosterSonarTable.jpg Poster] & [http://www.youtube.com/watch?v=8VKd9UdPNmc Video]<br />
|-<br />
!scope="row"| 5<br />
| 15H15-16H00<br />
| [[Projet Réseaux de Capteurs]]<br />
| Bernard Tourancheau<br />
| CARAMELLI NOE-JEAN (PL), LEVEQUE FLORIAN, HO MINH QUAN<br />
| [[fiche suivi ...]] & [[Media:Presentation_coconode.pdf | transparents]] & [[Media:Coconode_flyer.pdf | Flyer]] & [[Media:Coconode_poster.pdf | Poster]] & [[video ...]]<br />
|-<br />
!scope="row"| 6<br />
| 16H00-16H30<br />
| [[OAR Cloud Computing 2013]]<br />
| Olivier Richard<br />
| MERCIER MICHAEL (PL)<br />
| [[Proj-2012-2013-OAR-Cloud | fiche suivi]] & [[Media:Oar-cloud-pres.pdf | transparents]]<br />
|}<br />
<br />
<br />
<br />
{|class="wikitable alternance"<br />
|+ Planning Vendredi 22/03 P249 ([[Polytech Grenoble]])<br />
|-<br />
|<br />
!scope="col"| Horaire<br />
!scope="col"| Projet<br />
!scope="col"| Encadrant(s)<br />
!scope="col"| Etudiant(s)<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| 14H30-15H15<br />
| [[Projet 2013 : Interactive Digital Signage]]<br />
| [[User:Donsez|Didier Donsez]]<br />
| FOURURE FLORIAN, BISCH SIMON (PL), CLAVELIN AURELIEN<br />
| [[fiche suivi ...]] & [http://air.imag.fr/mediawiki/index.php/File:-BISCH-FOURURE-CLAVELIN--RICM5-IDS-Presentation.pdf transparents] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|-<br />
!scope="row"| 2<br />
| 15H15-16H00<br />
| [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone Projet CERVIN de "Rehab Lab"]<br />
| Renaud Blanch, Francois Letellier de l'association [http://www.aconit.org/ ACONIT], le [http://www.ccsti-grenoble.org/ CCSTI Grenoble]<br />
| OSWALD CAMILLE, WIRTH CLÉMENT, PRAK SORIYA, GNATTO-BAHIE CHRISTOPHER<br />
| [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone Wiki projet Cervin] & [http://air.imag.fr/mediawiki/images/c/c5/CervinPres.pdf transparent] & [http://air.imag.fr/mediawiki/images/9/9b/FlyerCervin.pdf flyer] & [[poster ...]] & [[video ...]]<br />
|-<br />
!scope="row"| 3<br />
| 16H00-16H45<br />
| [[Développement d'une appli mobile pour urgentistes en Afrique utilisant la synthèse vocale]]<br />
| Laurent Besacier, F. Camara et la [http://voxygen.fr/ société Voxygen]<br />
| ELOY FABIEN, NGOUALA ROLLY, VIGIER SYLVAIN, GU QIKAI, SEGALA JOACHIM<br />
| [[fiche suivi ...]] & [[transparents ...]] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|}<br />
<br />
==Recommandations==<br />
* Prévenez vos tuteurs de votre horaire de passage pour qu'ils assistent à votre soutenance (ainsi que des éventuels changements).<br />
* La durée des soutenances est STRICTEMENT 45 minutes (et 30 minutes pour Michael Mercier)<br />
* Chaque soutenance comporte 20 minutes de présentation, 15 minutes de démonstration suivi de 10 minutes de questions/réponse<br />
* La présentation doit aborder l'ensemble des aspects du projet (contexte, technique, gestion, ...)<br />
* Les transparents doivent être ajoutés à cette page avant le Jeudi matin<br />
* Des ''flyers'' (3 volets d'un A4) et un poster (A4 ou 2*A4 ou A3) devront être apportés puis laissés dans la salle AIR.<br />
<br />
==Conseils==<br />
* Le chef de projet orchestre<br />
* Répétez plusieurs fois et chronométrez vous !<br />
* Répartissez vous la parole pendant la présentation et la démo<br />
* Attention à l' ''effet démo'' : prévoyez une vidéo de secours</div>Wirthchttps://air.imag.fr/index.php?title=Flyer_...&diff=10045Flyer ...2013-03-21T14:09:29Z<p>Wirthc: </p>
<hr />
<div>[[http://air.imag.fr/mediawiki/images/9/9b/FlyerCervin.pdf flyer]]</div>Wirthchttps://air.imag.fr/index.php?title=File:FlyerCervin.pdf&diff=10043File:FlyerCervin.pdf2013-03-21T14:07:54Z<p>Wirthc: </p>
<hr />
<div></div>Wirthchttps://air.imag.fr/index.php?title=Flyer_...&diff=10042Flyer ...2013-03-21T14:05:04Z<p>Wirthc: Created page with "Media:flyer"</p>
<hr />
<div>[[Media:flyer]]</div>Wirthchttps://air.imag.fr/index.php?title=Soutenances_Projet_RICM_5_2012-2013&diff=10041Soutenances Projet RICM 5 2012-20132013-03-21T14:04:33Z<p>Wirthc: /* Planning */</p>
<hr />
<div>==Planning==<br />
<br />
{|class="wikitable alternance"<br />
|+ Planning Jeudi 21/03 P257 ([[Polytech Grenoble]])<br />
|-<br />
|<br />
!scope="col"| Horaire<br />
!scope="col"| Projet<br />
!scope="col"| Encadrant(s)<br />
!scope="col"| Etudiant(s)<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| 13H00-13H45<br />
| [[RobAIR2013]]<br />
| [[User:Donsez|Didier Donsez]]<br />
| NICOLACCINI MICKAEL , ALEXANDRE ARTHUR, Salem HARRACHE , PAZ HERNANDEZ ELIZABETH<br />
| [http://air.imag.fr/mediawiki/index.php/RobAIR2013-RICM5-Suivi Fiche suivi RobAIR] - [[Media:Projet_RobAIR2013_diapo.pdf |Transparents]] - [[Media:Flyer-RobAIR.pdf|Flyer]] - [[Media:Poster-RobAIR.pdf|Poster]] [http://youtu.be/-3mbR5M8lzw Video] - [http://robair.quicker.fr/ Site web]<br />
|-<br />
!scope="row"| 2<br />
| 13H45-14H30<br />
| [[Armind]]<br />
| Renaud Blanch, Nicolas Glade, Nicolas Vuillerme, Didier Pradon (APHP Garches)<br />
| CHEVALLIER MARIE (PL), FALL YACINE, LU XIAO<br />
| [http://air.imag.fr/mediawiki/index.php/Armind Fiche de suivi Armind] & [[Media:presentationArmind.ppt|transparents]] & [[Media:flyersArmind.pdf|flyers]] & [[Media:posterArmind.pdf|poster]]<br />
|-<br />
!scope="row"| 3<br />
| 14H30-14H45<br />
| Pause<br />
|-<br />
!scope="row"| 4<br />
| 14H45-15H15<br />
| [[Fusion multi-capteurs pour table tactile]]<br />
| Renaud Blanch, Renaud Collin<br />
| RAOUX MAXENCE (PL), DAUVERGNE LEOPOLD<br />
| [http://air.imag.fr/mediawiki/index.php/Fusion_multi-capteurs_pour_table_tactile fiche suivi] & [http://air.imag.fr/mediawiki/images/b/be/Sonar_TablePresentation.pdf Transparents] & [http://air.imag.fr/mediawiki/images/0/07/FliyerSonarTable.pdf Flyer] & [http://air.imag.fr/mediawiki/images/thumb/2/2f/PosterSonarTable.jpg/600px-PosterSonarTable.jpg Poster] & [http://www.youtube.com/watch?v=8VKd9UdPNmc Video]<br />
|-<br />
!scope="row"| 5<br />
| 15H15-16H00<br />
| [[Projet Réseaux de Capteurs]]<br />
| Bernard Tourancheau<br />
| CARAMELLI NOE-JEAN (PL), LEVEQUE FLORIAN, HO MINH QUAN<br />
| [[fiche suivi ...]] & [[Media:Presentation_coconode.pdf | transparents]] & [[Media:Coconode_flyer.pdf | Flyer]] & [[Media:Coconode_poster.pdf | Poster]] & [[video ...]]<br />
|-<br />
!scope="row"| 6<br />
| 16H00-16H30<br />
| [[OAR Cloud Computing 2013]]<br />
| Olivier Richard<br />
| MERCIER MICHAEL (PL)<br />
| [[Proj-2012-2013-OAR-Cloud | fiche suivi]] & [[Media:Oar-cloud-pres.pdf | transparents]]<br />
|}<br />
<br />
<br />
<br />
{|class="wikitable alternance"<br />
|+ Planning Vendredi 22/03 P249 ([[Polytech Grenoble]])<br />
|-<br />
|<br />
!scope="col"| Horaire<br />
!scope="col"| Projet<br />
!scope="col"| Encadrant(s)<br />
!scope="col"| Etudiant(s)<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| 14H30-15H15<br />
| [[Projet 2013 : Interactive Digital Signage]]<br />
| [[User:Donsez|Didier Donsez]]<br />
| FOURURE FLORIAN, BISCH SIMON (PL), CLAVELIN AURELIEN<br />
| [[fiche suivi ...]] & [http://air.imag.fr/mediawiki/index.php/File:-BISCH-FOURURE-CLAVELIN--RICM5-IDS-Presentation.pdf transparents] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|-<br />
!scope="row"| 2<br />
| 15H15-16H00<br />
| [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone Projet CERVIN de "Rehab Lab"]<br />
| Renaud Blanch, Francois Letellier de l'association [http://www.aconit.org/ ACONIT], le [http://www.ccsti-grenoble.org/ CCSTI Grenoble]<br />
| OSWALD CAMILLE, WIRTH CLÉMENT, PRAK SORIYA, GNATTO-BAHIE CHRISTOPHER<br />
| [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone Wiki projet Cervin] & [http://air.imag.fr/mediawiki/images/c/c5/CervinPres.pdf transparent] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|-<br />
!scope="row"| 3<br />
| 16H00-16H45<br />
| [[Développement d'une appli mobile pour urgentistes en Afrique utilisant la synthèse vocale]]<br />
| Laurent Besacier, F. Camara et la [http://voxygen.fr/ société Voxygen]<br />
| ELOY FABIEN, NGOUALA ROLLY, VIGIER SYLVAIN, GU QIKAI, SEGALA JOACHIM<br />
| [[fiche suivi ...]] & [[transparents ...]] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|}<br />
<br />
==Recommandations==<br />
* Prévenez vos tuteurs de votre horaire de passage pour qu'ils assistent à votre soutenance (ainsi que des éventuels changements).<br />
* La durée des soutenances est STRICTEMENT 45 minutes (et 30 minutes pour Michael Mercier)<br />
* Chaque soutenance comporte 20 minutes de présentation, 15 minutes de démonstration suivi de 10 minutes de questions/réponse<br />
* La présentation doit aborder l'ensemble des aspects du projet (contexte, technique, gestion, ...)<br />
* Les transparents doivent être ajoutés à cette page avant le Jeudi matin<br />
* Des ''flyers'' (3 volets d'un A4) et un poster (A4 ou 2*A4 ou A3) devront être apportés puis laissés dans la salle AIR.<br />
<br />
==Conseils==<br />
* Le chef de projet orchestre<br />
* Répétez plusieurs fois et chronométrez vous !<br />
* Répartissez vous la parole pendant la présentation et la démo<br />
* Attention à l' ''effet démo'' : prévoyez une vidéo de secours</div>Wirthchttps://air.imag.fr/index.php?title=Soutenances_Projet_RICM_5_2012-2013&diff=10040Soutenances Projet RICM 5 2012-20132013-03-21T14:04:06Z<p>Wirthc: /* Planning */</p>
<hr />
<div>==Planning==<br />
<br />
{|class="wikitable alternance"<br />
|+ Planning Jeudi 21/03 P257 ([[Polytech Grenoble]])<br />
|-<br />
|<br />
!scope="col"| Horaire<br />
!scope="col"| Projet<br />
!scope="col"| Encadrant(s)<br />
!scope="col"| Etudiant(s)<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| 13H00-13H45<br />
| [[RobAIR2013]]<br />
| [[User:Donsez|Didier Donsez]]<br />
| NICOLACCINI MICKAEL , ALEXANDRE ARTHUR, Salem HARRACHE , PAZ HERNANDEZ ELIZABETH<br />
| [http://air.imag.fr/mediawiki/index.php/RobAIR2013-RICM5-Suivi Fiche suivi RobAIR] - [[Media:Projet_RobAIR2013_diapo.pdf |Transparents]] - [[Media:Flyer-RobAIR.pdf|Flyer]] - [[Media:Poster-RobAIR.pdf|Poster]] [http://youtu.be/-3mbR5M8lzw Video] - [http://robair.quicker.fr/ Site web]<br />
|-<br />
!scope="row"| 2<br />
| 13H45-14H30<br />
| [[Armind]]<br />
| Renaud Blanch, Nicolas Glade, Nicolas Vuillerme, Didier Pradon (APHP Garches)<br />
| CHEVALLIER MARIE (PL), FALL YACINE, LU XIAO<br />
| [http://air.imag.fr/mediawiki/index.php/Armind Fiche de suivi Armind] & [[Media:presentationArmind.ppt|transparents]] & [[Media:flyersArmind.pdf|flyers]] & [[Media:posterArmind.pdf|poster]]<br />
|-<br />
!scope="row"| 3<br />
| 14H30-14H45<br />
| Pause<br />
|-<br />
!scope="row"| 4<br />
| 14H45-15H15<br />
| [[Fusion multi-capteurs pour table tactile]]<br />
| Renaud Blanch, Renaud Collin<br />
| RAOUX MAXENCE (PL), DAUVERGNE LEOPOLD<br />
| [http://air.imag.fr/mediawiki/index.php/Fusion_multi-capteurs_pour_table_tactile fiche suivi] & [http://air.imag.fr/mediawiki/images/b/be/Sonar_TablePresentation.pdf Transparents] & [http://air.imag.fr/mediawiki/images/0/07/FliyerSonarTable.pdf Flyer] & [http://air.imag.fr/mediawiki/images/thumb/2/2f/PosterSonarTable.jpg/600px-PosterSonarTable.jpg Poster] & [http://www.youtube.com/watch?v=8VKd9UdPNmc Video]<br />
|-<br />
!scope="row"| 5<br />
| 15H15-16H00<br />
| [[Projet Réseaux de Capteurs]]<br />
| Bernard Tourancheau<br />
| CARAMELLI NOE-JEAN (PL), LEVEQUE FLORIAN, HO MINH QUAN<br />
| [[fiche suivi ...]] & [[Media:Presentation_coconode.pdf | transparents]] & [[Media:Coconode_flyer.pdf | Flyer]] & [[Media:Coconode_poster.pdf | Poster]] & [[video ...]]<br />
|-<br />
!scope="row"| 6<br />
| 16H00-16H30<br />
| [[OAR Cloud Computing 2013]]<br />
| Olivier Richard<br />
| MERCIER MICHAEL (PL)<br />
| [[Proj-2012-2013-OAR-Cloud | fiche suivi]] & [[Media:Oar-cloud-pres.pdf | transparents]]<br />
|}<br />
<br />
<br />
<br />
{|class="wikitable alternance"<br />
|+ Planning Vendredi 22/03 P249 ([[Polytech Grenoble]])<br />
|-<br />
|<br />
!scope="col"| Horaire<br />
!scope="col"| Projet<br />
!scope="col"| Encadrant(s)<br />
!scope="col"| Etudiant(s)<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| 14H30-15H15<br />
| [[Projet 2013 : Interactive Digital Signage]]<br />
| [[User:Donsez|Didier Donsez]]<br />
| FOURURE FLORIAN, BISCH SIMON (PL), CLAVELIN AURELIEN<br />
| [[fiche suivi ...]] & [http://air.imag.fr/mediawiki/index.php/File:-BISCH-FOURURE-CLAVELIN--RICM5-IDS-Presentation.pdf transparents] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|-<br />
!scope="row"| 2<br />
| 15H15-16H00<br />
| [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone Projet CERVIN de "Rehab Lab"]<br />
| Renaud Blanch, Francois Letellier de l'association [http://www.aconit.org/ ACONIT], le [http://www.ccsti-grenoble.org/ CCSTI Grenoble]<br />
| OSWALD CAMILLE, WIRTH CLÉMENT, PRAK SORIYA, GNATTO-BAHIE CHRISTOPHER<br />
| [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone Wiki projet Cervin] & [[http://air.imag.fr/mediawiki/images/c/c5/CervinPres.pdf transparent]] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|-<br />
!scope="row"| 3<br />
| 16H00-16H45<br />
| [[Développement d'une appli mobile pour urgentistes en Afrique utilisant la synthèse vocale]]<br />
| Laurent Besacier, F. Camara et la [http://voxygen.fr/ société Voxygen]<br />
| ELOY FABIEN, NGOUALA ROLLY, VIGIER SYLVAIN, GU QIKAI, SEGALA JOACHIM<br />
| [[fiche suivi ...]] & [[transparents ...]] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|}<br />
<br />
==Recommandations==<br />
* Prévenez vos tuteurs de votre horaire de passage pour qu'ils assistent à votre soutenance (ainsi que des éventuels changements).<br />
* La durée des soutenances est STRICTEMENT 45 minutes (et 30 minutes pour Michael Mercier)<br />
* Chaque soutenance comporte 20 minutes de présentation, 15 minutes de démonstration suivi de 10 minutes de questions/réponse<br />
* La présentation doit aborder l'ensemble des aspects du projet (contexte, technique, gestion, ...)<br />
* Les transparents doivent être ajoutés à cette page avant le Jeudi matin<br />
* Des ''flyers'' (3 volets d'un A4) et un poster (A4 ou 2*A4 ou A3) devront être apportés puis laissés dans la salle AIR.<br />
<br />
==Conseils==<br />
* Le chef de projet orchestre<br />
* Répétez plusieurs fois et chronométrez vous !<br />
* Répartissez vous la parole pendant la présentation et la démo<br />
* Attention à l' ''effet démo'' : prévoyez une vidéo de secours</div>Wirthchttps://air.imag.fr/index.php?title=Soutenances_Projet_RICM_5_2012-2013&diff=10039Soutenances Projet RICM 5 2012-20132013-03-21T14:02:03Z<p>Wirthc: /* Planning */</p>
<hr />
<div>==Planning==<br />
<br />
{|class="wikitable alternance"<br />
|+ Planning Jeudi 21/03 P257 ([[Polytech Grenoble]])<br />
|-<br />
|<br />
!scope="col"| Horaire<br />
!scope="col"| Projet<br />
!scope="col"| Encadrant(s)<br />
!scope="col"| Etudiant(s)<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| 13H00-13H45<br />
| [[RobAIR2013]]<br />
| [[User:Donsez|Didier Donsez]]<br />
| NICOLACCINI MICKAEL , ALEXANDRE ARTHUR, Salem HARRACHE , PAZ HERNANDEZ ELIZABETH<br />
| [http://air.imag.fr/mediawiki/index.php/RobAIR2013-RICM5-Suivi Fiche suivi RobAIR] - [[Media:Projet_RobAIR2013_diapo.pdf |Transparents]] - [[Media:Flyer-RobAIR.pdf|Flyer]] - [[Media:Poster-RobAIR.pdf|Poster]] [http://youtu.be/-3mbR5M8lzw Video] - [http://robair.quicker.fr/ Site web]<br />
|-<br />
!scope="row"| 2<br />
| 13H45-14H30<br />
| [[Armind]]<br />
| Renaud Blanch, Nicolas Glade, Nicolas Vuillerme, Didier Pradon (APHP Garches)<br />
| CHEVALLIER MARIE (PL), FALL YACINE, LU XIAO<br />
| [http://air.imag.fr/mediawiki/index.php/Armind Fiche de suivi Armind] & [[Media:presentationArmind.ppt|transparents]] & [[Media:flyersArmind.pdf|flyers]] & [[Media:posterArmind.pdf|poster]]<br />
|-<br />
!scope="row"| 3<br />
| 14H30-14H45<br />
| Pause<br />
|-<br />
!scope="row"| 4<br />
| 14H45-15H15<br />
| [[Fusion multi-capteurs pour table tactile]]<br />
| Renaud Blanch, Renaud Collin<br />
| RAOUX MAXENCE (PL), DAUVERGNE LEOPOLD<br />
| [http://air.imag.fr/mediawiki/index.php/Fusion_multi-capteurs_pour_table_tactile fiche suivi] & [http://air.imag.fr/mediawiki/images/b/be/Sonar_TablePresentation.pdf Transparents] & [http://air.imag.fr/mediawiki/images/0/07/FliyerSonarTable.pdf Flyer] & [http://air.imag.fr/mediawiki/images/thumb/2/2f/PosterSonarTable.jpg/600px-PosterSonarTable.jpg Poster] & [http://www.youtube.com/watch?v=8VKd9UdPNmc Video]<br />
|-<br />
!scope="row"| 5<br />
| 15H15-16H00<br />
| [[Projet Réseaux de Capteurs]]<br />
| Bernard Tourancheau<br />
| CARAMELLI NOE-JEAN (PL), LEVEQUE FLORIAN, HO MINH QUAN<br />
| [[fiche suivi ...]] & [[Media:Presentation_coconode.pdf | transparents]] & [[Media:Coconode_flyer.pdf | Flyer]] & [[Media:Coconode_poster.pdf | Poster]] & [[video ...]]<br />
|-<br />
!scope="row"| 6<br />
| 16H00-16H30<br />
| [[OAR Cloud Computing 2013]]<br />
| Olivier Richard<br />
| MERCIER MICHAEL (PL)<br />
| [[Proj-2012-2013-OAR-Cloud | fiche suivi]] & [[Media:Oar-cloud-pres.pdf | transparents]]<br />
|}<br />
<br />
<br />
<br />
{|class="wikitable alternance"<br />
|+ Planning Vendredi 22/03 P249 ([[Polytech Grenoble]])<br />
|-<br />
|<br />
!scope="col"| Horaire<br />
!scope="col"| Projet<br />
!scope="col"| Encadrant(s)<br />
!scope="col"| Etudiant(s)<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| 14H30-15H15<br />
| [[Projet 2013 : Interactive Digital Signage]]<br />
| [[User:Donsez|Didier Donsez]]<br />
| FOURURE FLORIAN, BISCH SIMON (PL), CLAVELIN AURELIEN<br />
| [[fiche suivi ...]] & [http://air.imag.fr/mediawiki/index.php/File:-BISCH-FOURURE-CLAVELIN--RICM5-IDS-Presentation.pdf transparents] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|-<br />
!scope="row"| 2<br />
| 15H15-16H00<br />
| [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone Projet CERVIN de "Rehab Lab"]<br />
| Renaud Blanch, Francois Letellier de l'association [http://www.aconit.org/ ACONIT], le [http://www.ccsti-grenoble.org/ CCSTI Grenoble]<br />
| OSWALD CAMILLE, WIRTH CLÉMENT, PRAK SORIYA, GNATTO-BAHIE CHRISTOPHER<br />
| [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone Wiki projet Cervin] & [[Media : cervinPres.ppt]] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|-<br />
!scope="row"| 3<br />
| 16H00-16H45<br />
| [[Développement d'une appli mobile pour urgentistes en Afrique utilisant la synthèse vocale]]<br />
| Laurent Besacier, F. Camara et la [http://voxygen.fr/ société Voxygen]<br />
| ELOY FABIEN, NGOUALA ROLLY, VIGIER SYLVAIN, GU QIKAI, SEGALA JOACHIM<br />
| [[fiche suivi ...]] & [[transparents ...]] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|}<br />
<br />
==Recommandations==<br />
* Prévenez vos tuteurs de votre horaire de passage pour qu'ils assistent à votre soutenance (ainsi que des éventuels changements).<br />
* La durée des soutenances est STRICTEMENT 45 minutes (et 30 minutes pour Michael Mercier)<br />
* Chaque soutenance comporte 20 minutes de présentation, 15 minutes de démonstration suivi de 10 minutes de questions/réponse<br />
* La présentation doit aborder l'ensemble des aspects du projet (contexte, technique, gestion, ...)<br />
* Les transparents doivent être ajoutés à cette page avant le Jeudi matin<br />
* Des ''flyers'' (3 volets d'un A4) et un poster (A4 ou 2*A4 ou A3) devront être apportés puis laissés dans la salle AIR.<br />
<br />
==Conseils==<br />
* Le chef de projet orchestre<br />
* Répétez plusieurs fois et chronométrez vous !<br />
* Répartissez vous la parole pendant la présentation et la démo<br />
* Attention à l' ''effet démo'' : prévoyez une vidéo de secours</div>Wirthchttps://air.imag.fr/index.php?title=File:CervinPres.pdf&diff=10038File:CervinPres.pdf2013-03-21T13:59:54Z<p>Wirthc: </p>
<hr />
<div></div>Wirthchttps://air.imag.fr/index.php?title=Projets_2012-2013&diff=10019Projets 2012-20132013-03-21T10:09:06Z<p>Wirthc: /* RICM5 */</p>
<hr />
<div><<[[Projets 2011-2012]] [[Projets 2013-2014]]>><br />
<br />
<br />
==RICM4==<br />
'''Notes:'''<br />
* Tout les documents que vous rédigerez seront de préférence en '''anglais''' (fiche de suivi, commentaire de code, documentaton, rapport). Une bonnification sera accordée pour cela.<br />
* Utilisez un '''logiciel de gestion de version''' pour vos développements comme [http://en.wikipedia.org/wiki/Git_%28software%29 git ] et nous vous conseillons d'utilise le site [https://github.com github] pour l'hébergement de votre dépôt public.<br />
<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets RICM4 2012-2013<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
|-<br />
!scope="row"| 1<br />
| [[Trodomètre | Trodomètre v2]]<br />
| Jean-François Bianco, Brice Théophile<br />
| Jacques Lemordant, Nicolas Palix, Didier Donsez<br />
| [[Proj-2012-2013-trodomètre | '''Fiche''']]<br />
<br />
|-<br />
!scope="row"| 2<br />
|[[RobAIR2013]] Groupe 1<br />
| [[User:Alexandre.Corso|Alexandre Corso]], [[User:Laurene.Guelorget|Laurène Guelorget]]<br />
| David Eon, Didier Donsez, Olivier Richard, Nicolas Palix<br />
| [[RobAIR2013-RICM4-Groupe1-Suivi| '''Fiche''']]<br />
<br />
|-<br />
!scope="row"| 3<br />
|[[RobAIR2013]] Groupe 2<br />
| [[User:Nicolas.Afonso|Nicolas Afonso]], [[User:Simon.Planes|Simon Planès]]<br />
| David Eon, Didier Donsez, Olivier Richard, Nicolas Palix<br />
| [[RobAIR2013-RICM4-Groupe2-Suivi| '''Fiche''']]<br />
<br />
|-<br />
!scope="row"| 4<br />
|[[RobAIR2013]] Groupe 3<br />
| [[User:Thomas.Nunes|Thomas Nunes]], [[User:Morgan.Bidois|Morgan Bidois]]<br />
| David Eon, Didier Donsez, Olivier Richard, Nicolas Palix<br />
| [[RobAIR2013-RICM4-Groupe3-Suivi| '''Fiche''']]<br />
<br />
|-<br />
!scope="row"| 5<br />
|[[Réducation Fonctionnelle 2013]]<br />
| [[User:Rebecca.Poustis|Rebecca Poustis]], [[User:Elisa.Martinez|Elisa Martinez]]<br />
| Nicolas Vuillerme, Alessandro Semere<br />
| [[Proj-2012-2013-RéducationFonctionnelle| '''Fiche''']]<br />
<br />
|-<br />
!scope="row"| 6<br />
|[[Sign2Text]]<br />
| Aitan Viegas, Valeria Fernandes<br />
| Nicolas Vuillerme, Didier Donsez<br />
| [[Proj-2012-2013-Sign2Text| '''Fiche''']]<br />
<br />
|-<br />
!scope="row"| 7<br />
|[[Building Management System]]<br />
| Mame Daba DIOUF, Michael COSTA DE CASTRO, Ruy Guilherme SILVA GOMES DE OLIVEIRA <br />
| Didier Donsez<br />
| [[Proj-2012-2013-BuildingManagementSystem| '''Fiche''']]<br />
<br />
|-<br />
!scope="row"| 8<br />
|[[Arduino_STM32_Discovery_2013 | Arduino et cartes STM32-Discovery]]<br />
| [[User:Tianming.Guo|Tianming Guo]], [[User:Minyi.Gu|Minyi Gu]], [[User:Xu.Feng|Xu Feng]]<br />
| Olivier Richard<br />
| [[Proj-2012-2013-arduino-stm32disco| '''Fiche''']]<br />
<br />
|-<br />
!scope="row"| 9<br />
|[[OAR_Cloud_Computing_2013 | Plateforme de Cloud Computing décentralisée]]<br />
| Alexandre Maurice, Jordan Calvi<br />
| Olivier Richard et coopération startup<br />
| [[Proj-2012-2013-OAR-Cloud| '''Fiche''']]<br />
<br />
|-<br />
!scope="row"| 10<br />
|[[RPI_G5K_2013 | Raspberry Pi et Grid'5000 ]]<br />
| [[User:Pierre.Lartigue|Pierre Lartigue]], [[User:Matthieu.Caneill|Matthieu Caneill]]<br />
| Olivier Richard et Pierre Neyron<br />
| [[Proj-2012-2013-RPI-G5K| '''Fiche''']]<br />
<br />
|-<br />
!scope="row"| 11<br />
|[[Cave à vin NFC]] <br />
| [[User:Jonathan.Lemoine|Jonathan Lemoine]], [[User:Nicolas.Husson|Nicolas Husson]]<br />
| Sophie Chareyron et Fréderic Rousseau<br />
| [[Proj-2012-2013-CaveVinNFC| '''Fiche''']]<br />
<br />
|-<br />
!scope="row"| 12<br />
|[[Audioprothèse DIY]] Groupe 1<br />
| Walid Bibi, Lotfi Manseur<br />
| Olivier Richard<br />
| [[Proj-2012-2013-Audioprothèse DIY-G1| '''Fiche''']]<br />
<br />
|-<br />
!scope="row"| 13<br />
|[[Audioprothèse DIY]] Groupe 2<br />
| Marion Dalle, Rémi Piotaix<br />
| Olivier Richard<br />
| [[Proj-2012-2013-Audioprothèse DIY-G2| '''Fiche''']]<br />
<br />
|}<br />
<br />
===Carte de compétences===<br />
* [[Android]] :<br />
* [[XBox Kinect]] :<br />
* Creative Webcam<br />
* [[Robot Operating System|ROS]] : <br />
* [[NFC]] :<br />
* [[STM32]] :<br />
* [[Arduino]] :<br />
* [http://www.grid5000.org Grid'5000] : Plate-forme distribuée dédiée à l'expérimentation<br />
* Technologies pour la virtualisation: KVM/lxc et openvswitch<br />
* [[Raspberry Pi]]<br />
<br />
==RICM5==<br />
28 Janvier au 22 mars 2013 (voir [http://ade52-ujf.grenet.fr/ade/custom/modules/plannings/direct_planning.jsp?projectId=15&login=voirPOLYTECH&password=polytech&resources=1110,1117,1124,125,15&days=0,1,2,3,4&displayConfId=1 ADE]) [[Soutenances Projet RICM 5 2012-2013]]<br />
# [[Armind]] (Renaud Blanch, Nicolas Glade, Nicolas Vuillerme) --> CHEVALLIER MARIE (PL), FALL YACINE, LU XIAO<br />
# Accessibilité handicap dans les transports (Didier Donsez, Xavier Spengler) --> Non pris<br />
# [[RobAIR2013]] (Didier Donsez, Xavier Spengler) --> [[User:Nicolacm |NICOLACCINI MICKAEL ]], ALEXANDRE ARTHUR, HARRACHE SALEM, PAZ HERNANDEZ ELIZABETH<br />
# [[Fusion multi-capteurs pour table tactile]] ((Renaud Blanch, Digitale) --> RAOUX MAXENCE (PL), DAUVERGNE LEOPOLD<br />
# [[Développement d'une appli mobile pour urgentistes en Afrique utilisant la synthèse vocale]] (Laurent Besacier, F. Camara et la société Voxygen) --> ELOY FABIEN, NGOUALA ROLLY, VIGIER SYLVAIN, GU QIKAI, SEGALA JOACHIM<br />
# [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone_(MOVING/NAV) Projet Moving/Nav] (Renaud Blanch, Francois Letellier d'ACONIT, le CCSTI) en commun avec 3I5 --> OSWALD CAMILLE, WIRTH CLÉMENT, PRAK SORIYA, GNATTO-BAHIE CHRISTOPHER<br />
# [[Projet 2013 : Interactive Digital Signage]] (Didier Donsez, Xavier Spengler) --> FOURURE FLORIAN, BISCH SIMON (PL), CLAVELIN AURELIEN<br />
# [[Coconode | Projet Réseaux de Capteurs ]](Bernard Tourancheau) --> CARAMELLI NOE-JEAN (PL), LEVEQUE FLORIAN, HO MINH QUAN<br />
# Projet Cloud Computing Middleware (Olivier Richard) --> MERCIER MICHAEL (PL)<br />
<br />
* Projet "Biométrie" (Laurent Besacier & Johann Poignant)<br />
## [[PAGE WIKI ETUDIANTS 2012-13 RECONNAISSANCE FACIALE]] <br />
## [[PAGE WIKI ETUDIANTS 2012-13 SIGNATURES]]<br />
<br />
==3I4==<br />
<br />
# [[No_Biofilm_No_Acoustic]]<br />
# [[Dispositif d’apprentissage de la respiration et de la poussée pour l’accouchement]]<br />
# [[Visualisation des champs visuels de patients atteints de DMLA]]<br />
# [[Asservissement numérique d'une bille sur un rail par une carte mbed]]<br />
# [[Commande adaptative pour la régulation de température et d’hygrométrie d’une cave à vin]]<br />
# [[Développement d’une maquette d’une plateforme ferroviaire automatique de stockage utilisant le code QR]]<br />
# [[Traitement embarqué d’algorithmes pour la mise en évidence d’indices de co-contraction musculaire]]<br />
# [[RobAIR2013]]<br />
# [[Réalisation d’une platine de modulation numérique multiprotocole]]<br />
# [[Projet ISTERRE]]<br />
# [[flight tracking]]<br />
<br />
==3I5==<br />
<br />
<br />
==M2PGI UE PM2M==<br />
L'UE [[Projets M2PGI Services Machine-to-Machine]] a pour objectif de prototyper une application [[Machine-to-Machine]] (M2M)<br />
<br>Démarrage : semaine du 21/01/2013 (11 étudiants en 5 groupes)<br />
<br />
<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets M2PGI 2012-2013<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
|-<br />
!scope="row"| 1<br />
| [[Building Management System]] ([[enOcean]], FIO+XBee, [[DeviceHive]])<br />
| Margaux Clerc, Bastien Rohart<br />
| Didier Donsez<br />
| [[Proj-2012-2013-BMSM2PGI | '''Fiche''']]<br />
<br />
|-<br />
!scope="row"| 2<br />
| [[Robot d'inspection géotechnique]]<br />
| Thibaut Guinoiseau, Laurent Lemke, Sophie Penot<br />
| Didier Donsez<br />
| [[Proj-2012-2013-RobotGeo | '''Fiche''']]<br />
<br />
|-<br />
!scope="row"| 3<br />
| [[Vélocimètre]] + [[NoiseUnderground]] ([[DeviceHive]]) avec (Raspberry JDK8 [[JavaFX]] + Webcam)<br />
| Philippe Creignou, Baptiste Venandy<br />
| Didier Donsez<br />
| [[Proj-2012-2013-VeloNoise | '''Fiche''']]<br />
<br />
|-<br />
!scope="row"| 4<br />
| [[Pointeuse mobile NFC]]<br />
| Martial Chabot, Arthur Plunet<br />
| Gérard Forestier<br />
| [[Proj-2012-2013-PointeuseNFC | '''Fiche''']]<br />
<br />
|-<br />
!scope="row"| 5<br />
| [[Moniteur d'activité pour personnes agéés]] en [[ePython sur STM32]] et MQTT <br />
| Ulysse Cadour, Guillaume Dupraz Canard<br />
| Thomas Calmant Didier Donsez<br />
| [[Proj-2012-2013-ePythonSTM32 | '''Fiche''']]<br />
<br />
|}<br />
<br />
==Réserve (boite à idées)==<br />
<br />
# [[Passe moi ton fichier]] (Michaël Périn) <br />
# [[Extensions à Fab Server]] (Jean-Michel Molenaar) sous reserve (CM ou SR)<br />
# [[Table multijeux de café 2.0]]<br />
# [[ GPIO_Qemu_RasPI| Emulation des GPIO dans QEMU pour le carte Raspberry Pi]] (Olivier Richard)<br />
# [[ Qemu et STM32F0-Discovery ]] (Olivier Richard)<br />
# [[Serrure à clé MIDI multifactorielle]] (Didier Donsez)<br />
# [[Table interactive musicale]] (Didier Donsez)<br />
# [[iMailbox]] (Didier Donsez)<br />
# [[AmILight]] (eclairage d'ambience intelligent) (Didier Donsez)<br />
# [[PDAmeetPDA]] (synchronisation d'agenda) (Michaël Périn)<br />
# [[1 000 000 VMs]] (expérimentation d'application distribuée à très grande échelle) (Olivier Richard) (2-3 RICM4)<br />
# [[Multiple Kinect]] (utilisation simultanée de plusieurs Kinect) (Olivier Richard) (RICM ou 3I)<br />
# [[Kinect musicale]] (Didier Donsez) (RICM)<br />
# [[Ktechlab Simavr Arduino | Ktechlab et integration de Simavr(Arduino)]] (Olivier Richard) (2-3 RICM4-SR)<br />
# Ocaml on AVR (Arduino)<br />
# Ocaml on Cortex-M3<br />
# [[Arduino on STM32 Discovery]]<br />
# [[Reverse Geocache Puzzle Box]]<br />
# [[OSGi ME]] (Didier Donsez)<br />
# [[Affichage Etudiant à Polytech]]<br />
# Synthèse 3D + motion capture Kinect<br />
# Logiciel d'[[apprentissage du calcul]] sur tablette Android (reconnaissance de chiffres manuscrits)<br />
# Plancher de verre (saint gobain) à la [http://www.wat.tv/video/mickael-jackson-billie-jean-oewj_2ey2h_.html Mickael Jackson dans Billie Jean] ! woo<br />
# [[Ktechlab Simavr Arduino | Ktechlab et integration de Simavr(Arduino)]] (Olivier Richard) (2-3 RICM4-SR)<br />
# [[CNC]]<br />
# [[Idées en Vrac]]<br />
# Scheme Everywhere (Olivier Richard) (2-3 RICM4-SR)<br />
# [[Projet Station Météo]]<br />
# Ocaml on AVR (Arduino)<br />
# [[Table interactive musicale]] (Didier Donsez)<br />
# [[AmILight]] (eclairage d'amnbience intelligent) (Didier Donsez)<br />
# [[Cube pointeur]] d'activité ingénieur<br />
# [http://www.instructables.com/id/Puppeteer-Motion-Capture-Costume/ Puppeteer Motion-Capture Costume]<br />
# [[Musical Staircase]] @ Polytech (Didier Donsez, 1 RICM4 + 1 3I4)<br />
# [[Total Recall]] (Didier Donsez)<br />
# [[SoundMachine]]<br />
# [[IGN-OSM|Importation de données IGN publiques dans OSM]]<br />
# [[Speed-limit-OSM|Analyse de traces GPX pour déterminer les limitations de vitesse]]<br />
# [[Multi perceptual cameras]] (Didier Donsez)<br />
# [[Photomaton 3D]] (Didier Donsez)<br />
# [[ArduCopter]]</div>Wirthchttps://air.imag.fr/index.php?title=File:Projet_Cervin.pdf&diff=9966File:Projet Cervin.pdf2013-03-21T08:21:41Z<p>Wirthc: Slide pour la soutenance de Cervin</p>
<hr />
<div>Slide pour la soutenance de Cervin</div>Wirthchttps://air.imag.fr/index.php?title=Soutenances_Projet_RICM_5_2012-2013&diff=9965Soutenances Projet RICM 5 2012-20132013-03-21T08:14:57Z<p>Wirthc: /* Planning */</p>
<hr />
<div>==Planning==<br />
<br />
{|class="wikitable alternance"<br />
|+ Planning Jeudi 21/03 P257 ([[Polytech Grenoble]])<br />
|-<br />
|<br />
!scope="col"| Horaire<br />
!scope="col"| Projet<br />
!scope="col"| Encadrant(s)<br />
!scope="col"| Etudiant(s)<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| 13H00-13H45<br />
| [[RobAIR2013]]<br />
| [[User:Donsez|Didier Donsez]]<br />
| NICOLACCINI MICKAEL , ALEXANDRE ARTHUR, Salem HARRACHE , PAZ HERNANDEZ ELIZABETH<br />
| [http://air.imag.fr/mediawiki/index.php/RobAIR2013-RICM5-Suivi Fiche suivi RobAIR] - [[Transparents]] - [[Media:Flyer-RobAIR.pdf|Flyer]] - [[Media:Poster-RobAIR.pdf|Poster]] [http://youtu.be/-3mbR5M8lzw Video] - [http://robair.quicker.fr/ Site web]<br />
|-<br />
!scope="row"| 2<br />
| 13H45-14H30<br />
| Armind<br />
| Renaud Blanch, Nicolas Glade, Nicolas Vuillerme, Didier Pradon (APHP Garches)<br />
| CHEVALLIER MARIE (PL), FALL YACINE, LU XIAO<br />
| [http://air.imag.fr/mediawiki/index.php/Armind Fiche de suivi Armind] & [[Media:presentationArmind.ppt|transparents]] & [[Media:flyersArmind.ppt|flyers]] & [[Media:posterArmind.jpg|poster]]<br />
|-<br />
!scope="row"| 3<br />
| 14H30-14H45<br />
| Pause<br />
|-<br />
!scope="row"| 4<br />
| 14H45-15H15<br />
| [[Fusion multi-capteurs pour table tactile]]<br />
| Renaud Blanch, Renaud Collin<br />
| RAOUX MAXENCE (PL), DAUVERGNE LEOPOLD<br />
| [http://air.imag.fr/mediawiki/index.php/Fusion_multi-capteurs_pour_table_tactile fiche suivi] & [[transparents ...]] & [http://air.imag.fr/mediawiki/images/thumb/2/2f/PosterSonarTable.jpg/600px-PosterSonarTable.jpg Flyer] & [[poster ...]] & [http://www.youtube.com/watch?v=8VKd9UdPNmc Video]<br />
|-<br />
!scope="row"| 5<br />
| 15H15-16H00<br />
| [[Projet Réseaux de Capteurs]]<br />
| Bernard Tourancheau<br />
| CARAMELLI NOE-JEAN (PL), LEVEQUE FLORIAN, HO MINH QUAN<br />
| [[fiche suivi ...]] & [[transparents ...]] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|-<br />
!scope="row"| 6<br />
| 16H00-16H30<br />
| [[OAR Cloud Computing 2013]]<br />
| Olivier Richard<br />
| MERCIER MICHAEL (PL)<br />
| [[Proj-2012-2013-OAR-Cloud | fiche suivi]] & [[transparents ...]] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|}<br />
<br />
<br />
<br />
{|class="wikitable alternance"<br />
|+ Planning Vendredi 22/03 P249 ([[Polytech Grenoble]])<br />
|-<br />
|<br />
!scope="col"| Horaire<br />
!scope="col"| Projet<br />
!scope="col"| Encadrant(s)<br />
!scope="col"| Etudiant(s)<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| 14H30-15H15<br />
| [[Projet 2013 : Interactive Digital Signage]]<br />
| [[User:Donsez|Didier Donsez]]<br />
| FOURURE FLORIAN, BISCH SIMON (PL), CLAVELIN AURELIEN<br />
| [[fiche suivi ...]] & [http://air.imag.fr/mediawiki/index.php/File:-BISCH-FOURURE-CLAVELIN--RICM5-IDS-Presentation.pdf transparents] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|-<br />
!scope="row"| 2<br />
| 15H15-16H00<br />
| [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone Projet CERVIN de "Rehab Lab"]<br />
| Renaud Blanch, Francois Letellier de l'association [http://www.aconit.org/ ACONIT], le [http://www.ccsti-grenoble.org/ CCSTI Grenoble]<br />
| OSWALD CAMILLE, WIRTH CLÉMENT, PRAK SORIYA, GNATTO-BAHIE CHRISTOPHER<br />
| [http://www.cervin.org/wiki/index.php?title=Prototype_SmartPhone Wiki projet Cervin] & [[Media:cervinPres.ppt]] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|-<br />
!scope="row"| 3<br />
| 16H00-16H45<br />
| [[Développement d'une appli mobile pour urgentistes en Afrique utilisant la synthèse vocale]]<br />
| Laurent Besacier, F. Camara et la [http://voxygen.fr/ société Voxygen]<br />
| ELOY FABIEN, NGOUALA ROLLY, VIGIER SYLVAIN, GU QIKAI, SEGALA JOACHIM<br />
| [[fiche suivi ...]] & [[transparents ...]] & [[flyer ...]] & [[poster ...]] & [[video ...]]<br />
|}<br />
<br />
==Recommandations==<br />
* Prévenez vos tuteurs de votre horaire de passage pour qu'ils assistent à votre soutenance (ainsi que des éventuels changements).<br />
* La durée des soutenances est STRICTEMENT 45 minutes (et 30 minutes pour Michael Mercier)<br />
* Chaque soutenance comporte 20 minutes de présentation, 15 minutes de démonstration suivi de 10 minutes de questions/réponse<br />
* La présentation doit aborder l'ensemble des aspects du projet (contexte, technique, gestion, ...)<br />
* Les transparents doivent être ajoutés à cette page avant le Jeudi matin<br />
* Des ''flyers'' (3 volets d'un A4) et un poster (A4 ou 2*A4 ou A3) devront être apportés puis laissés dans la salle AIR.<br />
<br />
==Conseils==<br />
* Le chef de projet orchestre<br />
* Répétez plusieurs fois et chronométrez vous !<br />
* Répartissez vous la parole pendant la présentation et la démo<br />
* Attention à l' ''effet démo'' : prévoyez une vidéo de secours</div>Wirthchttps://air.imag.fr/index.php?title=PAGE_WIKI_ETUDIANTS_2012-13_RECONNAISSANCE_FACIALE&diff=8987PAGE WIKI ETUDIANTS 2012-13 RECONNAISSANCE FACIALE2013-02-19T13:49:03Z<p>Wirthc: /* Utilisation de la librairie OpenCv */</p>
<hr />
<div>==Description du projet==<br />
Le principe est de permettre d'authentifier un utilisateur, c'est-à-dire vérifier qu'il est bien celui qu'il dit être.<br><br />
'''Scénario type :''' Un utilisateur se présente au système et veut accéder à des données, des informations. Le système détecte le visage de l'utilisateur et analyse la situation. Il répond alors de 2 manières possibles :<br />
* OUI : l'utilisateur est bien celui qu'il prétend être<br />
* NON : la personnne est un imposteur<br />
<br />
==Composition de l'équipe==<br />
'''Chef de projet :''' Camille OSWALD<br><br />
'''Equipiers :'''<br />
* Marie CHEVALLIER<br />
* Fabien ELOY<br />
* Christopher GNATTO<br />
* Maxence RAOUX<br />
* Sylvain VIGIER<br />
* Clément WIRTH<br />
<br />
==Gestion du projet==<br />
<br />
{|class="wikitable organisation Bio-Face"<br />
|+ Grands temps de développement du projet<br />
|-<br />
|<br />
!scope="col"| Apprentissage<br />
!scope="col"| Détection<br />
!scope="col"| Technologie<br />
!scope="col"| Sous-équipe<br />
!scope="col"| Etat<br />
<br />
|-<br />
!scope="row"| Base de données<br />
| X<br />
| -<br />
| ?<br />
| Fabien & Christopher & Sylvain<br />
| En cours<br />
<br />
|-<br />
!scope="row"| Acquisition de données<br />
| X<br />
| X<br />
| OpenCV<br />
| -<br />
| Fait<br />
<br />
|-<br />
!scope="row"| Détection de visages<br />
| X<br />
| X<br />
| OpenCV<br />
| Marie & Maxence & Camille & Clément<br />
| En cours<br />
<br />
|-<br />
!scope="row"| Identification<br />
| -<br />
| X<br />
| OpenCV<br />
| -<br />
| A faire<br />
<br />
|-<br />
!scope="row"| Documentation<br />
| -<br />
| -<br />
| -<br />
| Chacun sa partie<br />
| A faire<br />
<br />
|-<br />
!scope="row"| Interface<br />
| -<br />
| -<br />
| ?<br />
| Les premiers ayant fini<br />
| A faire<br />
<br />
|}<br />
<br />
===Technologies et matériel utilisés===<br />
* [http://opencv.org/ OpenCV]<br />
* C++<br />
* webcam<br />
<br />
===Chronologie de développement===<br />
1) Détection avec quelques images en base<br><br />
* Nous commençons par élaborer un modèle avec une petite base pour nous permettre de faire des tests. Nous agrandirons la base pour davantage de tests par la suite.<br />
* L'acquisition des données de la webcam est très facilement gérée par OpenCV<br />
* La détection de visage se base sur la méthode de [http://fr.wikipedia.org/wiki/M%C3%A9thode_de_Viola_et_Jones Viola et Jones], aussi géré par OpenCV<br />
* Se focaliser sur la phase critique : l'identification de visages<br />
2) Gérer la phase d'apprentissage du système<br><br />
3) optimiser le système (statistiques, réglage du seuil,…)<br><br />
<br />
==Fonctionnement du projet ==<br />
<br />
=== Utilisation de la librairie OpenCv ===<br />
<br />
Comme ce projet nécéssitait l'utilisation d'une kinect, nous avions décidé de développer sous Windows.<br />
<br />
Nous avons donc tout d'abord essayé d'utiliser Visual Studio pour développer notre projet. Par la suite, nous avons choisi de passer par un autre éditeur : Codeblocks.<br />
<br />
1) Utilisation de Visual Studio (2012)<br />
<br />
Après avoir réussi à inclure les librairies dans notre code, nous avons rencontrés les problèmes suivants : <br />
<br />
<br />
Problèmes rencontrés :<br />
* Difficulté de comprendre le fonctionnement du compilateur de visual studio, notamment lorsqu'il faut ajouter de nouveaux fichiers<br />
* Problème lors du fonctionnement des objets utilisés par opencv (Exception au lancement, ou détection des visages non effectuées) pour certaines machines.<br />
* La librairie devait se trouver sur au même endroit pour toutes les machines<br />
<br />
2) Utilisation de Code Blocks<br />
<br />
Pour une meilleure compréhension et un projet fonctionnant sur des machines différentes avec des librairies qui ne sont pas installées aux mêmes endroits, nous avons choisi de porter le projet sur codeblocks.<br />
<br />
Dans ce projet, nous avons utilisé Codeblocks 12.11 avec MinGW inclu (version 4.7.1).<br />
<br />
==== Compilation de la librairie OpenCv ====<br />
<br />
Afin d'éviter les problèmes d'utilisation de la librairie, il était nécessaire de recompiler la librairie avec le même compilateur que nous utilisons pour notre projet (ici MinGW fourni avec CodeBlocks).<br />
<br />
Pour compiler la librairie, nous avons utilisé l'utilitaire Cmake.<br />
<br />
Les fichiers de configurations de Cmake étant déjà fourni avec opencv (fichiers CMakeLists.txt), son utilisation devient très simple. Nous avons suivi le tutoriel ci-dessous :<br />
<br />
<br />
<br />
* Lancement de Cmake-gui<br />
* Dans le champs Source Code, spécifier le chemin de la librairie openCv (exemple : C:\opencv-2.4.3)<br />
* Dans le champs build, mettre le chemin ou la librairie compilée sera enregistrée (exemple : C:\openCV-build)<br />
* Cliquer ensuite sur configure (créer le nouveau dossier)<br />
* Spécification du générateur : MinGW Makefiles<br />
* Sélectionner "Specify native compilers"<br />
* Définir le compilateur C (ex : C:/Program Files/CodeBlocks/MinGW/bin/gcc.exe)<br />
* Définir le compilateur C++ (ex: C:/Program Files/CodeBlocks/MinGW/bin/g++.exe)<br />
* Cliquer sur Finish<br />
* Cliquer sur generate<br />
* Fermer Cmake<br />
* Ouvrir une fenêtre de commande et aller dans le dossier que vous avez spécifié dans le champs build (ici : C:\openCV-build)<br />
* Executer "mingw-32make" (prend du temps et nécessite peut être d'avoir le répertoire bin de MinGW dans le PATH)<br />
* Enfin executer "mingw32-make install"<br />
<br />
<br />
==== Configuration de codeblocks ====<br />
<br />
Pour configurer codeblocks, nous avons suivi ce tutoriel : http://opencv.willowgarage.com/wiki/CodeBlocks<br />
<br />
Afin que chacun puisse installer sa librairie openCv où bon lui semble, nous avons décidé de configurer chacun notre CodeBlocks. La démarche suivie est la suivante :<br />
<br />
* Menu "settings" / "Compiler" <br />
* Onglet "search directories"<br />
* Dans le sous onglet "Compiler", spécifier le dossier include de notre openCv recompilé<br />
* Dans le sous onglet "Linker", spécifier le dossier lib de notre openCv recompilé<br />
* Aller dans l'onglet "linker settings" et ajouter toutes les libraies .dll.a contenues dans le dossier lib.<br />
* Inclure le dossier bin de notre openCv recompilé dans la variable système PATH (nécessite peut être un redemmarrage)<br />
<br />
Après ces étapes nous pouvons inclure les librairies openCV dans n'importe quel projet Codeblocks.</div>Wirthchttps://air.imag.fr/index.php?title=PAGE_WIKI_ETUDIANTS_2012-13_RECONNAISSANCE_FACIALE&diff=8986PAGE WIKI ETUDIANTS 2012-13 RECONNAISSANCE FACIALE2013-02-19T13:43:46Z<p>Wirthc: /* Configuration de codeblocks */</p>
<hr />
<div>==Description du projet==<br />
Le principe est de permettre d'authentifier un utilisateur, c'est-à-dire vérifier qu'il est bien celui qu'il dit être.<br><br />
'''Scénario type :''' Un utilisateur se présente au système et veut accéder à des données, des informations. Le système détecte le visage de l'utilisateur et analyse la situation. Il répond alors de 2 manières possibles :<br />
* OUI : l'utilisateur est bien celui qu'il prétend être<br />
* NON : la personnne est un imposteur<br />
<br />
==Composition de l'équipe==<br />
'''Chef de projet :''' Camille OSWALD<br><br />
'''Equipiers :'''<br />
* Marie CHEVALLIER<br />
* Fabien ELOY<br />
* Christopher GNATTO<br />
* Maxence RAOUX<br />
* Sylvain VIGIER<br />
* Clément WIRTH<br />
<br />
==Gestion du projet==<br />
<br />
{|class="wikitable organisation Bio-Face"<br />
|+ Grands temps de développement du projet<br />
|-<br />
|<br />
!scope="col"| Apprentissage<br />
!scope="col"| Détection<br />
!scope="col"| Technologie<br />
!scope="col"| Sous-équipe<br />
!scope="col"| Etat<br />
<br />
|-<br />
!scope="row"| Base de données<br />
| X<br />
| -<br />
| ?<br />
| Fabien & Christopher & Sylvain<br />
| En cours<br />
<br />
|-<br />
!scope="row"| Acquisition de données<br />
| X<br />
| X<br />
| OpenCV<br />
| -<br />
| Fait<br />
<br />
|-<br />
!scope="row"| Détection de visages<br />
| X<br />
| X<br />
| OpenCV<br />
| Marie & Maxence & Camille & Clément<br />
| En cours<br />
<br />
|-<br />
!scope="row"| Identification<br />
| -<br />
| X<br />
| OpenCV<br />
| -<br />
| A faire<br />
<br />
|-<br />
!scope="row"| Documentation<br />
| -<br />
| -<br />
| -<br />
| Chacun sa partie<br />
| A faire<br />
<br />
|-<br />
!scope="row"| Interface<br />
| -<br />
| -<br />
| ?<br />
| Les premiers ayant fini<br />
| A faire<br />
<br />
|}<br />
<br />
===Technologies et matériel utilisés===<br />
* [http://opencv.org/ OpenCV]<br />
* C++<br />
* webcam<br />
<br />
===Chronologie de développement===<br />
1) Détection avec quelques images en base<br><br />
* Nous commençons par élaborer un modèle avec une petite base pour nous permettre de faire des tests. Nous agrandirons la base pour davantage de tests par la suite.<br />
* L'acquisition des données de la webcam est très facilement gérée par OpenCV<br />
* La détection de visage se base sur la méthode de [http://fr.wikipedia.org/wiki/M%C3%A9thode_de_Viola_et_Jones Viola et Jones], aussi géré par OpenCV<br />
* Se focaliser sur la phase critique : l'identification de visages<br />
2) Gérer la phase d'apprentissage du système<br><br />
3) optimiser le système (statistiques, réglage du seuil,…)<br><br />
<br />
==Fonctionnement du projet ==<br />
<br />
=== Utilisation de la librairie OpenCv ===<br />
<br />
Comme ce projet nécéssitait l'utilisation d'une kinect, nous avions décidé de développer sous Windows.<br />
<br />
Nous avons donc tout d'abord essayé d'utiliser Visual Studio pour développer notre projet. Par la suite, nous avons choisi de passer par un autre éditeur : Codeblocks.<br />
<br />
1) Utilisation de Visual Studio (2012)<br />
<br />
<br />
Problèmes rencontrés :<br />
* Difficulté de comprendre le fonctionnement du compilateur de visual studio, notamment lorsqu'il faut ajouter de nouveaux fichiers<br />
* Problème lors du fonctionnement des objets utilisés par opencv (Exception au lancement, ou détection des visages non effectuées).<br />
<br />
2) Utilisation de Code Blocks<br />
<br />
Pour une meilleure compréhension et un projet fonctionnant sur des machines différentes avec des librairies qui ne sont pas installées aux mêmes endroits, nous avons choisi de porter le projet sur codeblocks.<br />
<br />
Dans ce projet, nous avons utilisé Codeblocks 12.11 avec MinGW inclu (version 4.7.1).<br />
<br />
==== Compilation de la librairie OpenCv ====<br />
<br />
Afin d'éviter les problèmes d'utilisation de la librairie, il était nécessaire de recompiler la librairie avec le même compilateur que nous utilisons pour notre projet (ici MinGW fourni avec CodeBlocks).<br />
<br />
Pour compiler la librairie, nous avons utilisé l'utilitaire Cmake.<br />
<br />
Les fichiers de configurations de Cmake étant déjà fourni avec opencv (fichiers CMakeLists.txt), son utilisation devient très simple. Nous avons suivi le tutoriel ci-dessous :<br />
<br />
<br />
<br />
* Lancement de Cmake-gui<br />
* Dans le champs Source Code, spécifier le chemin de la librairie openCv (exemple : C:\opencv-2.4.3)<br />
* Dans le champs build, mettre le chemin ou la librairie compilée sera enregistrée (exemple : C:\openCV-build)<br />
* Cliquer ensuite sur configure (créer le nouveau dossier)<br />
* Spécification du générateur : MinGW Makefiles<br />
* Sélectionner "Specify native compilers"<br />
* Définir le compilateur C (ex : C:/Program Files/CodeBlocks/MinGW/bin/gcc.exe)<br />
* Définir le compilateur C++ (ex: C:/Program Files/CodeBlocks/MinGW/bin/g++.exe)<br />
* Cliquer sur Finish<br />
* Cliquer sur generate<br />
* Fermer Cmake<br />
* Ouvrir une fenêtre de commande et aller dans le dossier que vous avez spécifié dans le champs build (ici : C:\openCV-build)<br />
* Executer "mingw-32make" (prend du temps et nécessite peut être d'avoir le répertoire bin de MinGW dans le PATH)<br />
* Enfin executer "mingw32-make install"<br />
<br />
<br />
==== Configuration de codeblocks ====<br />
<br />
Pour configurer codeblocks, nous avons suivi ce tutoriel : http://opencv.willowgarage.com/wiki/CodeBlocks<br />
<br />
Afin que chacun puisse installer sa librairie openCv où bon lui semble, nous avons décidé de configurer chacun notre CodeBlocks. La démarche suivie est la suivante :<br />
<br />
* Menu "settings" / "Compiler" <br />
* Onglet "search directories"<br />
* Dans le sous onglet "Compiler", spécifier le dossier include de notre openCv recompilé<br />
* Dans le sous onglet "Linker", spécifier le dossier lib de notre openCv recompilé<br />
* Aller dans l'onglet "linker settings" et ajouter toutes les libraies .dll.a contenues dans le dossier lib.<br />
* Inclure le dossier bin de notre openCv recompilé dans la variable système PATH (nécessite peut être un redemmarrage)<br />
<br />
Après ces étapes nous pouvons inclure les librairies openCV dans n'importe quel projet Codeblocks.</div>Wirthchttps://air.imag.fr/index.php?title=PAGE_WIKI_ETUDIANTS_2012-13_RECONNAISSANCE_FACIALE&diff=8985PAGE WIKI ETUDIANTS 2012-13 RECONNAISSANCE FACIALE2013-02-19T13:35:42Z<p>Wirthc: /* Utilisation de la librairie OpenCv */</p>
<hr />
<div>==Description du projet==<br />
Le principe est de permettre d'authentifier un utilisateur, c'est-à-dire vérifier qu'il est bien celui qu'il dit être.<br><br />
'''Scénario type :''' Un utilisateur se présente au système et veut accéder à des données, des informations. Le système détecte le visage de l'utilisateur et analyse la situation. Il répond alors de 2 manières possibles :<br />
* OUI : l'utilisateur est bien celui qu'il prétend être<br />
* NON : la personnne est un imposteur<br />
<br />
==Composition de l'équipe==<br />
'''Chef de projet :''' Camille OSWALD<br><br />
'''Equipiers :'''<br />
* Marie CHEVALLIER<br />
* Fabien ELOY<br />
* Christopher GNATTO<br />
* Maxence RAOUX<br />
* Sylvain VIGIER<br />
* Clément WIRTH<br />
<br />
==Gestion du projet==<br />
<br />
{|class="wikitable organisation Bio-Face"<br />
|+ Grands temps de développement du projet<br />
|-<br />
|<br />
!scope="col"| Apprentissage<br />
!scope="col"| Détection<br />
!scope="col"| Technologie<br />
!scope="col"| Sous-équipe<br />
!scope="col"| Etat<br />
<br />
|-<br />
!scope="row"| Base de données<br />
| X<br />
| -<br />
| ?<br />
| Fabien & Christopher & Sylvain<br />
| En cours<br />
<br />
|-<br />
!scope="row"| Acquisition de données<br />
| X<br />
| X<br />
| OpenCV<br />
| -<br />
| Fait<br />
<br />
|-<br />
!scope="row"| Détection de visages<br />
| X<br />
| X<br />
| OpenCV<br />
| Marie & Maxence & Camille & Clément<br />
| En cours<br />
<br />
|-<br />
!scope="row"| Identification<br />
| -<br />
| X<br />
| OpenCV<br />
| -<br />
| A faire<br />
<br />
|-<br />
!scope="row"| Documentation<br />
| -<br />
| -<br />
| -<br />
| Chacun sa partie<br />
| A faire<br />
<br />
|-<br />
!scope="row"| Interface<br />
| -<br />
| -<br />
| ?<br />
| Les premiers ayant fini<br />
| A faire<br />
<br />
|}<br />
<br />
===Technologies et matériel utilisés===<br />
* [http://opencv.org/ OpenCV]<br />
* C++<br />
* webcam<br />
<br />
===Chronologie de développement===<br />
1) Détection avec quelques images en base<br><br />
* Nous commençons par élaborer un modèle avec une petite base pour nous permettre de faire des tests. Nous agrandirons la base pour davantage de tests par la suite.<br />
* L'acquisition des données de la webcam est très facilement gérée par OpenCV<br />
* La détection de visage se base sur la méthode de [http://fr.wikipedia.org/wiki/M%C3%A9thode_de_Viola_et_Jones Viola et Jones], aussi géré par OpenCV<br />
* Se focaliser sur la phase critique : l'identification de visages<br />
2) Gérer la phase d'apprentissage du système<br><br />
3) optimiser le système (statistiques, réglage du seuil,…)<br><br />
<br />
==Fonctionnement du projet ==<br />
<br />
=== Utilisation de la librairie OpenCv ===<br />
<br />
Comme ce projet nécéssitait l'utilisation d'une kinect, nous avions décidé de développer sous Windows.<br />
<br />
Nous avons donc tout d'abord essayé d'utiliser Visual Studio pour développer notre projet. Par la suite, nous avons choisi de passer par un autre éditeur : Codeblocks.<br />
<br />
1) Utilisation de Visual Studio (2012)<br />
<br />
<br />
Problèmes rencontrés :<br />
* Difficulté de comprendre le fonctionnement du compilateur de visual studio, notamment lorsqu'il faut ajouter de nouveaux fichiers<br />
* Problème lors du fonctionnement des objets utilisés par opencv (Exception au lancement, ou détection des visages non effectuées).<br />
<br />
2) Utilisation de Code Blocks<br />
<br />
Pour une meilleure compréhension et un projet fonctionnant sur des machines différentes avec des librairies qui ne sont pas installées aux mêmes endroits, nous avons choisi de porter le projet sur codeblocks.<br />
<br />
Dans ce projet, nous avons utilisé Codeblocks 12.11 avec MinGW inclu (version 4.7.1).<br />
<br />
==== Compilation de la librairie OpenCv ====<br />
<br />
Afin d'éviter les problèmes d'utilisation de la librairie, il était nécessaire de recompiler la librairie avec le même compilateur que nous utilisons pour notre projet (ici MinGW fourni avec CodeBlocks).<br />
<br />
Pour compiler la librairie, nous avons utilisé l'utilitaire Cmake.<br />
<br />
Les fichiers de configurations de Cmake étant déjà fourni avec opencv (fichiers CMakeLists.txt), son utilisation devient très simple. Nous avons suivi le tutoriel ci-dessous :<br />
<br />
<br />
<br />
* Lancement de Cmake-gui<br />
* Dans le champs Source Code, spécifier le chemin de la librairie openCv (exemple : C:\opencv-2.4.3)<br />
* Dans le champs build, mettre le chemin ou la librairie compilée sera enregistrée (exemple : C:\openCV-build)<br />
* Cliquer ensuite sur configure (créer le nouveau dossier)<br />
* Spécification du générateur : MinGW Makefiles<br />
* Sélectionner "Specify native compilers"<br />
* Définir le compilateur C (ex : C:/Program Files/CodeBlocks/MinGW/bin/gcc.exe)<br />
* Définir le compilateur C++ (ex: C:/Program Files/CodeBlocks/MinGW/bin/g++.exe)<br />
* Cliquer sur Finish<br />
* Cliquer sur generate<br />
* Fermer Cmake<br />
* Ouvrir une fenêtre de commande et aller dans le dossier que vous avez spécifié dans le champs build (ici : C:\openCV-build)<br />
* Executer "mingw-32make" (prend du temps et nécessite peut être d'avoir le répertoire bin de MinGW dans le PATH)<br />
* Enfin executer "mingw32-make install"<br />
<br />
<br />
==== Configuration de codeblocks ====<br />
<br />
Pour configurer codeblocks, nous avons suivi ce tutoriel : http://opencv.willowgarage.com/wiki/CodeBlocks</div>Wirthchttps://air.imag.fr/index.php?title=PAGE_WIKI_ETUDIANTS_2012-13_RECONNAISSANCE_FACIALE&diff=8984PAGE WIKI ETUDIANTS 2012-13 RECONNAISSANCE FACIALE2013-02-19T13:33:01Z<p>Wirthc: /* Installation d'openCV */</p>
<hr />
<div>==Description du projet==<br />
Le principe est de permettre d'authentifier un utilisateur, c'est-à-dire vérifier qu'il est bien celui qu'il dit être.<br><br />
'''Scénario type :''' Un utilisateur se présente au système et veut accéder à des données, des informations. Le système détecte le visage de l'utilisateur et analyse la situation. Il répond alors de 2 manières possibles :<br />
* OUI : l'utilisateur est bien celui qu'il prétend être<br />
* NON : la personnne est un imposteur<br />
<br />
==Composition de l'équipe==<br />
'''Chef de projet :''' Camille OSWALD<br><br />
'''Equipiers :'''<br />
* Marie CHEVALLIER<br />
* Fabien ELOY<br />
* Christopher GNATTO<br />
* Maxence RAOUX<br />
* Sylvain VIGIER<br />
* Clément WIRTH<br />
<br />
==Gestion du projet==<br />
<br />
{|class="wikitable organisation Bio-Face"<br />
|+ Grands temps de développement du projet<br />
|-<br />
|<br />
!scope="col"| Apprentissage<br />
!scope="col"| Détection<br />
!scope="col"| Technologie<br />
!scope="col"| Sous-équipe<br />
!scope="col"| Etat<br />
<br />
|-<br />
!scope="row"| Base de données<br />
| X<br />
| -<br />
| ?<br />
| Fabien & Christopher & Sylvain<br />
| En cours<br />
<br />
|-<br />
!scope="row"| Acquisition de données<br />
| X<br />
| X<br />
| OpenCV<br />
| -<br />
| Fait<br />
<br />
|-<br />
!scope="row"| Détection de visages<br />
| X<br />
| X<br />
| OpenCV<br />
| Marie & Maxence & Camille & Clément<br />
| En cours<br />
<br />
|-<br />
!scope="row"| Identification<br />
| -<br />
| X<br />
| OpenCV<br />
| -<br />
| A faire<br />
<br />
|-<br />
!scope="row"| Documentation<br />
| -<br />
| -<br />
| -<br />
| Chacun sa partie<br />
| A faire<br />
<br />
|-<br />
!scope="row"| Interface<br />
| -<br />
| -<br />
| ?<br />
| Les premiers ayant fini<br />
| A faire<br />
<br />
|}<br />
<br />
===Technologies et matériel utilisés===<br />
* [http://opencv.org/ OpenCV]<br />
* C++<br />
* webcam<br />
<br />
===Chronologie de développement===<br />
1) Détection avec quelques images en base<br><br />
* Nous commençons par élaborer un modèle avec une petite base pour nous permettre de faire des tests. Nous agrandirons la base pour davantage de tests par la suite.<br />
* L'acquisition des données de la webcam est très facilement gérée par OpenCV<br />
* La détection de visage se base sur la méthode de [http://fr.wikipedia.org/wiki/M%C3%A9thode_de_Viola_et_Jones Viola et Jones], aussi géré par OpenCV<br />
* Se focaliser sur la phase critique : l'identification de visages<br />
2) Gérer la phase d'apprentissage du système<br><br />
3) optimiser le système (statistiques, réglage du seuil,…)<br><br />
<br />
==Fonctionnement du projet ==<br />
<br />
=== Utilisation de la librairie OpenCv ===<br />
<br />
Comme ce projet nécéssitait l'utilisation d'une kinect, nous avions décidé de développer sous Windows.<br />
<br />
Nous avons donc tout d'abord essayé d'utiliser Visual Studio pour développer notre projet. Par la suite, nous avons choisi de passer par un autre éditeur : Codeblocks.<br />
<br />
1) Utilisation de Visual Studio (2012)<br />
<br />
<br />
Problèmes rencontrés :<br />
- Difficulté de comprendre le fonctionnement du compilateur de visual studio, notamment lorsqu'il faut ajouter de nouveaux fichiers<br />
- Problème lors du fonctionnement des objets utilisés par opencv (Exception au lancement, ou détection des visages non effectuées).<br />
<br />
2) Utilisation de Code Blocks<br />
<br />
Pour une meilleure compréhension et un projet fonctionnant sur des machines différentes avec des librairies qui ne sont pas installées aux mêmes endroits, nous avons choisi de porter le projet sur codeblocks.<br />
<br />
Dans ce projet, nous avons utilisé Codeblocks 12.11 avec MinGW inclu (version 4.7.1).<br />
<br />
==== Compilation de la librairie OpenCv ====<br />
<br />
Afin d'éviter les problèmes d'utilisation de la librairie, il était nécessaire de recompiler la librairie avec le même compilateur que nous utilisons pour notre projet (ici MinGW fourni avec CodeBlocks).<br />
<br />
Pour compiler la librairie, nous avons utilisé l'utilitaire Cmake.<br />
<br />
Les fichiers de configurations de Cmake étant déjà fourni avec opencv (fichiers CMakeLists.txt), son utilisation devient très simple. Nous avons suivi le tutoriel ci-dessous :<br />
<br />
<br />
<br />
- Lancement de Cmake-gui<br />
- Dans le champs Source Code, spécifier le chemin de la librairie openCv (exemple : C:\opencv-2.4.3)<br />
- Dans le champs build, mettre le chemin ou la librairie compilée sera enregistrée (exemple : C:\openCV-build)<br />
- Cliquer ensuite sur configure (créer le nouveau dossier)<br />
- Spécification du générateur : MinGW Makefiles<br />
- Sélectionner "Specify native compilers"<br />
- Définir le compilateur C (ex : C:/Program Files/CodeBlocks/MinGW/bin/gcc.exe)<br />
- Définir le compilateur C++ (ex: C:/Program Files/CodeBlocks/MinGW/bin/g++.exe)<br />
- Cliquer sur Finish<br />
- Cliquer sur generate<br />
- Fermer Cmake<br />
- Ouvrir une fenêtre de commande et aller dans le dossier que vous avez spécifié dans le champs build (ici : C:\openCV-build)<br />
- Executer "mingw-32make" (prend du temps et nécessite peut être d'avoir le répertoire bin de MinGW dans le PATH)<br />
- Enfin executer "mingw32-make install"<br />
<br />
<br />
==== Configuration de codeblocks ====<br />
<br />
Pour configurer codeblocks, nous avons suivi ce tutoriel : http://opencv.willowgarage.com/wiki/CodeBlocks</div>Wirthchttps://air.imag.fr/index.php?title=PAGE_WIKI_ETUDIANTS_2012-13_RECONNAISSANCE_FACIALE&diff=8982PAGE WIKI ETUDIANTS 2012-13 RECONNAISSANCE FACIALE2013-02-19T13:12:23Z<p>Wirthc: /* Utilisation de la librairie OpenCv */</p>
<hr />
<div>==Description du projet==<br />
Le principe est de permettre d'authentifier un utilisateur, c'est-à-dire vérifier qu'il est bien celui qu'il dit être.<br><br />
'''Scénario type :''' Un utilisateur se présente au système et veut accéder à des données, des informations. Le système détecte le visage de l'utilisateur et analyse la situation. Il répond alors de 2 manières possibles :<br />
* OUI : l'utilisateur est bien celui qu'il prétend être<br />
* NON : la personnne est un imposteur<br />
<br />
==Composition de l'équipe==<br />
'''Chef de projet :''' Camille OSWALD<br><br />
'''Equipiers :'''<br />
* Marie CHEVALLIER<br />
* Fabien ELOY<br />
* Christopher GNATTO<br />
* Maxence RAOUX<br />
* Sylvain VIGIER<br />
* Clément WIRTH<br />
<br />
==Gestion du projet==<br />
<br />
{|class="wikitable organisation Bio-Face"<br />
|+ Grands temps de développement du projet<br />
|-<br />
|<br />
!scope="col"| Apprentissage<br />
!scope="col"| Détection<br />
!scope="col"| Technologie<br />
!scope="col"| Sous-équipe<br />
!scope="col"| Etat<br />
<br />
|-<br />
!scope="row"| Base de données<br />
| X<br />
| -<br />
| ?<br />
| Fabien & Christopher & Sylvain<br />
| En cours<br />
<br />
|-<br />
!scope="row"| Acquisition de données<br />
| X<br />
| X<br />
| OpenCV<br />
| -<br />
| Fait<br />
<br />
|-<br />
!scope="row"| Détection de visages<br />
| X<br />
| X<br />
| OpenCV<br />
| Marie & Maxence & Camille & Clément<br />
| En cours<br />
<br />
|-<br />
!scope="row"| Identification<br />
| -<br />
| X<br />
| OpenCV<br />
| -<br />
| A faire<br />
<br />
|-<br />
!scope="row"| Documentation<br />
| -<br />
| -<br />
| -<br />
| Chacun sa partie<br />
| A faire<br />
<br />
|-<br />
!scope="row"| Interface<br />
| -<br />
| -<br />
| ?<br />
| Les premiers ayant fini<br />
| A faire<br />
<br />
|}<br />
<br />
===Technologies et matériel utilisés===<br />
* [http://opencv.org/ OpenCV]<br />
* C++<br />
* webcam<br />
<br />
===Chronologie de développement===<br />
1) Détection avec quelques images en base<br><br />
* Nous commençons par élaborer un modèle avec une petite base pour nous permettre de faire des tests. Nous agrandirons la base pour davantage de tests par la suite.<br />
* L'acquisition des données de la webcam est très facilement gérée par OpenCV<br />
* La détection de visage se base sur la méthode de [http://fr.wikipedia.org/wiki/M%C3%A9thode_de_Viola_et_Jones Viola et Jones], aussi géré par OpenCV<br />
* Se focaliser sur la phase critique : l'identification de visages<br />
2) Gérer la phase d'apprentissage du système<br><br />
3) optimiser le système (statistiques, réglage du seuil,…)<br><br />
<br />
==Fonctionnement du projet ==<br />
<br />
=== Utilisation de la librairie OpenCv ===<br />
<br />
Comme ce projet nécéssitait l'utilisation d'une kinect, nous avions décidé de développer sous Windows.<br />
<br />
Nous avons donc tout d'abord essayé d'utiliser Visual Studio pour développer notre projet. Par la suite, nous avons choisi de passer par un autre éditeur : Codeblocks.<br />
<br />
1) Utilisation de Visual Studio (2012)<br />
<br />
<br />
Problèmes rencontrés :<br />
- Difficulté de comprendre le fonctionnement du compilateur de visual studio, notamment lorsqu'il faut ajouter de nouveaux fichiers<br />
- Problème lors du fonctionnement des objets utilisés par opencv (Exception au lancement, ou détection des visages non effectuées).<br />
<br />
2) Utilisation de Code Blocks<br />
<br />
Pour une meilleure compréhension et un projet fonctionnant sur des machines différentes avec des librairies qui ne sont pas installées aux mêmes endroits, nous avons choisi de porter le projet sur codeblocks.<br />
<br />
Dans ce projet, nous avons utilisé Codeblocks 12.11 avec MinGW inclu (version 4.7.1).<br />
<br />
==== Installation d'openCV ====</div>Wirthchttps://air.imag.fr/index.php?title=PAGE_WIKI_ETUDIANTS_2012-13_RECONNAISSANCE_FACIALE&diff=8981PAGE WIKI ETUDIANTS 2012-13 RECONNAISSANCE FACIALE2013-02-19T13:10:59Z<p>Wirthc: /* Utilisation de la librairie OpenCv */</p>
<hr />
<div>==Description du projet==<br />
Le principe est de permettre d'authentifier un utilisateur, c'est-à-dire vérifier qu'il est bien celui qu'il dit être.<br><br />
'''Scénario type :''' Un utilisateur se présente au système et veut accéder à des données, des informations. Le système détecte le visage de l'utilisateur et analyse la situation. Il répond alors de 2 manières possibles :<br />
* OUI : l'utilisateur est bien celui qu'il prétend être<br />
* NON : la personnne est un imposteur<br />
<br />
==Composition de l'équipe==<br />
'''Chef de projet :''' Camille OSWALD<br><br />
'''Equipiers :'''<br />
* Marie CHEVALLIER<br />
* Fabien ELOY<br />
* Christopher GNATTO<br />
* Maxence RAOUX<br />
* Sylvain VIGIER<br />
* Clément WIRTH<br />
<br />
==Gestion du projet==<br />
<br />
{|class="wikitable organisation Bio-Face"<br />
|+ Grands temps de développement du projet<br />
|-<br />
|<br />
!scope="col"| Apprentissage<br />
!scope="col"| Détection<br />
!scope="col"| Technologie<br />
!scope="col"| Sous-équipe<br />
!scope="col"| Etat<br />
<br />
|-<br />
!scope="row"| Base de données<br />
| X<br />
| -<br />
| ?<br />
| Fabien & Christopher & Sylvain<br />
| En cours<br />
<br />
|-<br />
!scope="row"| Acquisition de données<br />
| X<br />
| X<br />
| OpenCV<br />
| -<br />
| Fait<br />
<br />
|-<br />
!scope="row"| Détection de visages<br />
| X<br />
| X<br />
| OpenCV<br />
| Marie & Maxence & Camille & Clément<br />
| En cours<br />
<br />
|-<br />
!scope="row"| Identification<br />
| -<br />
| X<br />
| OpenCV<br />
| -<br />
| A faire<br />
<br />
|-<br />
!scope="row"| Documentation<br />
| -<br />
| -<br />
| -<br />
| Chacun sa partie<br />
| A faire<br />
<br />
|-<br />
!scope="row"| Interface<br />
| -<br />
| -<br />
| ?<br />
| Les premiers ayant fini<br />
| A faire<br />
<br />
|}<br />
<br />
===Technologies et matériel utilisés===<br />
* [http://opencv.org/ OpenCV]<br />
* C++<br />
* webcam<br />
<br />
===Chronologie de développement===<br />
1) Détection avec quelques images en base<br><br />
* Nous commençons par élaborer un modèle avec une petite base pour nous permettre de faire des tests. Nous agrandirons la base pour davantage de tests par la suite.<br />
* L'acquisition des données de la webcam est très facilement gérée par OpenCV<br />
* La détection de visage se base sur la méthode de [http://fr.wikipedia.org/wiki/M%C3%A9thode_de_Viola_et_Jones Viola et Jones], aussi géré par OpenCV<br />
* Se focaliser sur la phase critique : l'identification de visages<br />
2) Gérer la phase d'apprentissage du système<br><br />
3) optimiser le système (statistiques, réglage du seuil,…)<br><br />
<br />
==Fonctionnement du projet ==<br />
<br />
=== Utilisation de la librairie OpenCv ===<br />
<br />
Comme ce projet nécéssitait l'utilisation d'une kinect, nous avions décidé de développer sous Windows.<br />
<br />
Nous avons donc tout d'abord essayé d'utiliser Visual Studio pour développer notre projet. Par la suite, nous avons choisi de passer par un autre éditeur : Codeblocks.<br />
<br />
1) Utilisation de Visual Studio (2012)<br />
<br />
<br />
Problèmes rencontrés :<br />
- Difficulté de comprendre le fonctionnement du compilateur de visual studio, notamment lorsqu'il faut ajouter de nouveaux fichiers<br />
- Problème lors du fonctionnement des objets utilisés par opencv (Exception au lancement, ou détection des visages non effectuées).<br />
<br />
2) Utilisation de Code Blocks<br />
<br />
Pour une meilleure compréhension et un projet fonctionnant sur des machines différentes avec des librairies qui ne sont pas installées aux mêmes endroits, nous avons choisi de porter le projet sur codeblocks.<br />
<br />
Dans ce projet, nous avons utilisé Codeblocks 12.11 avec MinGW inclu (version 4.7.1).</div>Wirthchttps://air.imag.fr/index.php?title=PAGE_WIKI_ETUDIANTS_2012-13_RECONNAISSANCE_FACIALE&diff=8980PAGE WIKI ETUDIANTS 2012-13 RECONNAISSANCE FACIALE2013-02-19T13:02:45Z<p>Wirthc: /* Fonctionnement du projet */</p>
<hr />
<div>==Description du projet==<br />
Le principe est de permettre d'authentifier un utilisateur, c'est-à-dire vérifier qu'il est bien celui qu'il dit être.<br><br />
'''Scénario type :''' Un utilisateur se présente au système et veut accéder à des données, des informations. Le système détecte le visage de l'utilisateur et analyse la situation. Il répond alors de 2 manières possibles :<br />
* OUI : l'utilisateur est bien celui qu'il prétend être<br />
* NON : la personnne est un imposteur<br />
<br />
==Composition de l'équipe==<br />
'''Chef de projet :''' Camille OSWALD<br><br />
'''Equipiers :'''<br />
* Marie CHEVALLIER<br />
* Fabien ELOY<br />
* Christopher GNATTO<br />
* Maxence RAOUX<br />
* Sylvain VIGIER<br />
* Clément WIRTH<br />
<br />
==Gestion du projet==<br />
<br />
{|class="wikitable organisation Bio-Face"<br />
|+ Grands temps de développement du projet<br />
|-<br />
|<br />
!scope="col"| Apprentissage<br />
!scope="col"| Détection<br />
!scope="col"| Technologie<br />
!scope="col"| Sous-équipe<br />
!scope="col"| Etat<br />
<br />
|-<br />
!scope="row"| Base de données<br />
| X<br />
| -<br />
| ?<br />
| Fabien & Christopher & Sylvain<br />
| En cours<br />
<br />
|-<br />
!scope="row"| Acquisition de données<br />
| X<br />
| X<br />
| OpenCV<br />
| -<br />
| Fait<br />
<br />
|-<br />
!scope="row"| Détection de visages<br />
| X<br />
| X<br />
| OpenCV<br />
| Marie & Maxence & Camille & Clément<br />
| En cours<br />
<br />
|-<br />
!scope="row"| Identification<br />
| -<br />
| X<br />
| OpenCV<br />
| -<br />
| A faire<br />
<br />
|-<br />
!scope="row"| Documentation<br />
| -<br />
| -<br />
| -<br />
| Chacun sa partie<br />
| A faire<br />
<br />
|-<br />
!scope="row"| Interface<br />
| -<br />
| -<br />
| ?<br />
| Les premiers ayant fini<br />
| A faire<br />
<br />
|}<br />
<br />
===Technologies et matériel utilisés===<br />
* [http://opencv.org/ OpenCV]<br />
* C++<br />
* webcam<br />
<br />
===Chronologie de développement===<br />
1) Détection avec quelques images en base<br><br />
* Nous commençons par élaborer un modèle avec une petite base pour nous permettre de faire des tests. Nous agrandirons la base pour davantage de tests par la suite.<br />
* L'acquisition des données de la webcam est très facilement gérée par OpenCV<br />
* La détection de visage se base sur la méthode de [http://fr.wikipedia.org/wiki/M%C3%A9thode_de_Viola_et_Jones Viola et Jones], aussi géré par OpenCV<br />
* Se focaliser sur la phase critique : l'identification de visages<br />
2) Gérer la phase d'apprentissage du système<br><br />
3) optimiser le système (statistiques, réglage du seuil,…)<br><br />
<br />
==Fonctionnement du projet ==<br />
<br />
=== Utilisation de la librairie OpenCv ===<br />
<br />
Comme ce projet nécéssitait l'utilisation d'une kinect, nous avions décidé de développer sous Windows.<br />
<br />
Nous avons donc tout d'abord essayé d'utiliser Visual Studio pour développer notre projet. Par la suite, nous avons choisi de passer par un autre éditeur : Codeblocks.</div>Wirthchttps://air.imag.fr/index.php?title=PAGE_WIKI_ETUDIANTS_2012-13_RECONNAISSANCE_FACIALE&diff=8979PAGE WIKI ETUDIANTS 2012-13 RECONNAISSANCE FACIALE2013-02-19T12:59:33Z<p>Wirthc: /* Chronologie de développement */</p>
<hr />
<div>==Description du projet==<br />
Le principe est de permettre d'authentifier un utilisateur, c'est-à-dire vérifier qu'il est bien celui qu'il dit être.<br><br />
'''Scénario type :''' Un utilisateur se présente au système et veut accéder à des données, des informations. Le système détecte le visage de l'utilisateur et analyse la situation. Il répond alors de 2 manières possibles :<br />
* OUI : l'utilisateur est bien celui qu'il prétend être<br />
* NON : la personnne est un imposteur<br />
<br />
==Composition de l'équipe==<br />
'''Chef de projet :''' Camille OSWALD<br><br />
'''Equipiers :'''<br />
* Marie CHEVALLIER<br />
* Fabien ELOY<br />
* Christopher GNATTO<br />
* Maxence RAOUX<br />
* Sylvain VIGIER<br />
* Clément WIRTH<br />
<br />
==Gestion du projet==<br />
<br />
{|class="wikitable organisation Bio-Face"<br />
|+ Grands temps de développement du projet<br />
|-<br />
|<br />
!scope="col"| Apprentissage<br />
!scope="col"| Détection<br />
!scope="col"| Technologie<br />
!scope="col"| Sous-équipe<br />
!scope="col"| Etat<br />
<br />
|-<br />
!scope="row"| Base de données<br />
| X<br />
| -<br />
| ?<br />
| Fabien & Christopher & Sylvain<br />
| En cours<br />
<br />
|-<br />
!scope="row"| Acquisition de données<br />
| X<br />
| X<br />
| OpenCV<br />
| -<br />
| Fait<br />
<br />
|-<br />
!scope="row"| Détection de visages<br />
| X<br />
| X<br />
| OpenCV<br />
| Marie & Maxence & Camille & Clément<br />
| En cours<br />
<br />
|-<br />
!scope="row"| Identification<br />
| -<br />
| X<br />
| OpenCV<br />
| -<br />
| A faire<br />
<br />
|-<br />
!scope="row"| Documentation<br />
| -<br />
| -<br />
| -<br />
| Chacun sa partie<br />
| A faire<br />
<br />
|-<br />
!scope="row"| Interface<br />
| -<br />
| -<br />
| ?<br />
| Les premiers ayant fini<br />
| A faire<br />
<br />
|}<br />
<br />
===Technologies et matériel utilisés===<br />
* [http://opencv.org/ OpenCV]<br />
* C++<br />
* webcam<br />
<br />
===Chronologie de développement===<br />
1) Détection avec quelques images en base<br><br />
* Nous commençons par élaborer un modèle avec une petite base pour nous permettre de faire des tests. Nous agrandirons la base pour davantage de tests par la suite.<br />
* L'acquisition des données de la webcam est très facilement gérée par OpenCV<br />
* La détection de visage se base sur la méthode de [http://fr.wikipedia.org/wiki/M%C3%A9thode_de_Viola_et_Jones Viola et Jones], aussi géré par OpenCV<br />
* Se focaliser sur la phase critique : l'identification de visages<br />
2) Gérer la phase d'apprentissage du système<br><br />
3) optimiser le système (statistiques, réglage du seuil,…)<br><br />
<br />
==Fonctionnement du projet ==</div>Wirthchttps://air.imag.fr/index.php?title=EA2012-3D_Scanning&diff=7139EA2012-3D Scanning2012-12-21T13:04:49Z<p>Wirthc: /* Diapositives */</p>
<hr />
<div>= 3D Scanning =<br />
Exposé réalisé par Oswald Camille et Clément Wirth<br />
<br />
=Résumé=<br />
Un scanner tridimensionnel est un appareil qui analyse les objets pour recueillir des informations précises sur la forme de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction.<br />
Pour la phase de capture, il existe deux types de scanners : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
Pour la phase de reconstruction, l’algorithme le plus utilisé et le plus connu est l’algorithme ICP.<br><br><br />
<br />
<br />
=Abstract=<br />
A 3D scanner is a device that analyzes a real-world object to collect data on its shape and possibly its appearance (color). The collected data can then be used to construct digital, three dimensional models.<br />
To move an object from the real-life 3D model, three stages can be identified: the capture of a cloud of points with the surface of the object, cleaning and adjustment and finally the reconstruction.<br />
In the capture phase, there are two types of scanners:<br />
*Scanners with contact<br />
*Non-contact scanners<br />
In the reconstruction phase, the algorithm most widely used and best known is the ICP algorithm<br><br><br />
<br />
=Synthèse=<br />
'''Principe de fonctionnement et utilisation'''<br />
Un scanner tridimensionnel est un appareil qui analyse les objets ou leur environnement proche pour recueillir des informations précises sur la forme et éventuellement sur l'apparence (couleur, texture, …) de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions (objets numériques) à des fins diverses.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction en un modèle polygonal.<br><br />
Ces appareils sont beaucoup utilisés par les industries du divertissement pour des films ou des jeux vidéo. Des images numériques en 3D d'objets scannés servent également à la conception industrielle, à la conception d'orthèses (semelle, corset) et de prothèses, à la rétro-ingénierie (reconstruction de surface) pour la documentation d'objets culturels.<br><br><br />
<br />
'''Méthode de capture'''<br />
Il existe deux types de scanner pour la phase de capture de l’information : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
<br />
<br />
==Les scanners avec contact==<br />
Les scanners 3D avec contact sondent le sujet grâce à un contact physique. Ils ont une bonne précision. Cependant, comme il y à un contact physique, cela peut détruire ou altérer des objets fragiles. Un autre inconvénient de cette technologie est sa relative lenteur par rapport aux autres méthodes. <br />
Un exemple de ce type de scanner est le bras de palpage. Au bout d’un bras, il y à un capteur que l’on peut déplacer dans toutes les directions afin de capturer toutes les coordonnées de l’objet à scanner.<br><br />
<br />
<br />
==Les scanners sans contact==<br />
Dans les scanners sans contact, il existe deux sous catégorie de scanner : <br />
*Scanner sans contact actif<br />
*Scanner sans contact passif<br />
<br />
<br />
==Les scanners sans contact actif==<br />
<br />
Les scanners actifs émettent un rayonnement et détectent sa réflexion afin de sonder un objet ou un environnement. Différents types de source de rayonnement sont utilisés : lumière, ultrason ou rayon X.<br />
<br />
Les scanners laser 3D peuvent généralement être répertoriés dans trois catégories principales :<br />
*Le scanner 3D par temps de vol : Le scanner par détection de temps de vol émet une impulsion de lumière laser qui est réfléchie par l’objet scanné. La réflexion en résultant est détectée par un capteur. Le temps qui s’écoule entre l’émission et la détection rapporte la distance à l’objet puisque l’on connaît précisément la vitesse de la lumière laser<br />
*Scanner par triangulation: le scanner projette une ligne ou un point laser sur un objet et en capture ensuite sa réflexion par un capteur situé à une distance connue de la source du laser.<br />
*Le scan par changement de phase : s’effectue en comparant le changement de phase dans la lumière laser réfléchie à une phase standard, qui est aussi capturée pour la comparaison.<br><br />
Pour notre démonstration, nous avons utilisée le scanner à frange (ou à lumière blanche).<br><br />
Le scanner 3D à lumière blanche ou à frange est un scan actif qui utilise la lumière blanche (projecteur type rétro-projecteur) pour sonder son environnement. Il pointe sur le sujet une série de motifs lumineux (traits, carrés, ronds,...) avec le projecteur créant des images déformées sur l’objet et utilise un appareil photo ou une camera décalée pour situer les motifs. En fonction de la distance jusqu’à la surface, les motifs prennent des formes différentes (déformations) en raison du positionnement décalé du laser et de la caméra. Ensuite un logiciel vient en déduire la forme de l’objet en fonction de l’ensemble des surfaces déformées dont il dispose.<br />
Ce type de scanner appartient à la catégorie scanner par triangulation.<br><br />
<br />
<br />
==Scanner sans contact passif==<br />
Les scanners sans contact passifs, n'émette aucun type de rayonnement. Ils se basent sur la détection de rayonnement ambiant réfléchi. La plupart des scanners de ce type détectent la lumière visible car elle est immédiatement disponible.<br><br />
Il existe tout une liste de ce type de scanner, lors de notre exposé, nous en avons présentés trois : <br><br />
*Scanners stéréoscopiques : Les systèmes stéréoscopiques utilisent généralement deux caméras vidéo, légèrement espacées, pointant vers la même scène. En analysant les légères différences entre les images des deux appareils, il est possible de déterminer la distance de chaque point de l'image. Cette méthode est basée sur la vision stéréoscopique humaine.<br><br />
<br />
*Photogrammétrie : Le principe de la photogrammétrie est de prendre des images multiples de l’objet et des points communs manuels ou automatiques à chaque photographie. Les points peuvent être ajoutés automatiquement ou manuellement pour créer les mesures 3D des parties souhaitées de l’objet.<br><br />
<br />
<br />
*Le Tomographe : Le tomographe est un appareil dans lequel on vient insérer le produit à numériser. L’appareil vient effectuer des mesures par tranche depuis l’extérieur de l’objet. Ce scanner permet de sortir des fichiers images de l’objet tranche par tranche. On peut avec un logiciel de reconstitution de fichier type IRM reconstituer l’objet en 3D.<br><br />
<br />
<br />
==Reconstruction==<br />
Après avoir scanné plusieurs nuages de points de notre objet 3D, il convient d'effectuer certains traitements pour obtenir notre objet final : c'est l'étape de reconstruction.<br><br />
Lors de cette étape, on va effectuer les points suivants : <br><br />
*Nettoyage des points parasites (comme les fonds, le socle, ...)<br />
*Positionnement des nuages de points entre eux pour faciliter leur association<br />
*Reconstruction du maillage, qui consiste à associer les différents nuages de points entre eux afin de former notre objet final<br />
La reconstruction des maillages s'effectue le plus souvent en utilisant l'algorithme ICP.<br><br />
<br><br />
Une fois notre objet reconstruit, il convient d'effectuer un comblement des trou ( qui sont les points qui ne se trouvent sur aucun nuage de points) et un re-texturing de notre objet. Certaines méthodes effectuent le retexturing de notre objet en même temps que la capture : dans ce cas la texture est capturée en même temps que le nuage de points et appliquée sur celui-ci.<br />
<br />
==Algorithme Iterative Closest Point (ICP)==<br />
Cet algorithme itératif permet de reconstruire le maillage entre plusieurs nuages de points. Son fonctionnement est simple et peut permettre d'effectuer de la reconstruction 3D en temps réel.<br><br />
Son principe de fonctionnement est le suivant :<br><br />
* Association de deux points de deux nuages de points en utilisant le critère des plus proche voisins<br />
* Estimation de la transformation nécessaire pour minimiser la distance entre les deux points<br />
* Mise en place de la transformation précédemment calculée<br />
* Itération sur le point suivant<br />
<br />
Certains logiciels implémentent cet algorithme et permettent de faire de la reconstruction 3D.<br />
Parmi ces logiciels on peut trouver les logiciels [http://meshlab.sourceforge.net/ Meshlab] ou [http://www.danielgm.net/cc/ CloudCompare].<br><br />
La librairie VTK propose également une implémentation de cet algorithme.<br />
<br />
==Exemples de 3D scanning==<br />
Voici différents types de solutions que l'on peut trouver pour faire du 3d scanning :<br><br><br />
[[3D scanning de NextEngine]]<br><br />
Ceci est une solution payante. NextEngine propose un capteur laser qui va vous permettre de capturer avec une bonne précision les points de votre objet 3d.<br><br />
NextEngine propose en plus d'utiliser son logiciel qui va piloter le capteur et va effectuer la reconstruction de votre objet.<br><br />
<br />
[[3D scanning de DAVID]]<br><br />
DAVID fournit un logiciel permettant de faire du 3D scanning selon deux méthodes: <br><br />
*Une méthode de capture par laser. Cette méthode nécessite une webcam et un laser rectiligne<br />
*Une méthode de capture par lumière structurée. Cette méthode nécessite une webcam et un vidéo-projecteur.<br />
Le logiciel de DAVID permet de faire de la reconstruction 3D à partir des nuages de points capturés et propose également de faire du texturing. DAVID propose une version d'évaluation de son logiciel.<br />
<br />
[[3D scanning de RGBDemo]]<br><br />
RGBDemo propose une solution de 3d scanning utilisant la Microsoft Kinect. Cette méthode de capture permet d'avoir des nuages de points grossier car le capteur de la kinect n'est pas assez précis pour faire du 3D scanning de précision.<br />
<br />
=Sources=<br />
[https://en.wikipedia.org/wiki/Iterative_closest_point Page wikipédia ICP]<br><br />
[https://en.wikipedia.org/wiki/3D_scanner Page wikipédia 3d scanning]<br><br />
[http://labs.manctl.com/rgbdemo/index.php 3D scanning utilisant la kinect]<br><br />
[http://www.vi3dim.com/ 3d scanning temps réel]<br><br />
[http://www.numerisation-3d.info/assemblage-traitement-creation-de.html Informations sur le 3d scanning]<br><br />
[http://www.david-laserscanner.com/ Solution de 3d scanning DAVID]<br><br />
[https://www.nextengine.com/ Solution 3d scanning NextEngine]<br><br />
[http://meshlab.sourceforge.net/wiki/index.php/Alignment Utilisation de l'algorithme ICP par Meshlab]<br><br />
[http://graphics.stanford.edu/data/3Dscanrep/ Repository 3D Scanning de l'université de Stanford]<br><br />
[http://mi.eng.cam.ac.uk/~qp202/my_papers/BMVC09/ Reconstruction 3d temps réel par l'université de Cambridge]<br><br />
<br />
=Diapositives=<br />
[http://air.imag.fr/mediawiki/index.php/File:3D_Scanning.pdf Présentation 3d scanning]</div>Wirthchttps://air.imag.fr/index.php?title=File:3D_Scanning.pdf&diff=7138File:3D Scanning.pdf2012-12-21T13:03:10Z<p>Wirthc: Présentation du 3d Scanning dans l'UE EA</p>
<hr />
<div>Présentation du 3d Scanning dans l'UE EA</div>Wirthchttps://air.imag.fr/index.php?title=EA2012-3D_Scanning&diff=7137EA2012-3D Scanning2012-12-21T13:02:05Z<p>Wirthc: /* Sources */</p>
<hr />
<div>= 3D Scanning =<br />
Exposé réalisé par Oswald Camille et Clément Wirth<br />
<br />
=Résumé=<br />
Un scanner tridimensionnel est un appareil qui analyse les objets pour recueillir des informations précises sur la forme de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction.<br />
Pour la phase de capture, il existe deux types de scanners : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
Pour la phase de reconstruction, l’algorithme le plus utilisé et le plus connu est l’algorithme ICP.<br><br><br />
<br />
<br />
=Abstract=<br />
A 3D scanner is a device that analyzes a real-world object to collect data on its shape and possibly its appearance (color). The collected data can then be used to construct digital, three dimensional models.<br />
To move an object from the real-life 3D model, three stages can be identified: the capture of a cloud of points with the surface of the object, cleaning and adjustment and finally the reconstruction.<br />
In the capture phase, there are two types of scanners:<br />
*Scanners with contact<br />
*Non-contact scanners<br />
In the reconstruction phase, the algorithm most widely used and best known is the ICP algorithm<br><br><br />
<br />
=Synthèse=<br />
'''Principe de fonctionnement et utilisation'''<br />
Un scanner tridimensionnel est un appareil qui analyse les objets ou leur environnement proche pour recueillir des informations précises sur la forme et éventuellement sur l'apparence (couleur, texture, …) de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions (objets numériques) à des fins diverses.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction en un modèle polygonal.<br><br />
Ces appareils sont beaucoup utilisés par les industries du divertissement pour des films ou des jeux vidéo. Des images numériques en 3D d'objets scannés servent également à la conception industrielle, à la conception d'orthèses (semelle, corset) et de prothèses, à la rétro-ingénierie (reconstruction de surface) pour la documentation d'objets culturels.<br><br><br />
<br />
'''Méthode de capture'''<br />
Il existe deux types de scanner pour la phase de capture de l’information : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
<br />
<br />
==Les scanners avec contact==<br />
Les scanners 3D avec contact sondent le sujet grâce à un contact physique. Ils ont une bonne précision. Cependant, comme il y à un contact physique, cela peut détruire ou altérer des objets fragiles. Un autre inconvénient de cette technologie est sa relative lenteur par rapport aux autres méthodes. <br />
Un exemple de ce type de scanner est le bras de palpage. Au bout d’un bras, il y à un capteur que l’on peut déplacer dans toutes les directions afin de capturer toutes les coordonnées de l’objet à scanner.<br><br />
<br />
<br />
==Les scanners sans contact==<br />
Dans les scanners sans contact, il existe deux sous catégorie de scanner : <br />
*Scanner sans contact actif<br />
*Scanner sans contact passif<br />
<br />
<br />
==Les scanners sans contact actif==<br />
<br />
Les scanners actifs émettent un rayonnement et détectent sa réflexion afin de sonder un objet ou un environnement. Différents types de source de rayonnement sont utilisés : lumière, ultrason ou rayon X.<br />
<br />
Les scanners laser 3D peuvent généralement être répertoriés dans trois catégories principales :<br />
*Le scanner 3D par temps de vol : Le scanner par détection de temps de vol émet une impulsion de lumière laser qui est réfléchie par l’objet scanné. La réflexion en résultant est détectée par un capteur. Le temps qui s’écoule entre l’émission et la détection rapporte la distance à l’objet puisque l’on connaît précisément la vitesse de la lumière laser<br />
*Scanner par triangulation: le scanner projette une ligne ou un point laser sur un objet et en capture ensuite sa réflexion par un capteur situé à une distance connue de la source du laser.<br />
*Le scan par changement de phase : s’effectue en comparant le changement de phase dans la lumière laser réfléchie à une phase standard, qui est aussi capturée pour la comparaison.<br><br />
Pour notre démonstration, nous avons utilisée le scanner à frange (ou à lumière blanche).<br><br />
Le scanner 3D à lumière blanche ou à frange est un scan actif qui utilise la lumière blanche (projecteur type rétro-projecteur) pour sonder son environnement. Il pointe sur le sujet une série de motifs lumineux (traits, carrés, ronds,...) avec le projecteur créant des images déformées sur l’objet et utilise un appareil photo ou une camera décalée pour situer les motifs. En fonction de la distance jusqu’à la surface, les motifs prennent des formes différentes (déformations) en raison du positionnement décalé du laser et de la caméra. Ensuite un logiciel vient en déduire la forme de l’objet en fonction de l’ensemble des surfaces déformées dont il dispose.<br />
Ce type de scanner appartient à la catégorie scanner par triangulation.<br><br />
<br />
<br />
==Scanner sans contact passif==<br />
Les scanners sans contact passifs, n'émette aucun type de rayonnement. Ils se basent sur la détection de rayonnement ambiant réfléchi. La plupart des scanners de ce type détectent la lumière visible car elle est immédiatement disponible.<br><br />
Il existe tout une liste de ce type de scanner, lors de notre exposé, nous en avons présentés trois : <br><br />
*Scanners stéréoscopiques : Les systèmes stéréoscopiques utilisent généralement deux caméras vidéo, légèrement espacées, pointant vers la même scène. En analysant les légères différences entre les images des deux appareils, il est possible de déterminer la distance de chaque point de l'image. Cette méthode est basée sur la vision stéréoscopique humaine.<br><br />
<br />
*Photogrammétrie : Le principe de la photogrammétrie est de prendre des images multiples de l’objet et des points communs manuels ou automatiques à chaque photographie. Les points peuvent être ajoutés automatiquement ou manuellement pour créer les mesures 3D des parties souhaitées de l’objet.<br><br />
<br />
<br />
*Le Tomographe : Le tomographe est un appareil dans lequel on vient insérer le produit à numériser. L’appareil vient effectuer des mesures par tranche depuis l’extérieur de l’objet. Ce scanner permet de sortir des fichiers images de l’objet tranche par tranche. On peut avec un logiciel de reconstitution de fichier type IRM reconstituer l’objet en 3D.<br><br />
<br />
<br />
==Reconstruction==<br />
Après avoir scanné plusieurs nuages de points de notre objet 3D, il convient d'effectuer certains traitements pour obtenir notre objet final : c'est l'étape de reconstruction.<br><br />
Lors de cette étape, on va effectuer les points suivants : <br><br />
*Nettoyage des points parasites (comme les fonds, le socle, ...)<br />
*Positionnement des nuages de points entre eux pour faciliter leur association<br />
*Reconstruction du maillage, qui consiste à associer les différents nuages de points entre eux afin de former notre objet final<br />
La reconstruction des maillages s'effectue le plus souvent en utilisant l'algorithme ICP.<br><br />
<br><br />
Une fois notre objet reconstruit, il convient d'effectuer un comblement des trou ( qui sont les points qui ne se trouvent sur aucun nuage de points) et un re-texturing de notre objet. Certaines méthodes effectuent le retexturing de notre objet en même temps que la capture : dans ce cas la texture est capturée en même temps que le nuage de points et appliquée sur celui-ci.<br />
<br />
==Algorithme Iterative Closest Point (ICP)==<br />
Cet algorithme itératif permet de reconstruire le maillage entre plusieurs nuages de points. Son fonctionnement est simple et peut permettre d'effectuer de la reconstruction 3D en temps réel.<br><br />
Son principe de fonctionnement est le suivant :<br><br />
* Association de deux points de deux nuages de points en utilisant le critère des plus proche voisins<br />
* Estimation de la transformation nécessaire pour minimiser la distance entre les deux points<br />
* Mise en place de la transformation précédemment calculée<br />
* Itération sur le point suivant<br />
<br />
Certains logiciels implémentent cet algorithme et permettent de faire de la reconstruction 3D.<br />
Parmi ces logiciels on peut trouver les logiciels [http://meshlab.sourceforge.net/ Meshlab] ou [http://www.danielgm.net/cc/ CloudCompare].<br><br />
La librairie VTK propose également une implémentation de cet algorithme.<br />
<br />
==Exemples de 3D scanning==<br />
Voici différents types de solutions que l'on peut trouver pour faire du 3d scanning :<br><br><br />
[[3D scanning de NextEngine]]<br><br />
Ceci est une solution payante. NextEngine propose un capteur laser qui va vous permettre de capturer avec une bonne précision les points de votre objet 3d.<br><br />
NextEngine propose en plus d'utiliser son logiciel qui va piloter le capteur et va effectuer la reconstruction de votre objet.<br><br />
<br />
[[3D scanning de DAVID]]<br><br />
DAVID fournit un logiciel permettant de faire du 3D scanning selon deux méthodes: <br><br />
*Une méthode de capture par laser. Cette méthode nécessite une webcam et un laser rectiligne<br />
*Une méthode de capture par lumière structurée. Cette méthode nécessite une webcam et un vidéo-projecteur.<br />
Le logiciel de DAVID permet de faire de la reconstruction 3D à partir des nuages de points capturés et propose également de faire du texturing. DAVID propose une version d'évaluation de son logiciel.<br />
<br />
[[3D scanning de RGBDemo]]<br><br />
RGBDemo propose une solution de 3d scanning utilisant la Microsoft Kinect. Cette méthode de capture permet d'avoir des nuages de points grossier car le capteur de la kinect n'est pas assez précis pour faire du 3D scanning de précision.<br />
<br />
=Sources=<br />
[https://en.wikipedia.org/wiki/Iterative_closest_point Page wikipédia ICP]<br><br />
[https://en.wikipedia.org/wiki/3D_scanner Page wikipédia 3d scanning]<br><br />
[http://labs.manctl.com/rgbdemo/index.php 3D scanning utilisant la kinect]<br><br />
[http://www.vi3dim.com/ 3d scanning temps réel]<br><br />
[http://www.numerisation-3d.info/assemblage-traitement-creation-de.html Informations sur le 3d scanning]<br><br />
[http://www.david-laserscanner.com/ Solution de 3d scanning DAVID]<br><br />
[https://www.nextengine.com/ Solution 3d scanning NextEngine]<br><br />
[http://meshlab.sourceforge.net/wiki/index.php/Alignment Utilisation de l'algorithme ICP par Meshlab]<br><br />
[http://graphics.stanford.edu/data/3Dscanrep/ Repository 3D Scanning de l'université de Stanford]<br><br />
[http://mi.eng.cam.ac.uk/~qp202/my_papers/BMVC09/ Reconstruction 3d temps réel par l'université de Cambridge]<br><br />
<br />
=Diapositives=</div>Wirthchttps://air.imag.fr/index.php?title=EA2012-3D_Scanning&diff=6956EA2012-3D Scanning2012-12-13T16:19:35Z<p>Wirthc: /* Sources */</p>
<hr />
<div>= 3D Scanning =<br />
Exposé réalisé par Oswald Camille et Clément Wirth<br />
<br />
=Résumé=<br />
Un scanner tridimensionnel est un appareil qui analyse les objets pour recueillir des informations précises sur la forme de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction.<br />
Pour la phase de capture, il existe deux types de scanners : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
Pour la phase de reconstruction, l’algorithme le plus utilisé et le plus connu est l’algorithme ICP.<br><br><br />
<br />
<br />
=Abstract=<br />
A 3D scanner is a device that analyzes a real-world object to collect data on its shape and possibly its appearance (color). The collected data can then be used to construct digital, three dimensional models.<br />
To move an object from the real-life 3D model, three stages can be identified: the capture of a cloud of points with the surface of the object, cleaning and adjustment and finally the reconstruction.<br />
In the capture phase, there are two types of scanners:<br />
*Scanners with contact<br />
*Non-contact scanners<br />
In the reconstruction phase, the algorithm most widely used and best known is the ICP algorithm<br><br><br />
<br />
=Synthèse=<br />
'''Principe de fonctionnement et utilisation'''<br />
Un scanner tridimensionnel est un appareil qui analyse les objets ou leur environnement proche pour recueillir des informations précises sur la forme et éventuellement sur l'apparence (couleur, texture, …) de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions (objets numériques) à des fins diverses.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction en un modèle polygonal.<br><br />
Ces appareils sont beaucoup utilisés par les industries du divertissement pour des films ou des jeux vidéo. Des images numériques en 3D d'objets scannés servent également à la conception industrielle, à la conception d'orthèses (semelle, corset) et de prothèses, à la rétro-ingénierie (reconstruction de surface) pour la documentation d'objets culturels.<br><br><br />
<br />
'''Méthode de capture'''<br />
Il existe deux types de scanner pour la phase de capture de l’information : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
<br />
<br />
==Les scanners avec contact==<br />
Les scanners 3D avec contact sondent le sujet grâce à un contact physique. Ils ont une bonne précision. Cependant, comme il y à un contact physique, cela peut détruire ou altérer des objets fragiles. Un autre inconvénient de cette technologie est sa relative lenteur par rapport aux autres méthodes. <br />
Un exemple de ce type de scanner est le bras de palpage. Au bout d’un bras, il y à un capteur que l’on peut déplacer dans toutes les directions afin de capturer toutes les coordonnées de l’objet à scanner.<br><br />
<br />
<br />
==Les scanners sans contact==<br />
Dans les scanners sans contact, il existe deux sous catégorie de scanner : <br />
*Scanner sans contact actif<br />
*Scanner sans contact passif<br />
<br />
<br />
==Les scanners sans contact actif==<br />
<br />
Les scanners actifs émettent un rayonnement et détectent sa réflexion afin de sonder un objet ou un environnement. Différents types de source de rayonnement sont utilisés : lumière, ultrason ou rayon X.<br />
<br />
Les scanners laser 3D peuvent généralement être répertoriés dans trois catégories principales :<br />
*Le scanner 3D par temps de vol : Le scanner par détection de temps de vol émet une impulsion de lumière laser qui est réfléchie par l’objet scanné. La réflexion en résultant est détectée par un capteur. Le temps qui s’écoule entre l’émission et la détection rapporte la distance à l’objet puisque l’on connaît précisément la vitesse de la lumière laser<br />
*Scanner par triangulation: le scanner projette une ligne ou un point laser sur un objet et en capture ensuite sa réflexion par un capteur situé à une distance connue de la source du laser.<br />
*Le scan par changement de phase : s’effectue en comparant le changement de phase dans la lumière laser réfléchie à une phase standard, qui est aussi capturée pour la comparaison.<br><br />
Pour notre démonstration, nous avons utilisée le scanner à frange (ou à lumière blanche).<br><br />
Le scanner 3D à lumière blanche ou à frange est un scan actif qui utilise la lumière blanche (projecteur type rétro-projecteur) pour sonder son environnement. Il pointe sur le sujet une série de motifs lumineux (traits, carrés, ronds,...) avec le projecteur créant des images déformées sur l’objet et utilise un appareil photo ou une camera décalée pour situer les motifs. En fonction de la distance jusqu’à la surface, les motifs prennent des formes différentes (déformations) en raison du positionnement décalé du laser et de la caméra. Ensuite un logiciel vient en déduire la forme de l’objet en fonction de l’ensemble des surfaces déformées dont il dispose.<br />
Ce type de scanner appartient à la catégorie scanner par triangulation.<br><br />
<br />
<br />
==Scanner sans contact passif==<br />
Les scanners sans contact passifs, n'émette aucun type de rayonnement. Ils se basent sur la détection de rayonnement ambiant réfléchi. La plupart des scanners de ce type détectent la lumière visible car elle est immédiatement disponible.<br><br />
Il existe tout une liste de ce type de scanner, lors de notre exposé, nous en avons présentés trois : <br><br />
*Scanners stéréoscopiques : Les systèmes stéréoscopiques utilisent généralement deux caméras vidéo, légèrement espacées, pointant vers la même scène. En analysant les légères différences entre les images des deux appareils, il est possible de déterminer la distance de chaque point de l'image. Cette méthode est basée sur la vision stéréoscopique humaine.<br><br />
<br />
*Photogrammétrie : Le principe de la photogrammétrie est de prendre des images multiples de l’objet et des points communs manuels ou automatiques à chaque photographie. Les points peuvent être ajoutés automatiquement ou manuellement pour créer les mesures 3D des parties souhaitées de l’objet.<br><br />
<br />
<br />
*Le Tomographe : Le tomographe est un appareil dans lequel on vient insérer le produit à numériser. L’appareil vient effectuer des mesures par tranche depuis l’extérieur de l’objet. Ce scanner permet de sortir des fichiers images de l’objet tranche par tranche. On peut avec un logiciel de reconstitution de fichier type IRM reconstituer l’objet en 3D.<br><br />
<br />
<br />
==Reconstruction==<br />
Après avoir scanné plusieurs nuages de points de notre objet 3D, il convient d'effectuer certains traitements pour obtenir notre objet final : c'est l'étape de reconstruction.<br><br />
Lors de cette étape, on va effectuer les points suivants : <br><br />
*Nettoyage des points parasites (comme les fonds, le socle, ...)<br />
*Positionnement des nuages de points entre eux pour faciliter leur association<br />
*Reconstruction du maillage, qui consiste à associer les différents nuages de points entre eux afin de former notre objet final<br />
La reconstruction des maillages s'effectue le plus souvent en utilisant l'algorithme ICP.<br><br />
<br><br />
Une fois notre objet reconstruit, il convient d'effectuer un comblement des trou ( qui sont les points qui ne se trouvent sur aucun nuage de points) et un re-texturing de notre objet. Certaines méthodes effectuent le retexturing de notre objet en même temps que la capture : dans ce cas la texture est capturée en même temps que le nuage de points et appliquée sur celui-ci.<br />
<br />
==Algorithme Iterative Closest Point (ICP)==<br />
Cet algorithme itératif permet de reconstruire le maillage entre plusieurs nuages de points. Son fonctionnement est simple et peut permettre d'effectuer de la reconstruction 3D en temps réel.<br><br />
Son principe de fonctionnement est le suivant :<br><br />
* Association de deux points de deux nuages de points en utilisant le critère des plus proche voisins<br />
* Estimation de la transformation nécessaire pour minimiser la distance entre les deux points<br />
* Mise en place de la transformation précédemment calculée<br />
* Itération sur le point suivant<br />
<br />
Certains logiciels implémentent cet algorithme et permettent de faire de la reconstruction 3D.<br />
Parmi ces logiciels on peut trouver les logiciels [http://meshlab.sourceforge.net/ Meshlab] ou [http://www.danielgm.net/cc/ CloudCompare].<br><br />
La librairie VTK propose également une implémentation de cet algorithme.<br />
<br />
==Exemples de 3D scanning==<br />
Voici différents types de solutions que l'on peut trouver pour faire du 3d scanning :<br><br><br />
[[3D scanning de NextEngine]]<br><br />
Ceci est une solution payante. NextEngine propose un capteur laser qui va vous permettre de capturer avec une bonne précision les points de votre objet 3d.<br><br />
NextEngine propose en plus d'utiliser son logiciel qui va piloter le capteur et va effectuer la reconstruction de votre objet.<br><br />
<br />
[[3D scanning de DAVID]]<br><br />
DAVID fournit un logiciel permettant de faire du 3D scanning selon deux méthodes: <br><br />
*Une méthode de capture par laser. Cette méthode nécessite une webcam et un laser rectiligne<br />
*Une méthode de capture par lumière structurée. Cette méthode nécessite une webcam et un vidéo-projecteur.<br />
Le logiciel de DAVID permet de faire de la reconstruction 3D à partir des nuages de points capturés et propose également de faire du texturing. DAVID propose une version d'évaluation de son logiciel.<br />
<br />
[[3D scanning de RGBDemo]]<br><br />
RGBDemo propose une solution de 3d scanning utilisant la Microsoft Kinect. Cette méthode de capture permet d'avoir des nuages de points grossier car le capteur de la kinect n'est pas assez précis pour faire du 3D scanning de précision.<br />
<br />
=Sources=<br />
[https://en.wikipedia.org/wiki/Iterative_closest_point Page wikipédia ICP]<br><br />
[https://en.wikipedia.org/wiki/3D_scanner Page wikipédia 3d scanning]<br><br />
[http://labs.manctl.com/rgbdemo/index.php 3D scanning utilisant la kinect]<br><br />
[http://www.vi3dim.com/ 3d scanning temps réel]<br><br />
[http://www.numerisation-3d.info/assemblage-traitement-creation-de.html Informations sur le 3d scanning]<br><br />
[http://www.david-laserscanner.com/ Solution de 3d scanning DAVID]<br><br />
[https://www.nextengine.com/ Solution 3d scanning NextEngine]<br><br />
[http://meshlab.sourceforge.net/wiki/index.php/Alignment Utilisation de l'algorithme ICP par Meshlab]<br><br />
[http://graphics.stanford.edu/data/3Dscanrep/ Repository 3D Scanning de l'université de Stanford]<br><br />
[http://mi.eng.cam.ac.uk/~qp202/my_papers/BMVC09/ Reconstruction 3d temps réel par l'université de Cambridge]<br></div>Wirthchttps://air.imag.fr/index.php?title=EA2012-3D_Scanning&diff=6955EA2012-3D Scanning2012-12-13T16:18:03Z<p>Wirthc: /* Reconstruction */</p>
<hr />
<div>= 3D Scanning =<br />
Exposé réalisé par Oswald Camille et Clément Wirth<br />
<br />
=Résumé=<br />
Un scanner tridimensionnel est un appareil qui analyse les objets pour recueillir des informations précises sur la forme de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction.<br />
Pour la phase de capture, il existe deux types de scanners : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
Pour la phase de reconstruction, l’algorithme le plus utilisé et le plus connu est l’algorithme ICP.<br><br><br />
<br />
<br />
=Abstract=<br />
A 3D scanner is a device that analyzes a real-world object to collect data on its shape and possibly its appearance (color). The collected data can then be used to construct digital, three dimensional models.<br />
To move an object from the real-life 3D model, three stages can be identified: the capture of a cloud of points with the surface of the object, cleaning and adjustment and finally the reconstruction.<br />
In the capture phase, there are two types of scanners:<br />
*Scanners with contact<br />
*Non-contact scanners<br />
In the reconstruction phase, the algorithm most widely used and best known is the ICP algorithm<br><br><br />
<br />
=Synthèse=<br />
'''Principe de fonctionnement et utilisation'''<br />
Un scanner tridimensionnel est un appareil qui analyse les objets ou leur environnement proche pour recueillir des informations précises sur la forme et éventuellement sur l'apparence (couleur, texture, …) de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions (objets numériques) à des fins diverses.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction en un modèle polygonal.<br><br />
Ces appareils sont beaucoup utilisés par les industries du divertissement pour des films ou des jeux vidéo. Des images numériques en 3D d'objets scannés servent également à la conception industrielle, à la conception d'orthèses (semelle, corset) et de prothèses, à la rétro-ingénierie (reconstruction de surface) pour la documentation d'objets culturels.<br><br><br />
<br />
'''Méthode de capture'''<br />
Il existe deux types de scanner pour la phase de capture de l’information : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
<br />
<br />
==Les scanners avec contact==<br />
Les scanners 3D avec contact sondent le sujet grâce à un contact physique. Ils ont une bonne précision. Cependant, comme il y à un contact physique, cela peut détruire ou altérer des objets fragiles. Un autre inconvénient de cette technologie est sa relative lenteur par rapport aux autres méthodes. <br />
Un exemple de ce type de scanner est le bras de palpage. Au bout d’un bras, il y à un capteur que l’on peut déplacer dans toutes les directions afin de capturer toutes les coordonnées de l’objet à scanner.<br><br />
<br />
<br />
==Les scanners sans contact==<br />
Dans les scanners sans contact, il existe deux sous catégorie de scanner : <br />
*Scanner sans contact actif<br />
*Scanner sans contact passif<br />
<br />
<br />
==Les scanners sans contact actif==<br />
<br />
Les scanners actifs émettent un rayonnement et détectent sa réflexion afin de sonder un objet ou un environnement. Différents types de source de rayonnement sont utilisés : lumière, ultrason ou rayon X.<br />
<br />
Les scanners laser 3D peuvent généralement être répertoriés dans trois catégories principales :<br />
*Le scanner 3D par temps de vol : Le scanner par détection de temps de vol émet une impulsion de lumière laser qui est réfléchie par l’objet scanné. La réflexion en résultant est détectée par un capteur. Le temps qui s’écoule entre l’émission et la détection rapporte la distance à l’objet puisque l’on connaît précisément la vitesse de la lumière laser<br />
*Scanner par triangulation: le scanner projette une ligne ou un point laser sur un objet et en capture ensuite sa réflexion par un capteur situé à une distance connue de la source du laser.<br />
*Le scan par changement de phase : s’effectue en comparant le changement de phase dans la lumière laser réfléchie à une phase standard, qui est aussi capturée pour la comparaison.<br><br />
Pour notre démonstration, nous avons utilisée le scanner à frange (ou à lumière blanche).<br><br />
Le scanner 3D à lumière blanche ou à frange est un scan actif qui utilise la lumière blanche (projecteur type rétro-projecteur) pour sonder son environnement. Il pointe sur le sujet une série de motifs lumineux (traits, carrés, ronds,...) avec le projecteur créant des images déformées sur l’objet et utilise un appareil photo ou une camera décalée pour situer les motifs. En fonction de la distance jusqu’à la surface, les motifs prennent des formes différentes (déformations) en raison du positionnement décalé du laser et de la caméra. Ensuite un logiciel vient en déduire la forme de l’objet en fonction de l’ensemble des surfaces déformées dont il dispose.<br />
Ce type de scanner appartient à la catégorie scanner par triangulation.<br><br />
<br />
<br />
==Scanner sans contact passif==<br />
Les scanners sans contact passifs, n'émette aucun type de rayonnement. Ils se basent sur la détection de rayonnement ambiant réfléchi. La plupart des scanners de ce type détectent la lumière visible car elle est immédiatement disponible.<br><br />
Il existe tout une liste de ce type de scanner, lors de notre exposé, nous en avons présentés trois : <br><br />
*Scanners stéréoscopiques : Les systèmes stéréoscopiques utilisent généralement deux caméras vidéo, légèrement espacées, pointant vers la même scène. En analysant les légères différences entre les images des deux appareils, il est possible de déterminer la distance de chaque point de l'image. Cette méthode est basée sur la vision stéréoscopique humaine.<br><br />
<br />
*Photogrammétrie : Le principe de la photogrammétrie est de prendre des images multiples de l’objet et des points communs manuels ou automatiques à chaque photographie. Les points peuvent être ajoutés automatiquement ou manuellement pour créer les mesures 3D des parties souhaitées de l’objet.<br><br />
<br />
<br />
*Le Tomographe : Le tomographe est un appareil dans lequel on vient insérer le produit à numériser. L’appareil vient effectuer des mesures par tranche depuis l’extérieur de l’objet. Ce scanner permet de sortir des fichiers images de l’objet tranche par tranche. On peut avec un logiciel de reconstitution de fichier type IRM reconstituer l’objet en 3D.<br><br />
<br />
<br />
==Reconstruction==<br />
Après avoir scanné plusieurs nuages de points de notre objet 3D, il convient d'effectuer certains traitements pour obtenir notre objet final : c'est l'étape de reconstruction.<br><br />
Lors de cette étape, on va effectuer les points suivants : <br><br />
*Nettoyage des points parasites (comme les fonds, le socle, ...)<br />
*Positionnement des nuages de points entre eux pour faciliter leur association<br />
*Reconstruction du maillage, qui consiste à associer les différents nuages de points entre eux afin de former notre objet final<br />
La reconstruction des maillages s'effectue le plus souvent en utilisant l'algorithme ICP.<br><br />
<br><br />
Une fois notre objet reconstruit, il convient d'effectuer un comblement des trou ( qui sont les points qui ne se trouvent sur aucun nuage de points) et un re-texturing de notre objet. Certaines méthodes effectuent le retexturing de notre objet en même temps que la capture : dans ce cas la texture est capturée en même temps que le nuage de points et appliquée sur celui-ci.<br />
<br />
==Algorithme Iterative Closest Point (ICP)==<br />
Cet algorithme itératif permet de reconstruire le maillage entre plusieurs nuages de points. Son fonctionnement est simple et peut permettre d'effectuer de la reconstruction 3D en temps réel.<br><br />
Son principe de fonctionnement est le suivant :<br><br />
* Association de deux points de deux nuages de points en utilisant le critère des plus proche voisins<br />
* Estimation de la transformation nécessaire pour minimiser la distance entre les deux points<br />
* Mise en place de la transformation précédemment calculée<br />
* Itération sur le point suivant<br />
<br />
Certains logiciels implémentent cet algorithme et permettent de faire de la reconstruction 3D.<br />
Parmi ces logiciels on peut trouver les logiciels [http://meshlab.sourceforge.net/ Meshlab] ou [http://www.danielgm.net/cc/ CloudCompare].<br><br />
La librairie VTK propose également une implémentation de cet algorithme.<br />
<br />
==Exemples de 3D scanning==<br />
Voici différents types de solutions que l'on peut trouver pour faire du 3d scanning :<br><br><br />
[[3D scanning de NextEngine]]<br><br />
Ceci est une solution payante. NextEngine propose un capteur laser qui va vous permettre de capturer avec une bonne précision les points de votre objet 3d.<br><br />
NextEngine propose en plus d'utiliser son logiciel qui va piloter le capteur et va effectuer la reconstruction de votre objet.<br><br />
<br />
[[3D scanning de DAVID]]<br><br />
DAVID fournit un logiciel permettant de faire du 3D scanning selon deux méthodes: <br><br />
*Une méthode de capture par laser. Cette méthode nécessite une webcam et un laser rectiligne<br />
*Une méthode de capture par lumière structurée. Cette méthode nécessite une webcam et un vidéo-projecteur.<br />
Le logiciel de DAVID permet de faire de la reconstruction 3D à partir des nuages de points capturés et propose également de faire du texturing. DAVID propose une version d'évaluation de son logiciel.<br />
<br />
[[3D scanning de RGBDemo]]<br><br />
RGBDemo propose une solution de 3d scanning utilisant la Microsoft Kinect. Cette méthode de capture permet d'avoir des nuages de points grossier car le capteur de la kinect n'est pas assez précis pour faire du 3D scanning de précision.<br />
<br />
==Sources==<br />
[https://en.wikipedia.org/wiki/Iterative_closest_point Page wikipédia ICP]<br><br />
[https://en.wikipedia.org/wiki/3D_scanner Page wikipédia 3d scanning]<br><br />
[http://labs.manctl.com/rgbdemo/index.php 3D scanning utilisant la kinect]<br><br />
[http://www.vi3dim.com/ 3d scanning temps réel]<br><br />
[http://www.numerisation-3d.info/assemblage-traitement-creation-de.html Informations sur le 3d scanning]<br><br />
[http://www.david-laserscanner.com/ Solution de 3d scanning DAVID]<br><br />
[https://www.nextengine.com/ Solution 3d scanning NextEngine]<br><br />
[http://meshlab.sourceforge.net/wiki/index.php/Alignment Utilisation de l'algorithme ICP par Meshlab]<br><br />
[http://graphics.stanford.edu/data/3Dscanrep/ Repository 3D Scanning de l'université de Stanford]<br><br />
[http://mi.eng.cam.ac.uk/~qp202/my_papers/BMVC09/ Reconstruction 3d temps réel par l'université de Cambridge]<br></div>Wirthchttps://air.imag.fr/index.php?title=EA2012-3D_Scanning&diff=6954EA2012-3D Scanning2012-12-13T16:15:22Z<p>Wirthc: /* Exemples de 3D scanning */</p>
<hr />
<div>= 3D Scanning =<br />
Exposé réalisé par Oswald Camille et Clément Wirth<br />
<br />
=Résumé=<br />
Un scanner tridimensionnel est un appareil qui analyse les objets pour recueillir des informations précises sur la forme de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction.<br />
Pour la phase de capture, il existe deux types de scanners : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
Pour la phase de reconstruction, l’algorithme le plus utilisé et le plus connu est l’algorithme ICP.<br><br><br />
<br />
<br />
=Abstract=<br />
A 3D scanner is a device that analyzes a real-world object to collect data on its shape and possibly its appearance (color). The collected data can then be used to construct digital, three dimensional models.<br />
To move an object from the real-life 3D model, three stages can be identified: the capture of a cloud of points with the surface of the object, cleaning and adjustment and finally the reconstruction.<br />
In the capture phase, there are two types of scanners:<br />
*Scanners with contact<br />
*Non-contact scanners<br />
In the reconstruction phase, the algorithm most widely used and best known is the ICP algorithm<br><br><br />
<br />
=Synthèse=<br />
'''Principe de fonctionnement et utilisation'''<br />
Un scanner tridimensionnel est un appareil qui analyse les objets ou leur environnement proche pour recueillir des informations précises sur la forme et éventuellement sur l'apparence (couleur, texture, …) de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions (objets numériques) à des fins diverses.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction en un modèle polygonal.<br><br />
Ces appareils sont beaucoup utilisés par les industries du divertissement pour des films ou des jeux vidéo. Des images numériques en 3D d'objets scannés servent également à la conception industrielle, à la conception d'orthèses (semelle, corset) et de prothèses, à la rétro-ingénierie (reconstruction de surface) pour la documentation d'objets culturels.<br><br><br />
<br />
'''Méthode de capture'''<br />
Il existe deux types de scanner pour la phase de capture de l’information : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
<br />
<br />
==Les scanners avec contact==<br />
Les scanners 3D avec contact sondent le sujet grâce à un contact physique. Ils ont une bonne précision. Cependant, comme il y à un contact physique, cela peut détruire ou altérer des objets fragiles. Un autre inconvénient de cette technologie est sa relative lenteur par rapport aux autres méthodes. <br />
Un exemple de ce type de scanner est le bras de palpage. Au bout d’un bras, il y à un capteur que l’on peut déplacer dans toutes les directions afin de capturer toutes les coordonnées de l’objet à scanner.<br><br />
<br />
<br />
==Les scanners sans contact==<br />
Dans les scanners sans contact, il existe deux sous catégorie de scanner : <br />
*Scanner sans contact actif<br />
*Scanner sans contact passif<br />
<br />
<br />
==Les scanners sans contact actif==<br />
<br />
Les scanners actifs émettent un rayonnement et détectent sa réflexion afin de sonder un objet ou un environnement. Différents types de source de rayonnement sont utilisés : lumière, ultrason ou rayon X.<br />
<br />
Les scanners laser 3D peuvent généralement être répertoriés dans trois catégories principales :<br />
*Le scanner 3D par temps de vol : Le scanner par détection de temps de vol émet une impulsion de lumière laser qui est réfléchie par l’objet scanné. La réflexion en résultant est détectée par un capteur. Le temps qui s’écoule entre l’émission et la détection rapporte la distance à l’objet puisque l’on connaît précisément la vitesse de la lumière laser<br />
*Scanner par triangulation: le scanner projette une ligne ou un point laser sur un objet et en capture ensuite sa réflexion par un capteur situé à une distance connue de la source du laser.<br />
*Le scan par changement de phase : s’effectue en comparant le changement de phase dans la lumière laser réfléchie à une phase standard, qui est aussi capturée pour la comparaison.<br><br />
Pour notre démonstration, nous avons utilisée le scanner à frange (ou à lumière blanche).<br><br />
Le scanner 3D à lumière blanche ou à frange est un scan actif qui utilise la lumière blanche (projecteur type rétro-projecteur) pour sonder son environnement. Il pointe sur le sujet une série de motifs lumineux (traits, carrés, ronds,...) avec le projecteur créant des images déformées sur l’objet et utilise un appareil photo ou une camera décalée pour situer les motifs. En fonction de la distance jusqu’à la surface, les motifs prennent des formes différentes (déformations) en raison du positionnement décalé du laser et de la caméra. Ensuite un logiciel vient en déduire la forme de l’objet en fonction de l’ensemble des surfaces déformées dont il dispose.<br />
Ce type de scanner appartient à la catégorie scanner par triangulation.<br><br />
<br />
<br />
==Scanner sans contact passif==<br />
Les scanners sans contact passifs, n'émette aucun type de rayonnement. Ils se basent sur la détection de rayonnement ambiant réfléchi. La plupart des scanners de ce type détectent la lumière visible car elle est immédiatement disponible.<br><br />
Il existe tout une liste de ce type de scanner, lors de notre exposé, nous en avons présentés trois : <br><br />
*Scanners stéréoscopiques : Les systèmes stéréoscopiques utilisent généralement deux caméras vidéo, légèrement espacées, pointant vers la même scène. En analysant les légères différences entre les images des deux appareils, il est possible de déterminer la distance de chaque point de l'image. Cette méthode est basée sur la vision stéréoscopique humaine.<br><br />
<br />
*Photogrammétrie : Le principe de la photogrammétrie est de prendre des images multiples de l’objet et des points communs manuels ou automatiques à chaque photographie. Les points peuvent être ajoutés automatiquement ou manuellement pour créer les mesures 3D des parties souhaitées de l’objet.<br><br />
<br />
<br />
*Le Tomographe : Le tomographe est un appareil dans lequel on vient insérer le produit à numériser. L’appareil vient effectuer des mesures par tranche depuis l’extérieur de l’objet. Ce scanner permet de sortir des fichiers images de l’objet tranche par tranche. On peut avec un logiciel de reconstitution de fichier type IRM reconstituer l’objet en 3D.<br><br />
<br />
<br />
==Reconstruction==<br />
Après avoir scanné plusieurs nuages de points de notre objet 3D, il convient d'effectuer certains traitements pour obtenir notre objet final : c'est l'étape de reconstruction.<br><br />
Lors de cette étape, on va effectuer les points suivants : <br><br />
*Nettoyage des points parasites (comme les fonds, le socle, ...)<br />
*Positionnement des nuages de points entre eux pour faciliter leur association<br />
*Reconstruction du maillage, qui consiste à associer les différents nuages de points entre eux afin de former notre objet final<br />
La reconstruction des maillages s'effectue le plus souvent en utilisant l'algorithme ICP.<br><br />
<br />
<br />
==Algorithme Iterative Closest Point (ICP)==<br />
Cet algorithme itératif permet de reconstruire le maillage entre plusieurs nuages de points. Son fonctionnement est simple et peut permettre d'effectuer de la reconstruction 3D en temps réel.<br><br />
Son principe de fonctionnement est le suivant :<br><br />
* Association de deux points de deux nuages de points en utilisant le critère des plus proche voisins<br />
* Estimation de la transformation nécessaire pour minimiser la distance entre les deux points<br />
* Mise en place de la transformation précédemment calculée<br />
* Itération sur le point suivant<br />
<br />
Certains logiciels implémentent cet algorithme et permettent de faire de la reconstruction 3D.<br />
Parmi ces logiciels on peut trouver les logiciels [http://meshlab.sourceforge.net/ Meshlab] ou [http://www.danielgm.net/cc/ CloudCompare].<br><br />
La librairie VTK propose également une implémentation de cet algorithme.<br />
<br />
==Exemples de 3D scanning==<br />
Voici différents types de solutions que l'on peut trouver pour faire du 3d scanning :<br><br><br />
[[3D scanning de NextEngine]]<br><br />
Ceci est une solution payante. NextEngine propose un capteur laser qui va vous permettre de capturer avec une bonne précision les points de votre objet 3d.<br><br />
NextEngine propose en plus d'utiliser son logiciel qui va piloter le capteur et va effectuer la reconstruction de votre objet.<br><br />
<br />
[[3D scanning de DAVID]]<br><br />
DAVID fournit un logiciel permettant de faire du 3D scanning selon deux méthodes: <br><br />
*Une méthode de capture par laser. Cette méthode nécessite une webcam et un laser rectiligne<br />
*Une méthode de capture par lumière structurée. Cette méthode nécessite une webcam et un vidéo-projecteur.<br />
Le logiciel de DAVID permet de faire de la reconstruction 3D à partir des nuages de points capturés et propose également de faire du texturing. DAVID propose une version d'évaluation de son logiciel.<br />
<br />
[[3D scanning de RGBDemo]]<br><br />
RGBDemo propose une solution de 3d scanning utilisant la Microsoft Kinect. Cette méthode de capture permet d'avoir des nuages de points grossier car le capteur de la kinect n'est pas assez précis pour faire du 3D scanning de précision.<br />
<br />
==Sources==<br />
[https://en.wikipedia.org/wiki/Iterative_closest_point Page wikipédia ICP]<br><br />
[https://en.wikipedia.org/wiki/3D_scanner Page wikipédia 3d scanning]<br><br />
[http://labs.manctl.com/rgbdemo/index.php 3D scanning utilisant la kinect]<br><br />
[http://www.vi3dim.com/ 3d scanning temps réel]<br><br />
[http://www.numerisation-3d.info/assemblage-traitement-creation-de.html Informations sur le 3d scanning]<br><br />
[http://www.david-laserscanner.com/ Solution de 3d scanning DAVID]<br><br />
[https://www.nextengine.com/ Solution 3d scanning NextEngine]<br><br />
[http://meshlab.sourceforge.net/wiki/index.php/Alignment Utilisation de l'algorithme ICP par Meshlab]<br><br />
[http://graphics.stanford.edu/data/3Dscanrep/ Repository 3D Scanning de l'université de Stanford]<br><br />
[http://mi.eng.cam.ac.uk/~qp202/my_papers/BMVC09/ Reconstruction 3d temps réel par l'université de Cambridge]<br></div>Wirthchttps://air.imag.fr/index.php?title=EA2012-3D_Scanning&diff=6953EA2012-3D Scanning2012-12-13T16:02:53Z<p>Wirthc: /* Sources */</p>
<hr />
<div>= 3D Scanning =<br />
Exposé réalisé par Oswald Camille et Clément Wirth<br />
<br />
=Résumé=<br />
Un scanner tridimensionnel est un appareil qui analyse les objets pour recueillir des informations précises sur la forme de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction.<br />
Pour la phase de capture, il existe deux types de scanners : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
Pour la phase de reconstruction, l’algorithme le plus utilisé et le plus connu est l’algorithme ICP.<br><br><br />
<br />
<br />
=Abstract=<br />
A 3D scanner is a device that analyzes a real-world object to collect data on its shape and possibly its appearance (color). The collected data can then be used to construct digital, three dimensional models.<br />
To move an object from the real-life 3D model, three stages can be identified: the capture of a cloud of points with the surface of the object, cleaning and adjustment and finally the reconstruction.<br />
In the capture phase, there are two types of scanners:<br />
*Scanners with contact<br />
*Non-contact scanners<br />
In the reconstruction phase, the algorithm most widely used and best known is the ICP algorithm<br><br><br />
<br />
=Synthèse=<br />
'''Principe de fonctionnement et utilisation'''<br />
Un scanner tridimensionnel est un appareil qui analyse les objets ou leur environnement proche pour recueillir des informations précises sur la forme et éventuellement sur l'apparence (couleur, texture, …) de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions (objets numériques) à des fins diverses.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction en un modèle polygonal.<br><br />
Ces appareils sont beaucoup utilisés par les industries du divertissement pour des films ou des jeux vidéo. Des images numériques en 3D d'objets scannés servent également à la conception industrielle, à la conception d'orthèses (semelle, corset) et de prothèses, à la rétro-ingénierie (reconstruction de surface) pour la documentation d'objets culturels.<br><br><br />
<br />
'''Méthode de capture'''<br />
Il existe deux types de scanner pour la phase de capture de l’information : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
<br />
<br />
==Les scanners avec contact==<br />
Les scanners 3D avec contact sondent le sujet grâce à un contact physique. Ils ont une bonne précision. Cependant, comme il y à un contact physique, cela peut détruire ou altérer des objets fragiles. Un autre inconvénient de cette technologie est sa relative lenteur par rapport aux autres méthodes. <br />
Un exemple de ce type de scanner est le bras de palpage. Au bout d’un bras, il y à un capteur que l’on peut déplacer dans toutes les directions afin de capturer toutes les coordonnées de l’objet à scanner.<br><br />
<br />
<br />
==Les scanners sans contact==<br />
Dans les scanners sans contact, il existe deux sous catégorie de scanner : <br />
*Scanner sans contact actif<br />
*Scanner sans contact passif<br />
<br />
<br />
==Les scanners sans contact actif==<br />
<br />
Les scanners actifs émettent un rayonnement et détectent sa réflexion afin de sonder un objet ou un environnement. Différents types de source de rayonnement sont utilisés : lumière, ultrason ou rayon X.<br />
<br />
Les scanners laser 3D peuvent généralement être répertoriés dans trois catégories principales :<br />
*Le scanner 3D par temps de vol : Le scanner par détection de temps de vol émet une impulsion de lumière laser qui est réfléchie par l’objet scanné. La réflexion en résultant est détectée par un capteur. Le temps qui s’écoule entre l’émission et la détection rapporte la distance à l’objet puisque l’on connaît précisément la vitesse de la lumière laser<br />
*Scanner par triangulation: le scanner projette une ligne ou un point laser sur un objet et en capture ensuite sa réflexion par un capteur situé à une distance connue de la source du laser.<br />
*Le scan par changement de phase : s’effectue en comparant le changement de phase dans la lumière laser réfléchie à une phase standard, qui est aussi capturée pour la comparaison.<br><br />
Pour notre démonstration, nous avons utilisée le scanner à frange (ou à lumière blanche).<br><br />
Le scanner 3D à lumière blanche ou à frange est un scan actif qui utilise la lumière blanche (projecteur type rétro-projecteur) pour sonder son environnement. Il pointe sur le sujet une série de motifs lumineux (traits, carrés, ronds,...) avec le projecteur créant des images déformées sur l’objet et utilise un appareil photo ou une camera décalée pour situer les motifs. En fonction de la distance jusqu’à la surface, les motifs prennent des formes différentes (déformations) en raison du positionnement décalé du laser et de la caméra. Ensuite un logiciel vient en déduire la forme de l’objet en fonction de l’ensemble des surfaces déformées dont il dispose.<br />
Ce type de scanner appartient à la catégorie scanner par triangulation.<br><br />
<br />
<br />
==Scanner sans contact passif==<br />
Les scanners sans contact passifs, n'émette aucun type de rayonnement. Ils se basent sur la détection de rayonnement ambiant réfléchi. La plupart des scanners de ce type détectent la lumière visible car elle est immédiatement disponible.<br><br />
Il existe tout une liste de ce type de scanner, lors de notre exposé, nous en avons présentés trois : <br><br />
*Scanners stéréoscopiques : Les systèmes stéréoscopiques utilisent généralement deux caméras vidéo, légèrement espacées, pointant vers la même scène. En analysant les légères différences entre les images des deux appareils, il est possible de déterminer la distance de chaque point de l'image. Cette méthode est basée sur la vision stéréoscopique humaine.<br><br />
<br />
*Photogrammétrie : Le principe de la photogrammétrie est de prendre des images multiples de l’objet et des points communs manuels ou automatiques à chaque photographie. Les points peuvent être ajoutés automatiquement ou manuellement pour créer les mesures 3D des parties souhaitées de l’objet.<br><br />
<br />
<br />
*Le Tomographe : Le tomographe est un appareil dans lequel on vient insérer le produit à numériser. L’appareil vient effectuer des mesures par tranche depuis l’extérieur de l’objet. Ce scanner permet de sortir des fichiers images de l’objet tranche par tranche. On peut avec un logiciel de reconstitution de fichier type IRM reconstituer l’objet en 3D.<br><br />
<br />
<br />
==Reconstruction==<br />
Après avoir scanné plusieurs nuages de points de notre objet 3D, il convient d'effectuer certains traitements pour obtenir notre objet final : c'est l'étape de reconstruction.<br><br />
Lors de cette étape, on va effectuer les points suivants : <br><br />
*Nettoyage des points parasites (comme les fonds, le socle, ...)<br />
*Positionnement des nuages de points entre eux pour faciliter leur association<br />
*Reconstruction du maillage, qui consiste à associer les différents nuages de points entre eux afin de former notre objet final<br />
La reconstruction des maillages s'effectue le plus souvent en utilisant l'algorithme ICP.<br><br />
<br />
<br />
==Algorithme Iterative Closest Point (ICP)==<br />
Cet algorithme itératif permet de reconstruire le maillage entre plusieurs nuages de points. Son fonctionnement est simple et peut permettre d'effectuer de la reconstruction 3D en temps réel.<br><br />
Son principe de fonctionnement est le suivant :<br><br />
* Association de deux points de deux nuages de points en utilisant le critère des plus proche voisins<br />
* Estimation de la transformation nécessaire pour minimiser la distance entre les deux points<br />
* Mise en place de la transformation précédemment calculée<br />
* Itération sur le point suivant<br />
<br />
Certains logiciels implémentent cet algorithme et permettent de faire de la reconstruction 3D.<br />
Parmi ces logiciels on peut trouver les logiciels [http://meshlab.sourceforge.net/ Meshlab] ou [http://www.danielgm.net/cc/ CloudCompare].<br><br />
La librairie VTK propose également une implémentation de cet algorithme.<br />
<br />
==Exemples de 3D scanning==<br />
<br />
==Sources==<br />
[https://en.wikipedia.org/wiki/Iterative_closest_point Page wikipédia ICP]<br><br />
[https://en.wikipedia.org/wiki/3D_scanner Page wikipédia 3d scanning]<br><br />
[http://labs.manctl.com/rgbdemo/index.php 3D scanning utilisant la kinect]<br><br />
[http://www.vi3dim.com/ 3d scanning temps réel]<br><br />
[http://www.numerisation-3d.info/assemblage-traitement-creation-de.html Informations sur le 3d scanning]<br><br />
[http://www.david-laserscanner.com/ Solution de 3d scanning DAVID]<br><br />
[https://www.nextengine.com/ Solution 3d scanning NextEngine]<br><br />
[http://meshlab.sourceforge.net/wiki/index.php/Alignment Utilisation de l'algorithme ICP par Meshlab]<br><br />
[http://graphics.stanford.edu/data/3Dscanrep/ Repository 3D Scanning de l'université de Stanford]<br><br />
[http://mi.eng.cam.ac.uk/~qp202/my_papers/BMVC09/ Reconstruction 3d temps réel par l'université de Cambridge]<br></div>Wirthchttps://air.imag.fr/index.php?title=EA2012-3D_Scanning&diff=6952EA2012-3D Scanning2012-12-13T16:02:12Z<p>Wirthc: /* 3D Scanning */</p>
<hr />
<div>= 3D Scanning =<br />
Exposé réalisé par Oswald Camille et Clément Wirth<br />
<br />
=Résumé=<br />
Un scanner tridimensionnel est un appareil qui analyse les objets pour recueillir des informations précises sur la forme de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction.<br />
Pour la phase de capture, il existe deux types de scanners : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
Pour la phase de reconstruction, l’algorithme le plus utilisé et le plus connu est l’algorithme ICP.<br><br><br />
<br />
<br />
=Abstract=<br />
A 3D scanner is a device that analyzes a real-world object to collect data on its shape and possibly its appearance (color). The collected data can then be used to construct digital, three dimensional models.<br />
To move an object from the real-life 3D model, three stages can be identified: the capture of a cloud of points with the surface of the object, cleaning and adjustment and finally the reconstruction.<br />
In the capture phase, there are two types of scanners:<br />
*Scanners with contact<br />
*Non-contact scanners<br />
In the reconstruction phase, the algorithm most widely used and best known is the ICP algorithm<br><br><br />
<br />
=Synthèse=<br />
'''Principe de fonctionnement et utilisation'''<br />
Un scanner tridimensionnel est un appareil qui analyse les objets ou leur environnement proche pour recueillir des informations précises sur la forme et éventuellement sur l'apparence (couleur, texture, …) de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions (objets numériques) à des fins diverses.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction en un modèle polygonal.<br><br />
Ces appareils sont beaucoup utilisés par les industries du divertissement pour des films ou des jeux vidéo. Des images numériques en 3D d'objets scannés servent également à la conception industrielle, à la conception d'orthèses (semelle, corset) et de prothèses, à la rétro-ingénierie (reconstruction de surface) pour la documentation d'objets culturels.<br><br><br />
<br />
'''Méthode de capture'''<br />
Il existe deux types de scanner pour la phase de capture de l’information : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
<br />
<br />
==Les scanners avec contact==<br />
Les scanners 3D avec contact sondent le sujet grâce à un contact physique. Ils ont une bonne précision. Cependant, comme il y à un contact physique, cela peut détruire ou altérer des objets fragiles. Un autre inconvénient de cette technologie est sa relative lenteur par rapport aux autres méthodes. <br />
Un exemple de ce type de scanner est le bras de palpage. Au bout d’un bras, il y à un capteur que l’on peut déplacer dans toutes les directions afin de capturer toutes les coordonnées de l’objet à scanner.<br><br />
<br />
<br />
==Les scanners sans contact==<br />
Dans les scanners sans contact, il existe deux sous catégorie de scanner : <br />
*Scanner sans contact actif<br />
*Scanner sans contact passif<br />
<br />
<br />
==Les scanners sans contact actif==<br />
<br />
Les scanners actifs émettent un rayonnement et détectent sa réflexion afin de sonder un objet ou un environnement. Différents types de source de rayonnement sont utilisés : lumière, ultrason ou rayon X.<br />
<br />
Les scanners laser 3D peuvent généralement être répertoriés dans trois catégories principales :<br />
*Le scanner 3D par temps de vol : Le scanner par détection de temps de vol émet une impulsion de lumière laser qui est réfléchie par l’objet scanné. La réflexion en résultant est détectée par un capteur. Le temps qui s’écoule entre l’émission et la détection rapporte la distance à l’objet puisque l’on connaît précisément la vitesse de la lumière laser<br />
*Scanner par triangulation: le scanner projette une ligne ou un point laser sur un objet et en capture ensuite sa réflexion par un capteur situé à une distance connue de la source du laser.<br />
*Le scan par changement de phase : s’effectue en comparant le changement de phase dans la lumière laser réfléchie à une phase standard, qui est aussi capturée pour la comparaison.<br><br />
Pour notre démonstration, nous avons utilisée le scanner à frange (ou à lumière blanche).<br><br />
Le scanner 3D à lumière blanche ou à frange est un scan actif qui utilise la lumière blanche (projecteur type rétro-projecteur) pour sonder son environnement. Il pointe sur le sujet une série de motifs lumineux (traits, carrés, ronds,...) avec le projecteur créant des images déformées sur l’objet et utilise un appareil photo ou une camera décalée pour situer les motifs. En fonction de la distance jusqu’à la surface, les motifs prennent des formes différentes (déformations) en raison du positionnement décalé du laser et de la caméra. Ensuite un logiciel vient en déduire la forme de l’objet en fonction de l’ensemble des surfaces déformées dont il dispose.<br />
Ce type de scanner appartient à la catégorie scanner par triangulation.<br><br />
<br />
<br />
==Scanner sans contact passif==<br />
Les scanners sans contact passifs, n'émette aucun type de rayonnement. Ils se basent sur la détection de rayonnement ambiant réfléchi. La plupart des scanners de ce type détectent la lumière visible car elle est immédiatement disponible.<br><br />
Il existe tout une liste de ce type de scanner, lors de notre exposé, nous en avons présentés trois : <br><br />
*Scanners stéréoscopiques : Les systèmes stéréoscopiques utilisent généralement deux caméras vidéo, légèrement espacées, pointant vers la même scène. En analysant les légères différences entre les images des deux appareils, il est possible de déterminer la distance de chaque point de l'image. Cette méthode est basée sur la vision stéréoscopique humaine.<br><br />
<br />
*Photogrammétrie : Le principe de la photogrammétrie est de prendre des images multiples de l’objet et des points communs manuels ou automatiques à chaque photographie. Les points peuvent être ajoutés automatiquement ou manuellement pour créer les mesures 3D des parties souhaitées de l’objet.<br><br />
<br />
<br />
*Le Tomographe : Le tomographe est un appareil dans lequel on vient insérer le produit à numériser. L’appareil vient effectuer des mesures par tranche depuis l’extérieur de l’objet. Ce scanner permet de sortir des fichiers images de l’objet tranche par tranche. On peut avec un logiciel de reconstitution de fichier type IRM reconstituer l’objet en 3D.<br><br />
<br />
<br />
==Reconstruction==<br />
Après avoir scanné plusieurs nuages de points de notre objet 3D, il convient d'effectuer certains traitements pour obtenir notre objet final : c'est l'étape de reconstruction.<br><br />
Lors de cette étape, on va effectuer les points suivants : <br><br />
*Nettoyage des points parasites (comme les fonds, le socle, ...)<br />
*Positionnement des nuages de points entre eux pour faciliter leur association<br />
*Reconstruction du maillage, qui consiste à associer les différents nuages de points entre eux afin de former notre objet final<br />
La reconstruction des maillages s'effectue le plus souvent en utilisant l'algorithme ICP.<br><br />
<br />
<br />
==Algorithme Iterative Closest Point (ICP)==<br />
Cet algorithme itératif permet de reconstruire le maillage entre plusieurs nuages de points. Son fonctionnement est simple et peut permettre d'effectuer de la reconstruction 3D en temps réel.<br><br />
Son principe de fonctionnement est le suivant :<br><br />
* Association de deux points de deux nuages de points en utilisant le critère des plus proche voisins<br />
* Estimation de la transformation nécessaire pour minimiser la distance entre les deux points<br />
* Mise en place de la transformation précédemment calculée<br />
* Itération sur le point suivant<br />
<br />
Certains logiciels implémentent cet algorithme et permettent de faire de la reconstruction 3D.<br />
Parmi ces logiciels on peut trouver les logiciels [http://meshlab.sourceforge.net/ Meshlab] ou [http://www.danielgm.net/cc/ CloudCompare].<br><br />
La librairie VTK propose également une implémentation de cet algorithme.<br />
<br />
==Exemples de 3D scanning==<br />
<br />
==Sources==<br />
[https://en.wikipedia.org/wiki/Iterative_closest_point Page wikipédia ICP]<br />
[https://en.wikipedia.org/wiki/3D_scanner Page wikipédia 3d scanning]<br />
[http://labs.manctl.com/rgbdemo/index.php 3D scanning utilisant la kinect]<br />
[http://www.vi3dim.com/ 3d scanning temps réel]<br />
[http://www.numerisation-3d.info/assemblage-traitement-creation-de.html Informations sur le 3d scanning]<br />
[http://www.david-laserscanner.com/ Solution de 3d scanning DAVID]<br />
[https://www.nextengine.com/ Solution 3d scanning NextEngine]<br />
[http://meshlab.sourceforge.net/wiki/index.php/Alignment Utilisation de l'algorithme ICP par Meshlab]<br />
[http://graphics.stanford.edu/data/3Dscanrep/ Repository 3D Scanning de l'université de Stanford]<br />
[http://mi.eng.cam.ac.uk/~qp202/my_papers/BMVC09/ Reconstruction 3d temps réel par l'université de Cambridge]</div>Wirthchttps://air.imag.fr/index.php?title=EA2012-3D_Scanning&diff=6951EA2012-3D Scanning2012-12-13T15:56:02Z<p>Wirthc: /* 3D Scanning */</p>
<hr />
<div>= 3D Scanning =<br />
Exposé réalisé par Oswald Camille et Clément Wirth<br />
<br />
=Résumé=<br><br />
Un scanner tridimensionnel est un appareil qui analyse les objets pour recueillir des informations précises sur la forme de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction.<br />
Pour la phase de capture, il existe deux types de scanners : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
Pour la phase de reconstruction, l’algorithme le plus utilisé et le plus connu est l’algorithme ICP.<br><br><br />
<br />
<br />
=Abstract=<br><br />
A 3D scanner is a device that analyzes a real-world object to collect data on its shape and possibly its appearance (color). The collected data can then be used to construct digital, three dimensional models.<br />
To move an object from the real-life 3D model, three stages can be identified: the capture of a cloud of points with the surface of the object, cleaning and adjustment and finally the reconstruction.<br />
In the capture phase, there are two types of scanners:<br />
*Scanners with contact<br />
*Non-contact scanners<br />
In the reconstruction phase, the algorithm most widely used and best known is the ICP algorithm<br><br><br />
<br />
=Synthèse= <br><br />
'''Principe de fonctionnement et utilisation'''<br />
Un scanner tridimensionnel est un appareil qui analyse les objets ou leur environnement proche pour recueillir des informations précises sur la forme et éventuellement sur l'apparence (couleur, texture, …) de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions (objets numériques) à des fins diverses.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction en un modèle polygonal.<br><br />
Ces appareils sont beaucoup utilisés par les industries du divertissement pour des films ou des jeux vidéo. Des images numériques en 3D d'objets scannés servent également à la conception industrielle, à la conception d'orthèses (semelle, corset) et de prothèses, à la rétro-ingénierie (reconstruction de surface) pour la documentation d'objets culturels.<br><br><br />
<br />
'''Méthode de capture'''<br />
Il existe deux types de scanner pour la phase de capture de l’information : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
<br />
<br />
==Les scanners avec contact==: <br />
Les scanners 3D avec contact sondent le sujet grâce à un contact physique. Ils ont une bonne précision. Cependant, comme il y à un contact physique, cela peut détruire ou altérer des objets fragiles. Un autre inconvénient de cette technologie est sa relative lenteur par rapport aux autres méthodes. <br />
Un exemple de ce type de scanner est le bras de palpage. Au bout d’un bras, il y à un capteur que l’on peut déplacer dans toutes les directions afin de capturer toutes les coordonnées de l’objet à scanner.<br><br />
<br />
<br />
==Les scanners sans contact==: <br />
Dans les scanners sans contact, il existe deux sous catégorie de scanner : <br />
*Scanner sans contact actif<br />
*Scanner sans contact passif<br />
<br />
<br />
==Les scanners sans contact actif==<br />
<br />
Les scanners actifs émettent un rayonnement et détectent sa réflexion afin de sonder un objet ou un environnement. Différents types de source de rayonnement sont utilisés : lumière, ultrason ou rayon X.<br />
<br />
Les scanners laser 3D peuvent généralement être répertoriés dans trois catégories principales :<br />
*Le scanner 3D par temps de vol : Le scanner par détection de temps de vol émet une impulsion de lumière laser qui est réfléchie par l’objet scanné. La réflexion en résultant est détectée par un capteur. Le temps qui s’écoule entre l’émission et la détection rapporte la distance à l’objet puisque l’on connaît précisément la vitesse de la lumière laser<br />
*Scanner par triangulation: le scanner projette une ligne ou un point laser sur un objet et en capture ensuite sa réflexion par un capteur situé à une distance connue de la source du laser.<br />
*Le scan par changement de phase : s’effectue en comparant le changement de phase dans la lumière laser réfléchie à une phase standard, qui est aussi capturée pour la comparaison.<br><br />
Pour notre démonstration, nous avons utilisée le scanner à frange (ou à lumière blanche).<br><br />
Le scanner 3D à lumière blanche ou à frange est un scan actif qui utilise la lumière blanche (projecteur type rétro-projecteur) pour sonder son environnement. Il pointe sur le sujet une série de motifs lumineux (traits, carrés, ronds,...) avec le projecteur créant des images déformées sur l’objet et utilise un appareil photo ou une camera décalée pour situer les motifs. En fonction de la distance jusqu’à la surface, les motifs prennent des formes différentes (déformations) en raison du positionnement décalé du laser et de la caméra. Ensuite un logiciel vient en déduire la forme de l’objet en fonction de l’ensemble des surfaces déformées dont il dispose.<br />
Ce type de scanner appartient à la catégorie scanner par triangulation.<br><br />
<br />
<br />
==Scanner sans contact passif==<br />
Les scanners sans contact passifs, n'émette aucun type de rayonnement. Ils se basent sur la détection de rayonnement ambiant réfléchi. La plupart des scanners de ce type détectent la lumière visible car elle est immédiatement disponible.<br><br />
Il existe tout une liste de ce type de scanner, lors de notre exposé, nous en avons présentés trois : <br><br />
*Scanners stéréoscopiques : Les systèmes stéréoscopiques utilisent généralement deux caméras vidéo, légèrement espacées, pointant vers la même scène. En analysant les légères différences entre les images des deux appareils, il est possible de déterminer la distance de chaque point de l'image. Cette méthode est basée sur la vision stéréoscopique humaine.<br><br />
<br />
*Photogrammétrie : Le principe de la photogrammétrie est de prendre des images multiples de l’objet et des points communs manuels ou automatiques à chaque photographie. Les points peuvent être ajoutés automatiquement ou manuellement pour créer les mesures 3D des parties souhaitées de l’objet.<br><br />
<br />
<br />
*Le Tomographe : Le tomographe est un appareil dans lequel on vient insérer le produit à numériser. L’appareil vient effectuer des mesures par tranche depuis l’extérieur de l’objet. Ce scanner permet de sortir des fichiers images de l’objet tranche par tranche. On peut avec un logiciel de reconstitution de fichier type IRM reconstituer l’objet en 3D.<br><br />
<br />
<br />
==Reconstruction==<br><br />
Après avoir scanné plusieurs nuages de points de notre objet 3D, il convient d'effectuer certains traitements pour obtenir notre objet final : c'est l'étape de reconstruction.<br><br />
Lors de cette étape, on va effectuer les points suivants : <br><br />
*Nettoyage des points parasites (comme les fonds, le socle, ...)<br />
*Positionnement des nuages de points entre eux pour faciliter leur association<br />
*Reconstruction du maillage, qui consiste à associer les différents nuages de points entre eux afin de former notre objet final<br />
La reconstruction des maillages s'effectue le plus souvent en utilisant l'algorithme ICP.<br><br />
<br />
<br />
==Algorithme Iterative Closest Point (ICP)==<br><br />
Cet algorithme itératif permet de reconstruire le maillage entre plusieurs nuages de points. Son fonctionnement est simple et peut permettre d'effectuer de la reconstruction 3D en temps réel.<br><br />
Son principe de fonctionnement est le suivant :<br><br />
* Association de deux points de deux nuages de points en utilisant le critère des plus proche voisins<br />
* Estimation de la transformation nécessaire pour minimiser la distance entre les deux points<br />
* Mise en place de la transformation précédemment calculée<br />
* Itération sur le point suivant<br />
<br />
Certains logiciels implémentent cet algorithme et permettent de faire de la reconstruction 3D.<br />
Parmi ces logiciels on peut trouver les logiciels [http://meshlab.sourceforge.net/ Meshlab] ou [http://www.danielgm.net/cc/ CloudCompare].<br><br />
La librairie VTK propose également une implémentation de cet algorithme.</div>Wirthchttps://air.imag.fr/index.php?title=EA2012-3D_Scanning&diff=6950EA2012-3D Scanning2012-12-13T15:52:23Z<p>Wirthc: /* 3D Scanning */</p>
<hr />
<div>== 3D Scanning ==<br />
Exposé réalisé par Oswald Camille et Clément Wirth<br />
<br />
[[Résumé]]<br><br />
Un scanner tridimensionnel est un appareil qui analyse les objets pour recueillir des informations précises sur la forme de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction.<br />
Pour la phase de capture, il existe deux types de scanners : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
Pour la phase de reconstruction, l’algorithme le plus utilisé et le plus connu est l’algorithme ICP.<br><br><br />
<br />
<br />
[[Abstract]]<br><br />
A 3D scanner is a device that analyzes a real-world object to collect data on its shape and possibly its appearance (color). The collected data can then be used to construct digital, three dimensional models.<br />
To move an object from the real-life 3D model, three stages can be identified: the capture of a cloud of points with the surface of the object, cleaning and adjustment and finally the reconstruction.<br />
In the capture phase, there are two types of scanners:<br />
*Scanners with contact<br />
*Non-contact scanners<br />
In the reconstruction phase, the algorithm most widely used and best known is the ICP algorithm<br><br><br />
<br />
[[Synthèse]] <br><br />
'''Principe de fonctionnement et utilisation'''<br />
Un scanner tridimensionnel est un appareil qui analyse les objets ou leur environnement proche pour recueillir des informations précises sur la forme et éventuellement sur l'apparence (couleur, texture, …) de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions (objets numériques) à des fins diverses.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction en un modèle polygonal.<br><br />
Ces appareils sont beaucoup utilisés par les industries du divertissement pour des films ou des jeux vidéo. Des images numériques en 3D d'objets scannés servent également à la conception industrielle, à la conception d'orthèses (semelle, corset) et de prothèses, à la rétro-ingénierie (reconstruction de surface) pour la documentation d'objets culturels.<br><br><br />
<br />
'''Méthode de capture'''<br />
Il existe deux types de scanner pour la phase de capture de l’information : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
<br />
<br />
[[Les scanners avec contact]]: <br />
Les scanners 3D avec contact sondent le sujet grâce à un contact physique. Ils ont une bonne précision. Cependant, comme il y à un contact physique, cela peut détruire ou altérer des objets fragiles. Un autre inconvénient de cette technologie est sa relative lenteur par rapport aux autres méthodes. <br />
Un exemple de ce type de scanner est le bras de palpage. Au bout d’un bras, il y à un capteur que l’on peut déplacer dans toutes les directions afin de capturer toutes les coordonnées de l’objet à scanner.<br><br />
<br />
<br />
[[Les scanners sans contact]]: <br />
Dans les scanners sans contact, il existe deux sous catégorie de scanner : <br />
*Scanner sans contact actif<br />
*Scanner sans contact passif<br />
<br />
<br />
[[Les scanners sans contact actif]]<br />
<br />
Les scanners actifs émettent un rayonnement et détectent sa réflexion afin de sonder un objet ou un environnement. Différents types de source de rayonnement sont utilisés : lumière, ultrason ou rayon X.<br />
<br />
Les scanners laser 3D peuvent généralement être répertoriés dans trois catégories principales :<br />
*Le scanner 3D par temps de vol : Le scanner par détection de temps de vol émet une impulsion de lumière laser qui est réfléchie par l’objet scanné. La réflexion en résultant est détectée par un capteur. Le temps qui s’écoule entre l’émission et la détection rapporte la distance à l’objet puisque l’on connaît précisément la vitesse de la lumière laser<br />
*Scanner par triangulation: le scanner projette une ligne ou un point laser sur un objet et en capture ensuite sa réflexion par un capteur situé à une distance connue de la source du laser.<br />
*Le scan par changement de phase : s’effectue en comparant le changement de phase dans la lumière laser réfléchie à une phase standard, qui est aussi capturée pour la comparaison.<br><br />
Pour notre démonstration, nous avons utilisée le scanner à frange (ou à lumière blanche).<br><br />
Le scanner 3D à lumière blanche ou à frange est un scan actif qui utilise la lumière blanche (projecteur type rétro-projecteur) pour sonder son environnement. Il pointe sur le sujet une série de motifs lumineux (traits, carrés, ronds,...) avec le projecteur créant des images déformées sur l’objet et utilise un appareil photo ou une camera décalée pour situer les motifs. En fonction de la distance jusqu’à la surface, les motifs prennent des formes différentes (déformations) en raison du positionnement décalé du laser et de la caméra. Ensuite un logiciel vient en déduire la forme de l’objet en fonction de l’ensemble des surfaces déformées dont il dispose.<br />
Ce type de scanner appartient à la catégorie scanner par triangulation.<br><br />
<br />
<br />
[[Scanner sans contact passif]]<br />
Les scanners sans contact passifs, n'émette aucun type de rayonnement. Ils se basent sur la détection de rayonnement ambiant réfléchi. La plupart des scanners de ce type détectent la lumière visible car elle est immédiatement disponible.<br><br />
Il existe tout une liste de ce type de scanner, lors de notre exposé, nous en avons présentés trois : <br><br />
*Scanners stéréoscopiques : Les systèmes stéréoscopiques utilisent généralement deux caméras vidéo, légèrement espacées, pointant vers la même scène. En analysant les légères différences entre les images des deux appareils, il est possible de déterminer la distance de chaque point de l'image. Cette méthode est basée sur la vision stéréoscopique humaine.<br><br />
<br />
*Photogrammétrie : Le principe de la photogrammétrie est de prendre des images multiples de l’objet et des points communs manuels ou automatiques à chaque photographie. Les points peuvent être ajoutés automatiquement ou manuellement pour créer les mesures 3D des parties souhaitées de l’objet.<br><br />
<br />
<br />
*Le Tomographe : Le tomographe est un appareil dans lequel on vient insérer le produit à numériser. L’appareil vient effectuer des mesures par tranche depuis l’extérieur de l’objet. Ce scanner permet de sortir des fichiers images de l’objet tranche par tranche. On peut avec un logiciel de reconstitution de fichier type IRM reconstituer l’objet en 3D.<br><br />
<br />
<br />
[[Reconstruction]]<br><br />
Après avoir scanné plusieurs nuages de points de notre objet 3D, il convient d'effectuer certains traitements pour obtenir notre objet final : c'est l'étape de reconstruction.<br><br />
Lors de cette étape, on va effectuer les points suivants : <br><br />
*Nettoyage des points parasites (comme les fonds, le socle, ...)<br />
*Positionnement des nuages de points entre eux pour faciliter leur association<br />
*Reconstruction du maillage, qui consiste à associer les différents nuages de points entre eux afin de former notre objet final<br />
La reconstruction des maillages s'effectue le plus souvent en utilisant l'algorithme ICP.<br><br />
<br />
<br />
[[Algorithme Iterative Closest Point (ICP)]]<br><br />
Cet algorithme itératif permet de reconstruire le maillage entre plusieurs nuages de points. Son fonctionnement est simple et peut permettre d'effectuer de la reconstruction 3D en temps réel.<br><br />
Son principe de fonctionnement est le suivant :<br><br />
* Association de deux points de deux nuages de points en utilisant le critère des plus proche voisins<br />
* Estimation de la transformation nécessaire pour minimiser la distance entre les deux points<br />
* Mise en place de la transformation précédemment calculée<br />
* Itération sur le point suivant<br />
<br />
Certains logiciels implémentent cet algorithme et permettent de faire de la reconstruction 3D.<br />
Parmi ces logiciels on peut trouver les logiciels [http://meshlab.sourceforge.net/ Meshlab] ou [http://www.danielgm.net/cc/ CloudCompare].<br><br />
La librairie VTK propose également une implémentation de cet algorithme.</div>Wirthchttps://air.imag.fr/index.php?title=EA2012-3D_Scanning&diff=6949EA2012-3D Scanning2012-12-13T15:51:58Z<p>Wirthc: /* 3D Scanning */</p>
<hr />
<div>== 3D Scanning ==<br />
Exposé réalisé par Oswald Camille et Clément Wirth<br />
<br />
[[Résumé]]<br><br />
Un scanner tridimensionnel est un appareil qui analyse les objets pour recueillir des informations précises sur la forme de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction.<br />
Pour la phase de capture, il existe deux types de scanners : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
Pour la phase de reconstruction, l’algorithme le plus utilisé et le plus connu est l’algorithme ICP.<br><br><br />
<br />
<br />
[[Abstract]]<br><br />
A 3D scanner is a device that analyzes a real-world object to collect data on its shape and possibly its appearance (color). The collected data can then be used to construct digital, three dimensional models.<br />
To move an object from the real-life 3D model, three stages can be identified: the capture of a cloud of points with the surface of the object, cleaning and adjustment and finally the reconstruction.<br />
In the capture phase, there are two types of scanners:<br />
*Scanners with contact<br />
*Non-contact scanners<br />
In the reconstruction phase, the algorithm most widely used and best known is the ICP algorithm<br><br><br />
<br />
[[Synthèse]] <br><br />
'''Principe de fonctionnement et utilisation'''<br />
Un scanner tridimensionnel est un appareil qui analyse les objets ou leur environnement proche pour recueillir des informations précises sur la forme et éventuellement sur l'apparence (couleur, texture, …) de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions (objets numériques) à des fins diverses.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction en un modèle polygonal.<br><br />
Ces appareils sont beaucoup utilisés par les industries du divertissement pour des films ou des jeux vidéo. Des images numériques en 3D d'objets scannés servent également à la conception industrielle, à la conception d'orthèses (semelle, corset) et de prothèses, à la rétro-ingénierie (reconstruction de surface) pour la documentation d'objets culturels.<br><br><br />
<br />
'''Méthode de capture'''<br />
Il existe deux types de scanner pour la phase de capture de l’information : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
<br />
<br />
[[Les scanners avec contact]]: <br />
Les scanners 3D avec contact sondent le sujet grâce à un contact physique. Ils ont une bonne précision. Cependant, comme il y à un contact physique, cela peut détruire ou altérer des objets fragiles. Un autre inconvénient de cette technologie est sa relative lenteur par rapport aux autres méthodes. <br />
Un exemple de ce type de scanner est le bras de palpage. Au bout d’un bras, il y à un capteur que l’on peut déplacer dans toutes les directions afin de capturer toutes les coordonnées de l’objet à scanner.<br><br />
<br />
<br />
[[Les scanners sans contact]]: <br />
Dans les scanners sans contact, il existe deux sous catégorie de scanner : <br />
*Scanner sans contact actif<br />
*Scanner sans contact passif<br />
<br />
<br />
[[Les scanners sans contact actif]]<br />
<br />
Les scanners actifs émettent un rayonnement et détectent sa réflexion afin de sonder un objet ou un environnement. Différents types de source de rayonnement sont utilisés : lumière, ultrason ou rayon X.<br />
<br />
Les scanners laser 3D peuvent généralement être répertoriés dans trois catégories principales :<br />
*Le scanner 3D par temps de vol : Le scanner par détection de temps de vol émet une impulsion de lumière laser qui est réfléchie par l’objet scanné. La réflexion en résultant est détectée par un capteur. Le temps qui s’écoule entre l’émission et la détection rapporte la distance à l’objet puisque l’on connaît précisément la vitesse de la lumière laser<br />
*Scanner par triangulation: le scanner projette une ligne ou un point laser sur un objet et en capture ensuite sa réflexion par un capteur situé à une distance connue de la source du laser.<br />
*Le scan par changement de phase : s’effectue en comparant le changement de phase dans la lumière laser réfléchie à une phase standard, qui est aussi capturée pour la comparaison.<br><br />
Pour notre démonstration, nous avons utilisée le scanner à frange (ou à lumière blanche).<br><br />
Le scanner 3D à lumière blanche ou à frange est un scan actif qui utilise la lumière blanche (projecteur type rétro-projecteur) pour sonder son environnement. Il pointe sur le sujet une série de motifs lumineux (traits, carrés, ronds,...) avec le projecteur créant des images déformées sur l’objet et utilise un appareil photo ou une camera décalée pour situer les motifs. En fonction de la distance jusqu’à la surface, les motifs prennent des formes différentes (déformations) en raison du positionnement décalé du laser et de la caméra. Ensuite un logiciel vient en déduire la forme de l’objet en fonction de l’ensemble des surfaces déformées dont il dispose.<br />
Ce type de scanner appartient à la catégorie scanner par triangulation.<br><br />
<br />
<br />
[[Scanner sans contact passif]]<br />
Les scanners sans contact passifs, n'émette aucun type de rayonnement. Ils se basent sur la détection de rayonnement ambiant réfléchi. La plupart des scanners de ce type détectent la lumière visible car elle est immédiatement disponible.<br><br />
Il existe tout une liste de ce type de scanner, lors de notre exposé, nous en avons présentés trois : <br><br />
*Scanners stéréoscopiques : Les systèmes stéréoscopiques utilisent généralement deux caméras vidéo, légèrement espacées, pointant vers la même scène. En analysant les légères différences entre les images des deux appareils, il est possible de déterminer la distance de chaque point de l'image. Cette méthode est basée sur la vision stéréoscopique humaine.<br><br />
<br />
*Photogrammétrie : Le principe de la photogrammétrie est de prendre des images multiples de l’objet et des points communs manuels ou automatiques à chaque photographie. Les points peuvent être ajoutés automatiquement ou manuellement pour créer les mesures 3D des parties souhaitées de l’objet.<br><br />
<br />
<br />
*Le Tomographe : Le tomographe est un appareil dans lequel on vient insérer le produit à numériser. L’appareil vient effectuer des mesures par tranche depuis l’extérieur de l’objet. Ce scanner permet de sortir des fichiers images de l’objet tranche par tranche. On peut avec un logiciel de reconstitution de fichier type IRM reconstituer l’objet en 3D.<br><br />
<br />
<br />
[[Reconstruction]]<br><br />
Après avoir scanné plusieurs nuages de points de notre objet 3D, il convient d'effectuer certains traitements pour obtenir notre objet final : c'est l'étape de reconstruction.<br><br />
Lors de cette étape, on va effectuer les points suivants : <br><br />
*Nettoyage des points parasites (comme les fonds, le socle, ...)<br />
*Positionnement des nuages de points entre eux pour faciliter leur association<br />
*Reconstruction du maillage, qui consiste à associer les différents nuages de points entre eux afin de former notre objet final<br />
La reconstruction des maillages s'effectue le plus souvent en utilisant l'algorithme ICP.<br><br />
<br />
<br />
[[Algorithme Iterative Closest Point (ICP)]]<br><br />
Cet algorithme itératif permet de reconstruire le maillage entre plusieurs nuages de points. Son fonctionnement est simple et peut permettre d'effectuer de la reconstruction 3D en temps réel.<br><br />
Son principe de fonctionnement est le suivant :<br><br />
* Association de deux points de deux nuages de points en utilisant le critère des plus proche voisins<br />
* Estimation de la transformation nécessaire pour minimiser la distance entre les deux points<br />
* Mise en place de la transformation précédemment calculée<br />
* Itération sur le point suivant<br />
<br />
Certains logiciels implémentent cet algorithme et permettent de faire de la reconstruction 3D.<br />
Parmi ces logiciels on peut trouver les logiciels [http://meshlab.sourceforge.net/ Meshlab Meshlab] ou [http://www.danielgm.net/cc/ CloudCompare].<br><br />
La librairie VTK propose également une implémentation de cet algorithme.</div>Wirthchttps://air.imag.fr/index.php?title=EA2012-3D_Scanning&diff=6948EA2012-3D Scanning2012-12-13T15:44:59Z<p>Wirthc: /* 3D Scanning */</p>
<hr />
<div>== 3D Scanning ==<br />
Exposé réalisé par Oswald Camille et Clément Wirth<br />
<br />
[[Résumé]]<br><br />
Un scanner tridimensionnel est un appareil qui analyse les objets pour recueillir des informations précises sur la forme de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction.<br />
Pour la phase de capture, il existe deux types de scanners : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
Pour la phase de reconstruction, l’algorithme le plus utilisé et le plus connu est l’algorithme ICP.<br><br><br />
<br />
<br />
[[Abstract]]<br><br />
A 3D scanner is a device that analyzes a real-world object to collect data on its shape and possibly its appearance (color). The collected data can then be used to construct digital, three dimensional models.<br />
To move an object from the real-life 3D model, three stages can be identified: the capture of a cloud of points with the surface of the object, cleaning and adjustment and finally the reconstruction.<br />
In the capture phase, there are two types of scanners:<br />
*Scanners with contact<br />
*Non-contact scanners<br />
In the reconstruction phase, the algorithm most widely used and best known is the ICP algorithm<br><br><br />
<br />
[[Synthèse]] <br><br />
'''Principe de fonctionnement et utilisation'''<br />
Un scanner tridimensionnel est un appareil qui analyse les objets ou leur environnement proche pour recueillir des informations précises sur la forme et éventuellement sur l'apparence (couleur, texture, …) de ceux-ci. Les données ainsi collectées peuvent alors être utilisées pour construire des images de synthèse en trois dimensions (objets numériques) à des fins diverses.<br />
Pour passer d'un objet de la vie réelle à un modèle 3D, trois étapes peuvent être identifiées : la capture d'un nuage de points présentant la surface de l'objet ; Le nettoyage, l'adaptation, voir la fusion entre plusieurs nuages ; enfin la reconstruction en un modèle polygonal.<br><br />
Ces appareils sont beaucoup utilisés par les industries du divertissement pour des films ou des jeux vidéo. Des images numériques en 3D d'objets scannés servent également à la conception industrielle, à la conception d'orthèses (semelle, corset) et de prothèses, à la rétro-ingénierie (reconstruction de surface) pour la documentation d'objets culturels.<br><br><br />
<br />
'''Méthode de capture'''<br />
Il existe deux types de scanner pour la phase de capture de l’information : <br />
*Les scanners avec contact<br />
*Les scanners sans contact<br />
<br />
<br />
[[Les scanners avec contact]]: <br />
Les scanners 3D avec contact sondent le sujet grâce à un contact physique. Ils ont une bonne précision. Cependant, comme il y à un contact physique, cela peut détruire ou altérer des objets fragiles. Un autre inconvénient de cette technologie est sa relative lenteur par rapport aux autres méthodes. <br />
Un exemple de ce type de scanner est le bras de palpage. Au bout d’un bras, il y à un capteur que l’on peut déplacer dans toutes les directions afin de capturer toutes les coordonnées de l’objet à scanner.<br><br />
<br />
<br />
[[Les scanners sans contact]]: <br />
Dans les scanners sans contact, il existe deux sous catégorie de scanner : <br />
*Scanner sans contact actif<br />
*Scanner sans contact passif<br />
<br />
<br />
[[Les scanners sans contact actif]]<br />
<br />
Les scanners actifs émettent un rayonnement et détectent sa réflexion afin de sonder un objet ou un environnement. Différents types de source de rayonnement sont utilisés : lumière, ultrason ou rayon X.<br />
<br />
Les scanners laser 3D peuvent généralement être répertoriés dans trois catégories principales :<br />
*Le scanner 3D par temps de vol : Le scanner par détection de temps de vol émet une impulsion de lumière laser qui est réfléchie par l’objet scanné. La réflexion en résultant est détectée par un capteur. Le temps qui s’écoule entre l’émission et la détection rapporte la distance à l’objet puisque l’on connaît précisément la vitesse de la lumière laser<br />
*Scanner par triangulation: le scanner projette une ligne ou un point laser sur un objet et en capture ensuite sa réflexion par un capteur situé à une distance connue de la source du laser.<br />
*Le scan par changement de phase : s’effectue en comparant le changement de phase dans la lumière laser réfléchie à une phase standard, qui est aussi capturée pour la comparaison.<br><br />
Pour notre démonstration, nous avons utilisée le scanner à frange (ou à lumière blanche).<br><br />
Le scanner 3D à lumière blanche ou à frange est un scan actif qui utilise la lumière blanche (projecteur type rétro-projecteur) pour sonder son environnement. Il pointe sur le sujet une série de motifs lumineux (traits, carrés, ronds,...) avec le projecteur créant des images déformées sur l’objet et utilise un appareil photo ou une camera décalée pour situer les motifs. En fonction de la distance jusqu’à la surface, les motifs prennent des formes différentes (déformations) en raison du positionnement décalé du laser et de la caméra. Ensuite un logiciel vient en déduire la forme de l’objet en fonction de l’ensemble des surfaces déformées dont il dispose.<br />
Ce type de scanner appartient à la catégorie scanner par triangulation.<br><br />
<br />
<br />
[[Scanner sans contact passif]]<br />
Les scanners sans contact passifs, n'émette aucun type de rayonnement. Ils se basent sur la détection de rayonnement ambiant réfléchi. La plupart des scanners de ce type détectent la lumière visible car elle est immédiatement disponible.<br><br />
Il existe tout une liste de ce type de scanner, lors de notre exposé, nous en avons présentés trois : <br><br />
*Scanners stéréoscopiques : Les systèmes stéréoscopiques utilisent généralement deux caméras vidéo, légèrement espacées, pointant vers la même scène. En analysant les légères différences entre les images des deux appareils, il est possible de déterminer la distance de chaque point de l'image. Cette méthode est basée sur la vision stéréoscopique humaine.<br><br />
<br />
*Photogrammétrie : Le principe de la photogrammétrie est de prendre des images multiples de l’objet et des points communs manuels ou automatiques à chaque photographie. Les points peuvent être ajoutés automatiquement ou manuellement pour créer les mesures 3D des parties souhaitées de l’objet.<br><br />
<br />
<br />
*Le Tomographe : Le tomographe est un appareil dans lequel on vient insérer le produit à numériser. L’appareil vient effectuer des mesures par tranche depuis l’extérieur de l’objet. Ce scanner permet de sortir des fichiers images de l’objet tranche par tranche. On peut avec un logiciel de reconstitution de fichier type IRM reconstituer l’objet en 3D.<br><br />
<br />
<br />
[[Reconstruction]]<br />
Après avoir scanné plusieurs nuages de points de notre objet 3D, il convient d'effectuer certains traitements pour obtenir notre objet final : c'est l'étape de reconstruction.<br><br />
Lors de cette étape, on va effectuer les points suivants : <br><br />
*Nettoyage des points parasites (comme les fonds, le socle, ...)<br />
*Positionnement des nuages de points entre eux pour faciliter leur association<br />
*Reconstruction du maillage, qui consiste à associer les différents nuages de points entre eux afin de former notre objet final<br />
La reconstruction des maillages s'effectue le plus souvent en utilisant l'algorithme ICP.<br><br />
<br />
<br />
[[Algorithme Iterative Closest Point (ICP)]]<br />
Cet algorithme itératif permet de reconstruire le maillage entre plusieurs nuages de points. Son fonctionnement est simple et peut permettre d'effectuer de la reconstruction 3D en temps réel.<br><br />
Son principe de fonctionnement est le suivant :<br><br />
* Association de deux points de deux nuages de points en utilisant le critère des plus proche voisins<br />
* Estimation de la transformation nécessaire pour minimiser la distance entre les deux points<br />
* Mise en place de la transformation précédemment calculée<br />
* Itération sur le point suivant</div>Wirthchttps://air.imag.fr/index.php?title=Proj-2011-2012-ihm_mobile_onduleurs&diff=5266Proj-2011-2012-ihm mobile onduleurs2012-04-26T13:34:12Z<p>Wirthc: /* Rendu */</p>
<hr />
<div>Ceci est la fiche du projet IHM mobile pour la visualisation et le contrôle d'onduleurs.<br />
<br />
Participants du projet : GU Qikai & WIRTH Clément<br />
<br />
Suivi du Projet<br />
<br />
----<br />
<br />
<br />
== Rendu == <br />
<br />
Lien vers le code source : http://xp-dev.com/sc/135367<br />
<br />
Archive tar.gz : Le wiki ne reconnait pas le format tar.gz<br />
<br />
Présentation : http://air.imag.fr/mediawiki/index.php/File:Presentation_GU_WIRTH.pdf<br />
<br />
== Semaine 0 ==<br />
<br />
<br />
Choix du projet<br />
<br />
<br />
== Semaine 1 ==<br />
<br />
<br />
Réunion avec les responsables EATON le 24/01/2012 à Polytech'. Cette réunion a permis de comprendre la technologie EATON et de voir les applications sur lesquels nous allons travailler<br />
<br />
<br />
== Semaine 2 ==<br />
<br />
<br />
Réunion avec les responsables et les informaticiens EATON le 31/01/2012 chez EATON à Montbonnot. Cette réunion a permis de rédiger le cahier des charges de l'application.<br />
<br />
<br />
== Semaine 3,4 et 5 ==<br />
<br />
<br />
Familiarisation avec Android et developpement du projet.<br />
<br />
<br />
== Semaine 6 ==<br />
<br />
<br />
Réunion avec les responsables EATON le 28/02/2012 à Polytech'. Cette réunion a permis de présenter l'avancement du projet aux responsables, de définir ce qu'il fallait changer ainsi que les objectifs prioritaires à poursuivre.<br />
<br />
<br />
== Semaine 7 ==<br />
<br />
<br />
Réunion avec les responsables et les informaticiens EATON le 03/03/2012 chez EATON à Montbonnot. Cette réunion a permis de montrer l'avancement du projet aux responsables informatiques de chez EATON.<br />
<br />
==Semaine 8 et 9 == <br />
<br />
Réunions avec les responsables EATON le 12/03/2012 chez EATON à Polytech. Cette réunion a permis de montrer l'avancement du projet aux responsables responsables de chez EATON.<br />
<br />
== Semaine 10 ==<br />
<br />
<br />
Réunion avec les responsables et les informaticiens EATON le 20/03/2012 chez EATON à Montbonnot. Cette réunion a permis de montrer l'avancement du projet aux responsables informatiques de chez EATON.<br />
<br />
== Semaine 11 et 12 ==<br />
<br />
Finalisation du projet et réunion le 30 mars avec les responsables EATON chez EATON à Montbonnot.</div>Wirthchttps://air.imag.fr/index.php?title=Proj-2011-2012-ihm_mobile_onduleurs&diff=5265Proj-2011-2012-ihm mobile onduleurs2012-04-26T13:30:56Z<p>Wirthc: /* Rendu */</p>
<hr />
<div>Ceci est la fiche du projet IHM mobile pour la visualisation et le contrôle d'onduleurs.<br />
<br />
Participants du projet : GU Qikai & WIRTH Clément<br />
<br />
Suivi du Projet<br />
<br />
----<br />
<br />
<br />
== Rendu == <br />
<br />
Lien vers le code source : http://xp-dev.com/sc/135367<br />
<br />
Archive tar.gz : <br />
<br />
Présentation : http://air.imag.fr/mediawiki/index.php/File:Presentation_GU_WIRTH.pdf<br />
<br />
== Semaine 0 ==<br />
<br />
<br />
Choix du projet<br />
<br />
<br />
== Semaine 1 ==<br />
<br />
<br />
Réunion avec les responsables EATON le 24/01/2012 à Polytech'. Cette réunion a permis de comprendre la technologie EATON et de voir les applications sur lesquels nous allons travailler<br />
<br />
<br />
== Semaine 2 ==<br />
<br />
<br />
Réunion avec les responsables et les informaticiens EATON le 31/01/2012 chez EATON à Montbonnot. Cette réunion a permis de rédiger le cahier des charges de l'application.<br />
<br />
<br />
== Semaine 3,4 et 5 ==<br />
<br />
<br />
Familiarisation avec Android et developpement du projet.<br />
<br />
<br />
== Semaine 6 ==<br />
<br />
<br />
Réunion avec les responsables EATON le 28/02/2012 à Polytech'. Cette réunion a permis de présenter l'avancement du projet aux responsables, de définir ce qu'il fallait changer ainsi que les objectifs prioritaires à poursuivre.<br />
<br />
<br />
== Semaine 7 ==<br />
<br />
<br />
Réunion avec les responsables et les informaticiens EATON le 03/03/2012 chez EATON à Montbonnot. Cette réunion a permis de montrer l'avancement du projet aux responsables informatiques de chez EATON.<br />
<br />
==Semaine 8 et 9 == <br />
<br />
Réunions avec les responsables EATON le 12/03/2012 chez EATON à Polytech. Cette réunion a permis de montrer l'avancement du projet aux responsables responsables de chez EATON.<br />
<br />
== Semaine 10 ==<br />
<br />
<br />
Réunion avec les responsables et les informaticiens EATON le 20/03/2012 chez EATON à Montbonnot. Cette réunion a permis de montrer l'avancement du projet aux responsables informatiques de chez EATON.<br />
<br />
== Semaine 11 et 12 ==<br />
<br />
Finalisation du projet et réunion le 30 mars avec les responsables EATON chez EATON à Montbonnot.</div>Wirthchttps://air.imag.fr/index.php?title=File:Presentation_GU_WIRTH.pdf&diff=5263File:Presentation GU WIRTH.pdf2012-04-26T13:30:24Z<p>Wirthc: Présentation du projet innovant réalisé par Qikai GU & Clément WIRTH (RICM4)</p>
<hr />
<div>Présentation du projet innovant réalisé par Qikai GU & Clément WIRTH (RICM4)</div>Wirthchttps://air.imag.fr/index.php?title=Proj-2011-2012-ihm_mobile_onduleurs&diff=5170Proj-2011-2012-ihm mobile onduleurs2012-04-25T12:28:50Z<p>Wirthc: </p>
<hr />
<div>Ceci est la fiche du projet IHM mobile pour la visualisation et le contrôle d'onduleurs.<br />
<br />
Participants du projet : GU Qikai & WIRTH Clément<br />
<br />
Suivi du Projet<br />
<br />
----<br />
<br />
<br />
== Rendu == <br />
<br />
Lien vers le code source : http://xp-dev.com/sc/135367<br />
<br />
Archive tar.gz :<br />
<br />
Présentation : <br />
<br />
<br />
== Semaine 0 ==<br />
<br />
<br />
Choix du projet<br />
<br />
<br />
== Semaine 1 ==<br />
<br />
<br />
Réunion avec les responsables EATON le 24/01/2012 à Polytech'. Cette réunion a permis de comprendre la technologie EATON et de voir les applications sur lesquels nous allons travailler<br />
<br />
<br />
== Semaine 2 ==<br />
<br />
<br />
Réunion avec les responsables et les informaticiens EATON le 31/01/2012 chez EATON à Montbonnot. Cette réunion a permis de rédiger le cahier des charges de l'application.<br />
<br />
<br />
== Semaine 3,4 et 5 ==<br />
<br />
<br />
Familiarisation avec Android et developpement du projet.<br />
<br />
<br />
== Semaine 6 ==<br />
<br />
<br />
Réunion avec les responsables EATON le 28/02/2012 à Polytech'. Cette réunion a permis de présenter l'avancement du projet aux responsables, de définir ce qu'il fallait changer ainsi que les objectifs prioritaires à poursuivre.<br />
<br />
<br />
== Semaine 7 ==<br />
<br />
<br />
Réunion avec les responsables et les informaticiens EATON le 03/03/2012 chez EATON à Montbonnot. Cette réunion a permis de montrer l'avancement du projet aux responsables informatiques de chez EATON.<br />
<br />
==Semaine 8 et 9 == <br />
<br />
Réunions avec les responsables EATON le 12/03/2012 chez EATON à Polytech. Cette réunion a permis de montrer l'avancement du projet aux responsables responsables de chez EATON.<br />
<br />
== Semaine 10 ==<br />
<br />
<br />
Réunion avec les responsables et les informaticiens EATON le 20/03/2012 chez EATON à Montbonnot. Cette réunion a permis de montrer l'avancement du projet aux responsables informatiques de chez EATON.<br />
<br />
== Semaine 11 et 12 ==<br />
<br />
Finalisation du projet et réunion le 30 mars avec les responsables EATON chez EATON à Montbonnot.</div>Wirthchttps://air.imag.fr/index.php?title=Proj-2011-2012-ihm_mobile_onduleurs&diff=5169Proj-2011-2012-ihm mobile onduleurs2012-04-25T12:26:09Z<p>Wirthc: </p>
<hr />
<div>Ceci est la fiche du projet IHM mobile pour la visualisation et le contrôle d'onduleurs.<br />
<br />
Participants du projet : GU Qikai & WIRTH Clément<br />
<br />
Suivi du Projet<br />
<br />
----<br />
<br />
<br />
== Semaine 0 ==<br />
<br />
<br />
Choix du projet<br />
<br />
<br />
== Semaine 1 ==<br />
<br />
<br />
Réunion avec les responsables EATON le 24/01/2012 à Polytech'. Cette réunion a permis de comprendre la technologie EATON et de voir les applications sur lesquels nous allons travailler<br />
<br />
<br />
== Semaine 2 ==<br />
<br />
<br />
Réunion avec les responsables et les informaticiens EATON le 31/01/2012 chez EATON à Montbonnot. Cette réunion a permis de rédiger le cahier des charges de l'application.<br />
<br />
<br />
== Semaine 3,4 et 5 ==<br />
<br />
<br />
Familiarisation avec Android et developpement du projet.<br />
<br />
<br />
== Semaine 6 ==<br />
<br />
<br />
Réunion avec les responsables EATON le 28/02/2012 à Polytech'. Cette réunion a permis de présenter l'avancement du projet aux responsables, de définir ce qu'il fallait changer ainsi que les objectifs prioritaires à poursuivre.<br />
<br />
<br />
== Semaine 7 ==<br />
<br />
<br />
Réunion avec les responsables et les informaticiens EATON le 03/03/2012 chez EATON à Montbonnot. Cette réunion a permis de montrer l'avancement du projet aux responsables informatiques de chez EATON.<br />
<br />
==Semaine 8 et 9 == <br />
<br />
Réunions avec les responsables EATON le 12/03/2012 chez EATON à Polytech. Cette réunion a permis de montrer l'avancement du projet aux responsables responsables de chez EATON.<br />
<br />
== Semaine 10 ==<br />
<br />
<br />
Réunion avec les responsables et les informaticiens EATON le 20/03/2012 chez EATON à Montbonnot. Cette réunion a permis de montrer l'avancement du projet aux responsables informatiques de chez EATON.<br />
<br />
== Semaine 11 et 12 ==<br />
<br />
Finalisation du projet et réunion le 30 mars avec les responsables EATON chez EATON à Montbonnot.</div>Wirthchttps://air.imag.fr/index.php?title=Proj-2011-2012-ihm_mobile_onduleurs&diff=4708Proj-2011-2012-ihm mobile onduleurs2012-03-11T13:36:41Z<p>Wirthc: </p>
<hr />
<div>Ceci est la fiche du projet IHM mobile pour la visualisation et le contrôle d'onduleurs.<br />
<br />
Participants du projet : GU Qikai & WIRTH Clément<br />
<br />
Suivi du Projet<br />
<br />
----<br />
<br />
<br />
== Semaine 0 ==<br />
<br />
<br />
Choix du projet<br />
<br />
<br />
== Semaine 1 ==<br />
<br />
<br />
Réunion avec les responsables EATON le 24/01/2012 à Polytech'. Cette réunion a permis de comprendre la technologie EATON et de voir les applications sur lesquels nous allons travailler<br />
<br />
<br />
== Semaine 2 ==<br />
<br />
<br />
Réunion avec les responsables et les informaticiens EATON le 31/01/2012 chez EATON à Montbonnot. Cette réunion a permis de rédiger le cahier des charges de l'application.<br />
<br />
<br />
== Semaine 3,4 et 5 ==<br />
<br />
<br />
Familiarisation avec Android et developpement du projet.<br />
<br />
<br />
== Semaine 6 ==<br />
<br />
<br />
Réunion avec les responsables EATON le 28/02/2012 à Polytech'. Cette réunion a permis de présenter l'avancement du projet aux responsables, de définir ce qu'il fallait changer ainsi que les objectifs prioritaires à poursuivre.<br />
<br />
<br />
== Semaine 7 ==<br />
<br />
<br />
Réunions avec les responsables et les informaticiens EATON le 03/03/2012 chez EATON à Montbonnot. Cette réunion a permis de montrer l'avancement du projet aux responsables informatiques de chez EATON.</div>Wirthchttps://air.imag.fr/index.php?title=Proj-2011-2012-ihm_mobile_onduleurs&diff=4707Proj-2011-2012-ihm mobile onduleurs2012-03-11T13:36:10Z<p>Wirthc: </p>
<hr />
<div>Ceci est la fiche du projet IHM mobile pour la visualisation et le contrôle d'onduleurs.<br />
<br />
Participants du projet : GU Qikai & WIRTH Clément<br />
<br />
Suivi du Projet<br />
<br />
----<br />
<br />
Semaine 0<br />
<br />
Choix du projet<br />
<br />
Semaine 1 <br />
<br />
Réunion avec les responsables EATON le 24/01/2012 à Polytech'. Cette réunion a permis de comprendre la technologie EATON et de voir les applications sur lesquels nous allons travailler<br />
<br />
Semaine 2<br />
<br />
Réunion avec les responsables et les informaticiens EATON le 31/01/2012 chez EATON à Montbonnot. Cette réunion a permis de rédiger le cahier des charges de l'application.<br />
<br />
Semaine 3,4 et 5<br />
<br />
Familiarisation avec Android et developpement du projet.<br />
<br />
Semaine 6<br />
<br />
Réunion avec les responsables EATON le 28/02/2012 à Polytech'. Cette réunion a permis de présenter l'avancement du projet aux responsables, de définir ce qu'il fallait changer ainsi que les objectifs prioritaires à poursuivre.<br />
<br />
Semaine 7<br />
<br />
Réunions avec les responsables et les informaticiens EATON le 03/03/2012 chez EATON à Montbonnot. Cette réunion a permis de montrer l'avancement du projet aux responsables informatiques de chez EATON.</div>Wirthchttps://air.imag.fr/index.php?title=Proj-2011-2012-ihm_mobile_onduleurs&diff=4222Proj-2011-2012-ihm mobile onduleurs2012-01-17T14:51:46Z<p>Wirthc: Created page with "Ceci est la fiche du projet IHM mobile pour la visualisation et le contrôle d'onduleurs. Participants du projet : GU Qikai & WIRTH Clément"</p>
<hr />
<div>Ceci est la fiche du projet IHM mobile pour la visualisation et le contrôle d'onduleurs.<br />
<br />
Participants du projet : GU Qikai & WIRTH Clément</div>Wirthc