https://air.imag.fr/api.php?action=feedcontributions&user=Elisa.Beaugrand&feedformat=atomair - User contributions [en]2024-03-28T22:26:30ZUser contributionsMediaWiki 1.35.13https://air.imag.fr/index.php?title=Projets_2020-2021&diff=51031Projets 2020-20212021-03-18T21:11:14Z<p>Elisa.Beaugrand: /* Affectations S10 */</p>
<hr />
<div><<[[Projets 2019-2020]] | [[Projets]] | [[Projets 2021-2022]]>><br />
=INFO=<br />
==INFO3==<br />
<br />
==INFO4==<br />
===Projet Semestre S8===<br />
<br />
Enseignants responsables : Olivier Richard, Didier Donsez<br />
<br />
* Dates : Lundi après-midi, Mardi après-midi <br />
* Lancement: 18 Janvier 2021 après midi<br />
* Soutenance à mi-parcours: A définir<br />
* Soutenance: A définir<br />
<br />
* '''Evaluation à mi-parcours le lundi/mardi ???''': Format: 10min (5min de présentation 3 slides au plus, 5min de discussion). Cette évaluation sera prise en compte dans la note finale.<br />
<br />
'''Consignes générales:'''<br />
<br />
* '''Vous devez être pro-actifs !!!''': Si des points sont pas ou mals spécifiés, vous le faîtes et vous justifiez vos choix. Pour les problèmes techniques éventuels vous pouvez: creuser la question, contacter l'auteur du code si il y a lieu, écrire un rapport de bug ('''Attention:''' ca se prépare !), soumettre un patch/pull request, contacter l'enseignant ou la personne référente du projet.<br />
<br />
* '''Vous devez maintenir une fiche de suivi de projet''': elle doit être mise à jour chaque semaine, elle rassemble les élements essentiels du projet, elle indique les évolutions du projet et présente sa feuille de route. '''Note:''' le nom de la fiche doit être composé du nom du projet et suffixé par info4_2020_2021. '''Cette fiche compte pour la note finale'''<br />
<br />
* '''Votre code''' pour doit être hébergé sur le gitlab et à l'URL suivante https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21 , vous utiliserez votre compte UGA.<br />
<br />
* Chaque projet doit avoir '''aux moins 2 dépôts git''':<br />
** '''Un pour les documents''' demandés rapport, présentation de pré-soutenante, de soutenance, flyer. '''Il sera appelé documents.'''<br />
** Un ou plusieurs pour le code, les tests, les évaluations, les preuves de concept, la ou les documentations afférentes. <br />
<br />
* Les '''documents public doivent être rédigés en anglais (README, documentation, commentaires de code, nom de variables et de fonctions)'''. Le *rapport* sera aussi demandé en *anglais* (il fera la taille d'un rapport de TP). Les transparents des présentation peuvent être en anglais ou en francais, la soutenance sera taire en francais.<br />
<br />
* '''La note obtenue''' tiendra compte du '''nombre et de la qualité des commits''' observé dans '''vos dépots git et la branche master''' (or depot documents). La qualité comprend l'intitulé du commit et son contenu. Les notes pourront être différentiées dans un groupe, il n'est pas acceptable de pas avoir de commit dans le(s) dépôt(s) du projet (or dépôt documents).<br />
<br />
* Il est fortement conseillé de suivre un '''développement incrémental''' qui permette d'avoir à tout moment un démonstrateur à présenter, un projet peut être constituer d'une succession de '''démonstrateurs présentables séparément'''.<br />
<br />
* Vous devez faire aussi des '''schémas d'architectures générales et/ou spéficiques, des diagrammes de séquence''', et autre documents de spécification si nécessaire. Ces documents vous serviront de base de discussion/brainstorming interne ainsi que dans vos différents documents (rapport, présentations, documentation). Ces schémas sont avant tout conceptuels et techniques.<br />
<br />
===Propositions de projets S8===<br />
<br />
* 1. [[Contribution au projet STM32Python]], Didier DONSEZ.<br />
* 2. [[Portage du kit station LoRa LRWAN2 de ST sur RIOT OS]], Didier DONSEZ.<br />
* 3+4. [[Portage de la carte de prototypage IoT Nucleo-WL55JC sur RIOT OS]] + [[Portage de la carte de communication LoRa LLCC68MB2BAS sur RIOT OS]], Didier DONSEZ (1 seul groupe de 3 élèves pour les 2 cartes).<br />
* 5. [[Service Web d'équipements embarqués communicant sur bus CAN]] (2 groupes de 2 élèves), Didier DONSEZ.<br />
* 6. [[Application mobile d'enregistrements de noeuds IoT LoRaWAN dans plusieurs réseaux]], Didier DONSEZ.<br />
* 7. [[Evaluation du toolkit AI de STM32 pour l'analyse de l'environnement sonore]], Didier DONSEZ.<br />
* 8. [[Godot Game Engine et tables tactiles]] : démonstration d'un jeu en réseau sur les 3 tables tactiles : (gaming spirit) Olivier RICHARD.<br />
* 9. [[Serveur filière INFO]], Nicolas Palix<br />
* Agriculture connectée en partenariat avec les projets collectifs IESE/MAT<br />
** 10. [[ASAC/AP|Polytech]] : Nicolas Palix<br />
** 11. [[ASAC/SJC|St Cassien]] : Nicolas Palix<br />
* 12. [[ENT Polytech]] avec XMPP/Mumble/BBB/Mattermost/OpenBoard : Nicolas Palix<br />
* 13. [[Polytech Helper Service | Outils d'aide à la gestion de service]], (professionel) Olivier Richard<br />
* 14. [[Rust Engine | Executeur de tâche en Rust]], (exigeant techniquement) Olivier Richard<br />
* 15. [[Retrocompute simulateur | RetroComputing]]: (vintage style) Coupler le simulateur Digital avec un simulateur de processeur 8bits, Olivier Richard<br />
* 16. [[FPGA et Deep Learnning]] Olivier Richard<br />
* 17. [[OpenAPI OAR | OpenAPI pour la gestion de tâches de ressources OAR]], (professionel) Olivier Richard <br />
* 18. [[Monitoring de la plateforme CampusIoT]] : Didier Donsez<br />
<br />
==== Reporté INFO5 21-22 ==== <br />
* 1 heure 1 heure (échange de compétence), etudiant.e.s Emilie Tondeux + ?, tuteur ?<br />
==== Reporté ====<br />
[[Simulateur de réseaux simples avec un FPGA]], (typé recherche/prospectif)<br />
<br />
==== Affectation ====<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets INFO4 20-21<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| [[Contribution au projet STM32Python]]<br />
| BAUDEUR BERTRAND,LANQUETIN ALEXIS,TONDEUX EMILIE<br />
| Didier DONSEZ<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/01/docs/-/blob/master/Contribution%20au%20projet%20STM32Python%20info4_2020_2021.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/01/docs/-/blob/master/Pr%C3%A9sentation_mi-parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 2<br />
| [[Portage du kit station LoRa LRWAN2 de ST sur RIOT OS]]<br />
| HERQUE ERIC,MALLEN GUILLAUME,PORTIER BARNAB<br />
| Didier DONSEZ<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/02/docs/-/blob/master/Portage_du_kit_station_LoRa_LRWAN2_de_ST_sur_RIOT_OS_info4_2020_2021.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/02/docs/-/blob/master/Pr%C3%A9sentation%20de%20mi-parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 5<br />
| [[Service Web d'équipements embarqués communicant sur bus CAN]]<br />
| ANDRIEUX LIAM,DREZET LUCAS,REGOUIN ROMAN<br />
| Didier DONSEZ<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/05/docs/-/blob/master/EmbeddedEquipmentWebServiceCommunicatingOnCANBus_info4_2020_2021.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/05/docs/-/blob/master/Pre%20viva%20presentation.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 6<br />
| [[Application mobile d'enregistrements de noeuds IoT LoRaWAN dans plusieurs réseaux]]<br />
| CAMBUS QUENTIN,EL YANDOUZI ELIAS,JULIENNE MALONE<br />
| Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/06/docs/-/blob/master/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/06/docs/-/blob/master/Pr%C3%A9sentation_IoT.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 7<br />
| [[ Evaluation du toolkit AI de STM32 pour reconnaissance sonore]]<br />
| COSOTTI KEVIN,GRANGER OSCAR,GUIGNARD JULIE<br />
| Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/07/docs/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [[https://docs.google.com/presentation/d/15RCcuoAWGlpOLyM_SX3tXVhhXEHiTuNTXXxRCrJ4tiA/edit?usp=sharing |Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 8<br />
| [[Godot Game Engine et tables tactiles|Godot Engine]]<br />
| CIRSTEA PAUL,DE MULATIER JEAN-THEOPHANE,SOULARD ALEXANDR<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/08/docs/-/blob/master/Godot_Game_Engine_et_tables_tactiles_info4_2020_2021.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [[https://docs.google.com/presentation/d/1CUBp5Zz1uivkCb8latQ8tnfSy-bUTJs-7f3f7GcH4Zs/edit?usp=sharing |Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 9<br />
| [[Serveur_filière_INFO|Serveur INFO]]<br />
| GITTON ANTOINE,MERTENS GILLES,SUEUR CORENTIN<br />
| Nicolas Palix<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/09/docs/-/blob/master/Serveur_filiere_info4_2020_2021.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [[Media:Presentation_mi_parcours_groupe7.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 10<br />
| [[ASAC/AP|Serre Polytech]]<br />
| AGUIAR MATHILDE,HAJJI OUMAIMA,SIDIBE ROKIATOU DITE ROSE<br />
| Nicolas Palix<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/10/docs/-/blob/master/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [[https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/10/docs/-/blob/master/Presentations/mid-project_slides.pdf | Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 11<br />
| [[ASAC/SJC/SJC-2020-INFO]]<br />
| BUISINE JULIEN,PRAT-CAPILLA HUGO,TEYSSIER THEO<br />
| Nicolas Palix<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/11/docs/-/blob/master/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/11/docs/-/blob/master/Team11-Presentation.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 12<br />
| [[ENT Polytech]]<br />
| HERY JULES,SALMON AMAD,VACHERIAS GUILLAUME<br />
| Nicolas Palix<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/12/docs/-/blob/master/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [[https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/12/docs/-/blob/master/Presentation_mi_parcours.pdf | Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 13<br />
| [[Polytech_Helper_Service|Polytech Helper Service]]<br />
| ALIBERT ANGELO,NOERIE SOPHIE,SARRE MARGAUX<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/13/docs/ Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/13/docs/-/blob/master/Pr%C3%A9sentation_Mi-Parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 14<br />
| [[Rust Engine|Rust Engine]]<br />
| BARET DORIAN,CHALOYARD LUCAS,MALOD VICTOR,PARA YAEL<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/14/docs/-/blob/master/tracking-sheet.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/14/docs/-/blob/master/soutenance-mi_parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 15<br />
| [[Retrocompute_simulateur|Retrocomputing]]<br />
| ELHADJI TCHIAMBOU SAMI,HUMBERT CORENTIN,MUTEL MATHIS<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/15/docs/-/blob/master/README.md#follow-up Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/15/docs/-/blob/master/diapo_soutenance_mi_parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 16<br />
| [[FPGA et Deep Learning]]<br />
| GEITNER TEVA,GONZALEZ JULES,MALECOT ETHAN<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/16/docs/-/blob/master/FPGA_info4_2020_2021.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/16/docs/-/blob/master/Presentation_mi-projet.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 17<br />
| [[OpenAPI OAR]]<br />
| LAMBERT DAPHNE,MINIER-MANCINI TITOUAN,TOUE TIOYE<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/17/docs/-/blob/master/TRACKING_SHEET.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [[Media:xxx.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 18<br />
| [[Monitoring de la plateforme CampusIoT]]<br />
| BLANQUET ANTOINE,LAMBERT PAUL,YUNG KEVIN<br />
| Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/18/docs/-/blob/master/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/18/docs/-/blob/master/Reunion_de_mi_parcours.pdf Presentation de mi-parcours]<br />
|-<br />
|}<br />
<br />
==INFO5==<br />
===Projet IoT S9===<br />
Enseignants responsables : Bernard Tourancheau<br />
<br />
Calendrier: ??? Septembre à ??? Décembre 2020.<br />
<br />
<br />
===Projet Semestre S10===<br />
<br />
Enseignants responsables : [[user:Donsez|Didier Donsez]]<br />
<br />
Calendrier: 28/01 (13H30-17H30) au 19/03.<br />
<br />
Séances de Management de projets innovants: A voir dessus.<br />
<br />
Réunion de présentation et choix des sujets: 28/01 (13H30-17H30) en salle P257 (voir ADE)<br />
<br />
Démarrage : 29/01 (13H30-17H30)<br />
<br />
Soutenance à mi-parcours : 26/02/2021 13H30-17H30 en distantiel (15 minutes par équipe).<br />
<br />
Soutenance finale : 19/03/2021 (8H30-12H00 et 13H30-17H00). 30 minutes par équipe, questions/réponses et démonstration incluse. Prière de rapporter au fablab le matériel emprunté juste après votre soutenance. <br />
<br />
====Séances MPI====<br />
<br />
Les séances MPI seront en distanciel (mais ADE fait foi).<br />
<br />
<pre><br />
Séance Thématique Date Horaires Intervenante Salle<br />
1 Définir la problématique 03-févr. 14h-18h Stéphanie Diligent distanciel<br />
2 Gérer le projet en restant agile 10-févr. 8h30 - 12h30 Stéphanie Diligent distanciel<br />
3 Communiquer 24-févr. 8h30 - 12h30 Emmanuelle Tréhoust distanciel<br />
4 Evaluer et valoriser 03-mars 8h30 - 12h30 Emmanuelle Tréhoust distanciel<br />
5 Evaluation 10-mars 8h30 - 12h30 Stéphanie Diligent distanciel<br />
</pre><br />
<br />
==== Soutenance intermédiaire S10 ====<br />
Date: 26/02 Après midi. Distantiel (sur Zoom).<br />
<br />
L'objectif de la soutenance intermédiaire est de vérifier si l'équipe projet est en bon ordre de marche. La présence du porteur n'est pas obligatoire. Prévoyez du temps pour les questions-réponses (5 minutes max).<br />
<br />
L'équipe présentera en 5-6 transparents en 8 minutes.<br />
* les équipiers et leurs rôles<br />
* le contexte, le sujet et l'objectif du projet<br />
* l'architecture du systèmes à réaliser<br />
* les technologies utilisées<br />
* le plan de travail (backlog, planning, ce qui est fait, ce qu'il reste à faire ...)<br />
* les difficultés (s'il y a)<br />
<br />
Respectez bien les créneaux indiqués (par respect pour les autres équipes).<br />
<br />
==== Soutenance finale S10 ====<br />
Date: 19/03/2021 (8H30-12H00 et 13H30-17H00).<br />
<br />
'''La présence du(des) porteur(s) est obligatoire. Pensez à les prévenir bien à l'avance'''<br />
<br />
Durée: 30 minutes par équipe: présentation, questions/réponses et démonstration incluse.<br />
<br />
Les documents devront être en ligne sur le wiki (colonne Documents) la veille (ie avant le 18/03/2021 23:59:59 CET).<br />
<br />
'''Remarque: le poster et le flyer (recto-verso A4 en 3 plis : [http://air.imag.fr/mediawiki/images/9/9b/FlyerCervin.pdf exemple]) doivent être rédigés en anglais.'''<br />
<br />
La présentation est constituée des chapitres suivants:<br />
* Rappel du sujet/besoin et cahier des charges<br />
* Technologies employées<br />
* Architecture techniques<br />
* Réalisations techniques<br />
* Gestion de projet (méthode, planning prévisionnel et effectif, gestion des risques, rôles des membres ...)<br />
* Outils (collaboration, CD/CI ...)<br />
* Métriques logiciels : lignes de code, langages, performance, temps ingénieur (d'après vos journaux), la répartition des lignes de code et des commits en pourcentage entre les membres du projet ...)<br />
* Conclusion (Retour d'expérience)<br />
* Transparent expliquant la démonstration<br />
<br />
L'ensemble des documents doit être accessible depuis le tableau ci-dessus et dans chaque fiche de suivi.<br />
<br />
Le screencast (réalisé lors de la dernière répétition) sera rendu disponible via un partage caché (wetransfer, google drive …) dont le lien sera ajouté dans le devoir idoine sur Moodle et également envoyé par mail à votre tuteur.<br />
<br />
Le rapport final contient les mêmes chapitres que la présentation ainsi qu'un glossaire et une bibliographie. Le rapport ne doit pas dépasser 15 pages (schémas et figures compris). Vous pourrez référencer les autres documents que vous avez produits au cours du projet (spécifications détaillées, algorithmes, conception d'écrans ...).<br />
<br />
Le rapport final est au format Markdown et doit être placé dans un des dépôts Git de votre groupe/organisation.<br />
<br />
NB: le rapport technique listé dans la colonne Documents contient tout ce qui ne tient pas dans les 15 pages du rapport final : cahier des charges, diagrammes UML, enquêtes utilisateurs design UI, API, technologies employées (détail), plan de tests, term of services, conformance RPGD, audits/diagnostiques sécurité, MTBR, rapport de vulnérabilité, plan de charge, rapports de charge, manuel d'installation … : ça dépend un peu de la nature de votre projet.<br />
<br />
Conseil : 30 minutes c'est très court alors répétez la soutenance auparavant ! Prévoyez des transparents supplémentaires en annexe pour répondre aux questions.<br />
<br />
NB: Vous pouvez prévoir d’organiser une démonstration plus longue de votre projet auprès de vos porteurs et vos tuteurs avant ou après la soutenance. <br />
<br />
<br />
'''Prière de rapporter au fablab le matériel emprunté juste après votre soutenance'''.<br />
<br />
==== Affectations S10====<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets INFO5 2020-2021<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Documents<br />
!scope="col"| Dépôt Git<br />
!scope="col"| Soutenance intermédiaire<br />
!scope="col"| Soutenance finale<br />
|-<br />
!scope="row"| 1<br />
| [[Infrastructure de communication interne au cubesat ATISE du CSUG | ATISE]]<br />
| Alexandre SALMON, Myriam LOMBARD, Killian PAREILLEUX, Adrien ARTAUD<br />
| Imane El-Khantouti (CSUG, UGA), Frédéric Martin (CSUG, UGA)<br />
| [[PROJET-INFO5 2021 ATISE| Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/Infrastructure_de_communication_interne_au_cubesat_ATISE_du_CSUG Documents], [[Media:ATISE_rapport.pdf|Rapport]], [[Media:ATISE_Flyer.pdf|Flyer]], [[Media:ATISE_Poster.pdf|Poster]], [[Pitch ATISE | Pitch]], [https://github.com/ATISE-2020-2021-Polytech-Grenoble/Docs/blob/master/ScreenCastATISE.ogv Screencast]<br />
| [https://github.com/ATISE-2020-2021-Polytech-Grenoble Dépôt Github]<br />
| 13H30, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_1.pdf|Présentation intermédiaire]]<br />
| 9H00, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_1.pdf|Présentation finale]]<br />
|-<br />
!scope="row"| 2<br />
| [[Wildcount:_Inexpensive_Edge_sensor_for_recognizing_and_counting_the_presence_of_humans_(anonymous)_and_animals_into_wild_and_protected_areas.|Wildcount]]<br />
| BEAUGRAND Elisa, DE GAUDENZI Louis, GRAUGNARD Tom, ROLLIN Alexis<br />
| DONSEZ Didier, QUENOT Georges<br />
| [[PROJET-INFO5_2021_Wildcount|Fiche de suivi]]<br />
| [[Wildcount:_Inexpensive_Edge_sensor_for_recognizing_and_counting_the_presence_of_humans_(anonymous)_and_animals_into_wild_and_protected_areas.|Documents]], [[Media:Wildcount_rapport.pdf|Rapport]], [[Media:Wildcount_Flyer.pdf|Flyer]], [[Media:WildCount_Poster_Preversion_A0_printed.pdf|Poster]], [[Media:pitch_WildCount.pdf |Pitch]], Screencast<br />
| [https://gitlab.com/wildcount Dépôt Gitlab]<br />
| 13H45, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_2.pdf|Présentation]]<br />
| 14H30, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_2.pdf|Présentation]]<br />
|-<br />
!scope="row"| 5<br />
| [[Signature électronique eIDAS|eIDAS]]<br />
| ASSI Dima, BILOUNGA Aleck, EL AJI Houda, ZERAMDINI Otba<br />
| Nicolas PALIX<br />
| [[PROJET-INFO5 2021 Signature électronique eIDAS| Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/Signature_%C3%A9lectronique_eIDAS Documents],[https://github.com/2020-2021-EIDAS-INFO5/Docs/blob/master/Technical_document.md Rapport technique], [[Media:Flyer_EIDAS.pdf|Flyer]], Poster, [[Media:Pitch_eIDAS.pdf|Pitch]], Screencast<br />
| [https://github.com/2020-2021-EIDAS-INFO5 Dépôt Github]<br />
| 14H00, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_5.pdf|Présentation]]<br />
| 15H45, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_5.pdf|Présentation]]<br />
|-<br />
<br />
!scope="row"| 6<br />
| [[Contributions open source au projet EdCampus|EdCampus]]<br />
| COURTHIAL Samuel, FOUGERE Sebastien, DELBOS Robin<br />
| POLLIER Gérard, GEOURJON Anthony, DONSEZ Didier<br />
| [[PROJET-INFO5 2021 Contributions open source au projet EdCampus| Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/Contributions_open_source_au_projet_EdCampus Documents], [https://air.imag.fr/index.php/Rapport_Final_EDCampus Rapport],[[Media:flyer_EDCampus.pdf|Flyer]], [[Media:poster_EDCampus.pdf|Poster]], [[Media:pitch_EDCampus.pdf|Pitch]], Screencast<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/edcampus Dépôt GitLab]<br />
| 14H15, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_6.pdf|Présentation]]<br />
| 09H30, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_6.pdf|Présentation]]<br />
|-<br />
<br />
!scope="row"| 8<br />
| [[Prototypage d'application mobile pour la vente en direct de produits producteur locaux]]<br />
| BOLEAT Baptiste, CHAIX Manon, MICHELARD Leila, PALOMO Rémy<br />
| DELANGUE Sylvain, Gérard POLLIER (Disrupt Campus)<br />
| [[PROJET-INFO5 2021 Go Farmer | Fiche de suivi]]<br />
| [[Rapport final Go Farmer | Rapport Final]], [https://air.imag.fr/index.php/Prototypage_d%27application_mobile_pour_la_vente_en_direct_de_produits_producteur_locaux Documents], [[Media:Flyer Producteurs Locaux.pdf | Flyer]], [[Media:Poster_Producteurs_Locaux.pdf | Poster]], [[Media: Pitch_Producteurs_Locaux.pdf | Pitch]], Screencast<br />
| [https://bitbucket.org/gofarmer/ Dépôt Bitbucket (privé)]<br />
| 14H30, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_8.pdf|Présentation]]<br />
| 08H30, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_8.pdf|Présentation]]<br />
|-<br />
!scope="row"| 9<br />
| [[Secours Montagne avec LoRa|Saint-Bernard]]<br />
| CHATON Alexandra, FRION Thomas, PASDELOUP Romain<br />
| TOURANCHEAU Bernard<br />
| [[PROJET-INFO5 2021 Secours Montagne avec LoRa | Fiche de suivi]]<br />
| [https://gitlab.com/info5-lora-avalanche/documentation/-/blob/master/Reports/Rapport%20Final.pdf Rapport final], [https://gitlab.com/info5-lora-avalanche/documentation/-/blob/master/Reports/Final%20Report.md Rapport final (MD)] [https://gitlab.com/info5-lora-avalanche/documentation/-/blob/master/Presentation/Flyer_projet_Saint-Bernard.pdf Flyer], [https://gitlab.com/info5-lora-avalanche/documentation/-/blob/master/Presentation/Poster_project_Saint-Bernard.pdf Poster], [https://gitlab.com/info5-lora-avalanche/documentation/-/blob/master/Reports/Pitch.pdf Pitch], Screencast<br />
| [https://gitlab.com/info5-lora-avalanche Gitlab]<br />
| 15H00, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_9.pdf|Présentation]]<br />
| 14H00, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_9.pdf|Présentation]]<br />
|-<br />
!scope="row"| 10<br />
| [[GenderedNews|GenderedNews]]<br />
| HO Nhat Quang, MURPHY Mica, NGUENA Gloria, SAGET Antoine<br />
| PORTET François, BASTIN Gilles, RICHARD Ange<br />
| [[PROJET-INFO5 2021 GenderedNews | Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/GenderedNews Documents], Flyer, Poster, Pitch, Screencast<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/getalp/genderednews Dépôt GitLab]<br />
| 15H15, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_10.pdf|Présentation]]<br />
| 13H30, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_10.pdf|Présentation]]<br />
|-<br />
!scope="row"| 11<br />
| [[Réseaux social d'organisation de sortie|Réseaux social d'organisation de sortie]]<br />
| EL JRAIDI Rim, VERNET Maxime, SAJIDE Idriss, MANISSADJIAN Gabriel<br />
| RICHARD Olivier<br />
| [[PROJET-INFO5 2021 Réseaux social d'organisation de sortie | Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/R%C3%A9seaux_social_d%27organisation_de_sortie Documents], [[Media:flyer_Osons_sortie.pdf|Flyer]], [[Media:poster_Osons_sortie.pdf|Poster]], [[Media:Pitch_organisation_sorties.pdf|Pitch]], Screencast, [https://www.figma.com/file/lx1mwonG7jEUYKggjGQvIJ/Maquette?node-id=0%3A1 Maquette, [[Media:Osons_sortir_rapport.pdf|Rapport final]], [[Media:Osons_sortir_rapport_technique.pdf|Rapport technique]]]<br />
| [https://github.com/2020-2021-PROJET-INFO5-G11 Dépot Git (privé)]<br />
| 15H30, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_11.pdf|Présentation]]<br />
| 10H15, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_11.pdf|Présentation]]<br />
|-<br />
!scope="row"| 13<br />
| [[Artiphonie (saison 2)|Artiphonie (saison 2)]]<br />
| CROCIATI Morgan, RIVAL Gaëtan, RUZAFA Rémy, VELUT Claire <br />
| Bastien De Araujo, Guillaume Denis, Estelle Gillet-Perret et Olivier Richard<br />
| [[PROJET-INFO5 2021 Artiphonie (saison 2) | Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/Artiphonie_(saison_2) Documents],[https://github.com/WriteInGesturesProject/docs/blob/master/2021/Rapport_Final.md Rapport Final], [https://github.com/WriteInGesturesProject/docs/blob/master/2021/Rapport_Technique.md Rapport Technique], [[Media:Artiphonie_presentation_final.pdf| Présentation Final]], [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_13.pdf|Présentation Mi-Projet]], [[Media:Flyer_-_Atrhiphonie.pdf|Flyer]], [[Media:Poster_Atrhiphonie.pdf|Poster]], [[Media:Pitch_Artiphonie.pdf|Pitch]], [https://drive.google.com/file/d/1B2W_On2FSED2HAKQ3kXJOOuL1RUmcJl7/view?usp=sharing Screencast]<br />
| [https://github.com/WriteInGesturesProject Dépôt Github]<br />
| 15H45, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_13.pdf|Présentation]]<br />
| 10H45, [[Media:Artiphonie_presentation_final.pdf| Présentation]]<br />
|-<br />
|scope="row"| 14<br />
| [[Covoiturage solidaire avec borne d'appel|Covoiturage solidaire avec borne d'appel]]<br />
| EL MUFTI Ali, NELSON William<br />
| Christine Verdier, Fabrice Forest (Didier Donsez pour le support technique borne d'appel).<br />
| [[PROJET-INFO5 2021 Covoiturage solidaire avec borne d'appel| Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/Covoiturage_solidaire_avec_borne_d%27appel Documents], [[Media:flyermobipa.pdf|Flyer]], [[Media:mobipa.pdf|Poster]], [[Media:Pitch_Groupe14.pdf|Pitch]], Screencast<br />
| [https://github.com/OliDesu/MoBiPa Dépôt GitHub] <br />
| 16H00, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_14.pdf|Présentation]]<br />
| 15H15, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_14.pdf|Présentation]]<br />
|}<br />
<br />
====Projets non choisis====<br />
* [[LoRaWAN Roaming]] avec [[Chirpstack]] et [[TheThingStack]]: Didier Donsez, Bernard Tourancheau.<br />
* [[Contributions open-source au projet JHipster]] : Didier Donsez<br />
* [[Test d'infrastructures avec NixOS]] Olivier Richard et Quentin Guilloteau</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=Projets_2020-2021&diff=51030Projets 2020-20212021-03-18T21:08:24Z<p>Elisa.Beaugrand: /* Affectations S10 */</p>
<hr />
<div><<[[Projets 2019-2020]] | [[Projets]] | [[Projets 2021-2022]]>><br />
=INFO=<br />
==INFO3==<br />
<br />
==INFO4==<br />
===Projet Semestre S8===<br />
<br />
Enseignants responsables : Olivier Richard, Didier Donsez<br />
<br />
* Dates : Lundi après-midi, Mardi après-midi <br />
* Lancement: 18 Janvier 2021 après midi<br />
* Soutenance à mi-parcours: A définir<br />
* Soutenance: A définir<br />
<br />
* '''Evaluation à mi-parcours le lundi/mardi ???''': Format: 10min (5min de présentation 3 slides au plus, 5min de discussion). Cette évaluation sera prise en compte dans la note finale.<br />
<br />
'''Consignes générales:'''<br />
<br />
* '''Vous devez être pro-actifs !!!''': Si des points sont pas ou mals spécifiés, vous le faîtes et vous justifiez vos choix. Pour les problèmes techniques éventuels vous pouvez: creuser la question, contacter l'auteur du code si il y a lieu, écrire un rapport de bug ('''Attention:''' ca se prépare !), soumettre un patch/pull request, contacter l'enseignant ou la personne référente du projet.<br />
<br />
* '''Vous devez maintenir une fiche de suivi de projet''': elle doit être mise à jour chaque semaine, elle rassemble les élements essentiels du projet, elle indique les évolutions du projet et présente sa feuille de route. '''Note:''' le nom de la fiche doit être composé du nom du projet et suffixé par info4_2020_2021. '''Cette fiche compte pour la note finale'''<br />
<br />
* '''Votre code''' pour doit être hébergé sur le gitlab et à l'URL suivante https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21 , vous utiliserez votre compte UGA.<br />
<br />
* Chaque projet doit avoir '''aux moins 2 dépôts git''':<br />
** '''Un pour les documents''' demandés rapport, présentation de pré-soutenante, de soutenance, flyer. '''Il sera appelé documents.'''<br />
** Un ou plusieurs pour le code, les tests, les évaluations, les preuves de concept, la ou les documentations afférentes. <br />
<br />
* Les '''documents public doivent être rédigés en anglais (README, documentation, commentaires de code, nom de variables et de fonctions)'''. Le *rapport* sera aussi demandé en *anglais* (il fera la taille d'un rapport de TP). Les transparents des présentation peuvent être en anglais ou en francais, la soutenance sera taire en francais.<br />
<br />
* '''La note obtenue''' tiendra compte du '''nombre et de la qualité des commits''' observé dans '''vos dépots git et la branche master''' (or depot documents). La qualité comprend l'intitulé du commit et son contenu. Les notes pourront être différentiées dans un groupe, il n'est pas acceptable de pas avoir de commit dans le(s) dépôt(s) du projet (or dépôt documents).<br />
<br />
* Il est fortement conseillé de suivre un '''développement incrémental''' qui permette d'avoir à tout moment un démonstrateur à présenter, un projet peut être constituer d'une succession de '''démonstrateurs présentables séparément'''.<br />
<br />
* Vous devez faire aussi des '''schémas d'architectures générales et/ou spéficiques, des diagrammes de séquence''', et autre documents de spécification si nécessaire. Ces documents vous serviront de base de discussion/brainstorming interne ainsi que dans vos différents documents (rapport, présentations, documentation). Ces schémas sont avant tout conceptuels et techniques.<br />
<br />
===Propositions de projets S8===<br />
<br />
* 1. [[Contribution au projet STM32Python]], Didier DONSEZ.<br />
* 2. [[Portage du kit station LoRa LRWAN2 de ST sur RIOT OS]], Didier DONSEZ.<br />
* 3+4. [[Portage de la carte de prototypage IoT Nucleo-WL55JC sur RIOT OS]] + [[Portage de la carte de communication LoRa LLCC68MB2BAS sur RIOT OS]], Didier DONSEZ (1 seul groupe de 3 élèves pour les 2 cartes).<br />
* 5. [[Service Web d'équipements embarqués communicant sur bus CAN]] (2 groupes de 2 élèves), Didier DONSEZ.<br />
* 6. [[Application mobile d'enregistrements de noeuds IoT LoRaWAN dans plusieurs réseaux]], Didier DONSEZ.<br />
* 7. [[Evaluation du toolkit AI de STM32 pour l'analyse de l'environnement sonore]], Didier DONSEZ.<br />
* 8. [[Godot Game Engine et tables tactiles]] : démonstration d'un jeu en réseau sur les 3 tables tactiles : (gaming spirit) Olivier RICHARD.<br />
* 9. [[Serveur filière INFO]], Nicolas Palix<br />
* Agriculture connectée en partenariat avec les projets collectifs IESE/MAT<br />
** 10. [[ASAC/AP|Polytech]] : Nicolas Palix<br />
** 11. [[ASAC/SJC|St Cassien]] : Nicolas Palix<br />
* 12. [[ENT Polytech]] avec XMPP/Mumble/BBB/Mattermost/OpenBoard : Nicolas Palix<br />
* 13. [[Polytech Helper Service | Outils d'aide à la gestion de service]], (professionel) Olivier Richard<br />
* 14. [[Rust Engine | Executeur de tâche en Rust]], (exigeant techniquement) Olivier Richard<br />
* 15. [[Retrocompute simulateur | RetroComputing]]: (vintage style) Coupler le simulateur Digital avec un simulateur de processeur 8bits, Olivier Richard<br />
* 16. [[FPGA et Deep Learnning]] Olivier Richard<br />
* 17. [[OpenAPI OAR | OpenAPI pour la gestion de tâches de ressources OAR]], (professionel) Olivier Richard <br />
* 18. [[Monitoring de la plateforme CampusIoT]] : Didier Donsez<br />
<br />
==== Reporté INFO5 21-22 ==== <br />
* 1 heure 1 heure (échange de compétence), etudiant.e.s Emilie Tondeux + ?, tuteur ?<br />
==== Reporté ====<br />
[[Simulateur de réseaux simples avec un FPGA]], (typé recherche/prospectif)<br />
<br />
==== Affectation ====<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets INFO4 20-21<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| [[Contribution au projet STM32Python]]<br />
| BAUDEUR BERTRAND,LANQUETIN ALEXIS,TONDEUX EMILIE<br />
| Didier DONSEZ<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/01/docs/-/blob/master/Contribution%20au%20projet%20STM32Python%20info4_2020_2021.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/01/docs/-/blob/master/Pr%C3%A9sentation_mi-parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 2<br />
| [[Portage du kit station LoRa LRWAN2 de ST sur RIOT OS]]<br />
| HERQUE ERIC,MALLEN GUILLAUME,PORTIER BARNAB<br />
| Didier DONSEZ<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/02/docs/-/blob/master/Portage_du_kit_station_LoRa_LRWAN2_de_ST_sur_RIOT_OS_info4_2020_2021.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/02/docs/-/blob/master/Pr%C3%A9sentation%20de%20mi-parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 5<br />
| [[Service Web d'équipements embarqués communicant sur bus CAN]]<br />
| ANDRIEUX LIAM,DREZET LUCAS,REGOUIN ROMAN<br />
| Didier DONSEZ<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/05/docs/-/blob/master/EmbeddedEquipmentWebServiceCommunicatingOnCANBus_info4_2020_2021.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/05/docs/-/blob/master/Pre%20viva%20presentation.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 6<br />
| [[Application mobile d'enregistrements de noeuds IoT LoRaWAN dans plusieurs réseaux]]<br />
| CAMBUS QUENTIN,EL YANDOUZI ELIAS,JULIENNE MALONE<br />
| Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/06/docs/-/blob/master/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/06/docs/-/blob/master/Pr%C3%A9sentation_IoT.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 7<br />
| [[ Evaluation du toolkit AI de STM32 pour reconnaissance sonore]]<br />
| COSOTTI KEVIN,GRANGER OSCAR,GUIGNARD JULIE<br />
| Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/07/docs/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [[https://docs.google.com/presentation/d/15RCcuoAWGlpOLyM_SX3tXVhhXEHiTuNTXXxRCrJ4tiA/edit?usp=sharing |Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 8<br />
| [[Godot Game Engine et tables tactiles|Godot Engine]]<br />
| CIRSTEA PAUL,DE MULATIER JEAN-THEOPHANE,SOULARD ALEXANDR<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/08/docs/-/blob/master/Godot_Game_Engine_et_tables_tactiles_info4_2020_2021.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [[https://docs.google.com/presentation/d/1CUBp5Zz1uivkCb8latQ8tnfSy-bUTJs-7f3f7GcH4Zs/edit?usp=sharing |Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 9<br />
| [[Serveur_filière_INFO|Serveur INFO]]<br />
| GITTON ANTOINE,MERTENS GILLES,SUEUR CORENTIN<br />
| Nicolas Palix<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/09/docs/-/blob/master/Serveur_filiere_info4_2020_2021.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [[Media:Presentation_mi_parcours_groupe7.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 10<br />
| [[ASAC/AP|Serre Polytech]]<br />
| AGUIAR MATHILDE,HAJJI OUMAIMA,SIDIBE ROKIATOU DITE ROSE<br />
| Nicolas Palix<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/10/docs/-/blob/master/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [[https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/10/docs/-/blob/master/Presentations/mid-project_slides.pdf | Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 11<br />
| [[ASAC/SJC/SJC-2020-INFO]]<br />
| BUISINE JULIEN,PRAT-CAPILLA HUGO,TEYSSIER THEO<br />
| Nicolas Palix<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/11/docs/-/blob/master/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/11/docs/-/blob/master/Team11-Presentation.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 12<br />
| [[ENT Polytech]]<br />
| HERY JULES,SALMON AMAD,VACHERIAS GUILLAUME<br />
| Nicolas Palix<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/12/docs/-/blob/master/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [[https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/12/docs/-/blob/master/Presentation_mi_parcours.pdf | Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 13<br />
| [[Polytech_Helper_Service|Polytech Helper Service]]<br />
| ALIBERT ANGELO,NOERIE SOPHIE,SARRE MARGAUX<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/13/docs/ Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/13/docs/-/blob/master/Pr%C3%A9sentation_Mi-Parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 14<br />
| [[Rust Engine|Rust Engine]]<br />
| BARET DORIAN,CHALOYARD LUCAS,MALOD VICTOR,PARA YAEL<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/14/docs/-/blob/master/tracking-sheet.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/14/docs/-/blob/master/soutenance-mi_parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 15<br />
| [[Retrocompute_simulateur|Retrocomputing]]<br />
| ELHADJI TCHIAMBOU SAMI,HUMBERT CORENTIN,MUTEL MATHIS<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/15/docs/-/blob/master/README.md#follow-up Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/15/docs/-/blob/master/diapo_soutenance_mi_parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 16<br />
| [[FPGA et Deep Learning]]<br />
| GEITNER TEVA,GONZALEZ JULES,MALECOT ETHAN<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/16/docs/-/blob/master/FPGA_info4_2020_2021.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/16/docs/-/blob/master/Presentation_mi-projet.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 17<br />
| [[OpenAPI OAR]]<br />
| LAMBERT DAPHNE,MINIER-MANCINI TITOUAN,TOUE TIOYE<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/17/docs/-/blob/master/TRACKING_SHEET.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [[Media:xxx.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 18<br />
| [[Monitoring de la plateforme CampusIoT]]<br />
| BLANQUET ANTOINE,LAMBERT PAUL,YUNG KEVIN<br />
| Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/18/docs/-/blob/master/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/18/docs/-/blob/master/Reunion_de_mi_parcours.pdf Presentation de mi-parcours]<br />
|-<br />
|}<br />
<br />
==INFO5==<br />
===Projet IoT S9===<br />
Enseignants responsables : Bernard Tourancheau<br />
<br />
Calendrier: ??? Septembre à ??? Décembre 2020.<br />
<br />
<br />
===Projet Semestre S10===<br />
<br />
Enseignants responsables : [[user:Donsez|Didier Donsez]]<br />
<br />
Calendrier: 28/01 (13H30-17H30) au 19/03.<br />
<br />
Séances de Management de projets innovants: A voir dessus.<br />
<br />
Réunion de présentation et choix des sujets: 28/01 (13H30-17H30) en salle P257 (voir ADE)<br />
<br />
Démarrage : 29/01 (13H30-17H30)<br />
<br />
Soutenance à mi-parcours : 26/02/2021 13H30-17H30 en distantiel (15 minutes par équipe).<br />
<br />
Soutenance finale : 19/03/2021 (8H30-12H00 et 13H30-17H00). 30 minutes par équipe, questions/réponses et démonstration incluse. Prière de rapporter au fablab le matériel emprunté juste après votre soutenance. <br />
<br />
====Séances MPI====<br />
<br />
Les séances MPI seront en distanciel (mais ADE fait foi).<br />
<br />
<pre><br />
Séance Thématique Date Horaires Intervenante Salle<br />
1 Définir la problématique 03-févr. 14h-18h Stéphanie Diligent distanciel<br />
2 Gérer le projet en restant agile 10-févr. 8h30 - 12h30 Stéphanie Diligent distanciel<br />
3 Communiquer 24-févr. 8h30 - 12h30 Emmanuelle Tréhoust distanciel<br />
4 Evaluer et valoriser 03-mars 8h30 - 12h30 Emmanuelle Tréhoust distanciel<br />
5 Evaluation 10-mars 8h30 - 12h30 Stéphanie Diligent distanciel<br />
</pre><br />
<br />
==== Soutenance intermédiaire S10 ====<br />
Date: 26/02 Après midi. Distantiel (sur Zoom).<br />
<br />
L'objectif de la soutenance intermédiaire est de vérifier si l'équipe projet est en bon ordre de marche. La présence du porteur n'est pas obligatoire. Prévoyez du temps pour les questions-réponses (5 minutes max).<br />
<br />
L'équipe présentera en 5-6 transparents en 8 minutes.<br />
* les équipiers et leurs rôles<br />
* le contexte, le sujet et l'objectif du projet<br />
* l'architecture du systèmes à réaliser<br />
* les technologies utilisées<br />
* le plan de travail (backlog, planning, ce qui est fait, ce qu'il reste à faire ...)<br />
* les difficultés (s'il y a)<br />
<br />
Respectez bien les créneaux indiqués (par respect pour les autres équipes).<br />
<br />
==== Soutenance finale S10 ====<br />
Date: 19/03/2021 (8H30-12H00 et 13H30-17H00).<br />
<br />
'''La présence du(des) porteur(s) est obligatoire. Pensez à les prévenir bien à l'avance'''<br />
<br />
Durée: 30 minutes par équipe: présentation, questions/réponses et démonstration incluse.<br />
<br />
Les documents devront être en ligne sur le wiki (colonne Documents) la veille (ie avant le 18/03/2021 23:59:59 CET).<br />
<br />
'''Remarque: le poster et le flyer (recto-verso A4 en 3 plis : [http://air.imag.fr/mediawiki/images/9/9b/FlyerCervin.pdf exemple]) doivent être rédigés en anglais.'''<br />
<br />
La présentation est constituée des chapitres suivants:<br />
* Rappel du sujet/besoin et cahier des charges<br />
* Technologies employées<br />
* Architecture techniques<br />
* Réalisations techniques<br />
* Gestion de projet (méthode, planning prévisionnel et effectif, gestion des risques, rôles des membres ...)<br />
* Outils (collaboration, CD/CI ...)<br />
* Métriques logiciels : lignes de code, langages, performance, temps ingénieur (d'après vos journaux), la répartition des lignes de code et des commits en pourcentage entre les membres du projet ...)<br />
* Conclusion (Retour d'expérience)<br />
* Transparent expliquant la démonstration<br />
<br />
L'ensemble des documents doit être accessible depuis le tableau ci-dessus et dans chaque fiche de suivi.<br />
<br />
Le screencast (réalisé lors de la dernière répétition) sera rendu disponible via un partage caché (wetransfer, google drive …) dont le lien sera ajouté dans le devoir idoine sur Moodle et également envoyé par mail à votre tuteur.<br />
<br />
Le rapport final contient les mêmes chapitres que la présentation ainsi qu'un glossaire et une bibliographie. Le rapport ne doit pas dépasser 15 pages (schémas et figures compris). Vous pourrez référencer les autres documents que vous avez produits au cours du projet (spécifications détaillées, algorithmes, conception d'écrans ...).<br />
<br />
Le rapport final est au format Markdown et doit être placé dans un des dépôts Git de votre groupe/organisation.<br />
<br />
NB: le rapport technique listé dans la colonne Documents contient tout ce qui ne tient pas dans les 15 pages du rapport final : cahier des charges, diagrammes UML, enquêtes utilisateurs design UI, API, technologies employées (détail), plan de tests, term of services, conformance RPGD, audits/diagnostiques sécurité, MTBR, rapport de vulnérabilité, plan de charge, rapports de charge, manuel d'installation … : ça dépend un peu de la nature de votre projet.<br />
<br />
Conseil : 30 minutes c'est très court alors répétez la soutenance auparavant ! Prévoyez des transparents supplémentaires en annexe pour répondre aux questions.<br />
<br />
NB: Vous pouvez prévoir d’organiser une démonstration plus longue de votre projet auprès de vos porteurs et vos tuteurs avant ou après la soutenance. <br />
<br />
<br />
'''Prière de rapporter au fablab le matériel emprunté juste après votre soutenance'''.<br />
<br />
==== Affectations S10====<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets INFO5 2020-2021<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Documents<br />
!scope="col"| Dépôt Git<br />
!scope="col"| Soutenance intermédiaire<br />
!scope="col"| Soutenance finale<br />
|-<br />
!scope="row"| 1<br />
| [[Infrastructure de communication interne au cubesat ATISE du CSUG | ATISE]]<br />
| Alexandre SALMON, Myriam LOMBARD, Killian PAREILLEUX, Adrien ARTAUD<br />
| Imane El-Khantouti (CSUG, UGA), Frédéric Martin (CSUG, UGA)<br />
| [[PROJET-INFO5 2021 ATISE| Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/Infrastructure_de_communication_interne_au_cubesat_ATISE_du_CSUG Documents], [[Media:ATISE_rapport.pdf|Rapport]], [[Media:ATISE_Flyer.pdf|Flyer]], [[Media:ATISE_Poster.pdf|Poster]], [[Pitch ATISE | Pitch]], [https://github.com/ATISE-2020-2021-Polytech-Grenoble/Docs/blob/master/ScreenCastATISE.ogv Screencast]<br />
| [https://github.com/ATISE-2020-2021-Polytech-Grenoble Dépôt Github]<br />
| 13H30, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_1.pdf|Présentation intermédiaire]]<br />
| 9H00, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_1.pdf|Présentation finale]]<br />
|-<br />
!scope="row"| 2<br />
| [[Wildcount:_Inexpensive_Edge_sensor_for_recognizing_and_counting_the_presence_of_humans_(anonymous)_and_animals_into_wild_and_protected_areas.|Wildcount]]<br />
| BEAUGRAND Elisa, DE GAUDENZI Louis, GRAUGNARD Tom, ROLLIN Alexis<br />
| DONSEZ Didier, QUENOT Georges<br />
| [[PROJET-INFO5_2021_Wildcount|Fiche de suivi]]<br />
| [[Wildcount:_Inexpensive_Edge_sensor_for_recognizing_and_counting_the_presence_of_humans_(anonymous)_and_animals_into_wild_and_protected_areas.|Documents]], [[Media:Wildcount_Flyer.pdf|Flyer][[Media:WildCount_Poster_Preversion_A0_printed.pdf|Poster]], [[Media:pitch_WildCount.pdf |Pitch]], Screencast<br />
| [https://gitlab.com/wildcount Dépôt Gitlab]<br />
| 13H45, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_2.pdf|Présentation]]<br />
| 14H30, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_2.pdf|Présentation]]<br />
|-<br />
!scope="row"| 5<br />
| [[Signature électronique eIDAS|eIDAS]]<br />
| ASSI Dima, BILOUNGA Aleck, EL AJI Houda, ZERAMDINI Otba<br />
| Nicolas PALIX<br />
| [[PROJET-INFO5 2021 Signature électronique eIDAS| Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/Signature_%C3%A9lectronique_eIDAS Documents],[https://github.com/2020-2021-EIDAS-INFO5/Docs/blob/master/Technical_document.md Rapport technique], [[Media:Flyer_EIDAS.pdf|Flyer]], Poster, [[Media:Pitch_eIDAS.pdf|Pitch]], Screencast<br />
| [https://github.com/2020-2021-EIDAS-INFO5 Dépôt Github]<br />
| 14H00, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_5.pdf|Présentation]]<br />
| 15H45, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_5.pdf|Présentation]]<br />
|-<br />
<br />
!scope="row"| 6<br />
| [[Contributions open source au projet EdCampus|EdCampus]]<br />
| COURTHIAL Samuel, FOUGERE Sebastien, DELBOS Robin<br />
| POLLIER Gérard, GEOURJON Anthony, DONSEZ Didier<br />
| [[PROJET-INFO5 2021 Contributions open source au projet EdCampus| Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/Contributions_open_source_au_projet_EdCampus Documents], [https://air.imag.fr/index.php/Rapport_Final_EDCampus Rapport],[[Media:flyer_EDCampus.pdf|Flyer]], [[Media:poster_EDCampus.pdf|Poster]], [[Media:pitch_EDCampus.pdf|Pitch]], Screencast<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/edcampus Dépôt GitLab]<br />
| 14H15, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_6.pdf|Présentation]]<br />
| 09H30, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_6.pdf|Présentation]]<br />
|-<br />
<br />
!scope="row"| 8<br />
| [[Prototypage d'application mobile pour la vente en direct de produits producteur locaux]]<br />
| BOLEAT Baptiste, CHAIX Manon, MICHELARD Leila, PALOMO Rémy<br />
| DELANGUE Sylvain, Gérard POLLIER (Disrupt Campus)<br />
| [[PROJET-INFO5 2021 Go Farmer | Fiche de suivi]]<br />
| [[Rapport final Go Farmer | Rapport Final]], [https://air.imag.fr/index.php/Prototypage_d%27application_mobile_pour_la_vente_en_direct_de_produits_producteur_locaux Documents], [[Media:Flyer Producteurs Locaux.pdf | Flyer]], [[Media:Poster_Producteurs_Locaux.pdf | Poster]], [[Media: Pitch_Producteurs_Locaux.pdf | Pitch]], Screencast<br />
| [https://bitbucket.org/gofarmer/ Dépôt Bitbucket (privé)]<br />
| 14H30, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_8.pdf|Présentation]]<br />
| 08H30, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_8.pdf|Présentation]]<br />
|-<br />
!scope="row"| 9<br />
| [[Secours Montagne avec LoRa|Saint-Bernard]]<br />
| CHATON Alexandra, FRION Thomas, PASDELOUP Romain<br />
| TOURANCHEAU Bernard<br />
| [[PROJET-INFO5 2021 Secours Montagne avec LoRa | Fiche de suivi]]<br />
| [https://gitlab.com/info5-lora-avalanche/documentation/-/blob/master/Reports/Rapport%20Final.pdf Rapport final], [https://gitlab.com/info5-lora-avalanche/documentation/-/blob/master/Reports/Final%20Report.md Rapport final (MD)] [https://gitlab.com/info5-lora-avalanche/documentation/-/blob/master/Presentation/Flyer_projet_Saint-Bernard.pdf Flyer], [https://gitlab.com/info5-lora-avalanche/documentation/-/blob/master/Presentation/Poster_project_Saint-Bernard.pdf Poster], [https://gitlab.com/info5-lora-avalanche/documentation/-/blob/master/Reports/Pitch.pdf Pitch], Screencast<br />
| [https://gitlab.com/info5-lora-avalanche Gitlab]<br />
| 15H00, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_9.pdf|Présentation]]<br />
| 14H00, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_9.pdf|Présentation]]<br />
|-<br />
!scope="row"| 10<br />
| [[GenderedNews|GenderedNews]]<br />
| HO Nhat Quang, MURPHY Mica, NGUENA Gloria, SAGET Antoine<br />
| PORTET François, BASTIN Gilles, RICHARD Ange<br />
| [[PROJET-INFO5 2021 GenderedNews | Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/GenderedNews Documents], Flyer, Poster, Pitch, Screencast<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/getalp/genderednews Dépôt GitLab]<br />
| 15H15, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_10.pdf|Présentation]]<br />
| 13H30, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_10.pdf|Présentation]]<br />
|-<br />
!scope="row"| 11<br />
| [[Réseaux social d'organisation de sortie|Réseaux social d'organisation de sortie]]<br />
| EL JRAIDI Rim, VERNET Maxime, SAJIDE Idriss, MANISSADJIAN Gabriel<br />
| RICHARD Olivier<br />
| [[PROJET-INFO5 2021 Réseaux social d'organisation de sortie | Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/R%C3%A9seaux_social_d%27organisation_de_sortie Documents], [[Media:flyer_Osons_sortie.pdf|Flyer]], [[Media:poster_Osons_sortie.pdf|Poster]], [[Media:Pitch_organisation_sorties.pdf|Pitch]], Screencast, [https://www.figma.com/file/lx1mwonG7jEUYKggjGQvIJ/Maquette?node-id=0%3A1 Maquette, [[Media:Osons_sortir_rapport.pdf|Rapport final]], [[Media:Osons_sortir_rapport_technique.pdf|Rapport technique]]]<br />
| [https://github.com/2020-2021-PROJET-INFO5-G11 Dépot Git (privé)]<br />
| 15H30, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_11.pdf|Présentation]]<br />
| 10H15, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_11.pdf|Présentation]]<br />
|-<br />
!scope="row"| 13<br />
| [[Artiphonie (saison 2)|Artiphonie (saison 2)]]<br />
| CROCIATI Morgan, RIVAL Gaëtan, RUZAFA Rémy, VELUT Claire <br />
| Bastien De Araujo, Guillaume Denis, Estelle Gillet-Perret et Olivier Richard<br />
| [[PROJET-INFO5 2021 Artiphonie (saison 2) | Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/Artiphonie_(saison_2) Documents],[https://github.com/WriteInGesturesProject/docs/blob/master/2021/Rapport_Final.md Rapport Final], [https://github.com/WriteInGesturesProject/docs/blob/master/2021/Rapport_Technique.md Rapport Technique], [[Media:Artiphonie_presentation_final.pdf| Présentation Final]], [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_13.pdf|Présentation Mi-Projet]], [[Media:Flyer_-_Atrhiphonie.pdf|Flyer]], [[Media:Poster_Atrhiphonie.pdf|Poster]], [[Media:Pitch_Artiphonie.pdf|Pitch]], [https://drive.google.com/file/d/1B2W_On2FSED2HAKQ3kXJOOuL1RUmcJl7/view?usp=sharing Screencast]<br />
| [https://github.com/WriteInGesturesProject Dépôt Github]<br />
| 15H45, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_13.pdf|Présentation]]<br />
| 10H45, [[Media:Artiphonie_presentation_final.pdf| Présentation]]<br />
|-<br />
|scope="row"| 14<br />
| [[Covoiturage solidaire avec borne d'appel|Covoiturage solidaire avec borne d'appel]]<br />
| EL MUFTI Ali, NELSON William<br />
| Christine Verdier, Fabrice Forest (Didier Donsez pour le support technique borne d'appel).<br />
| [[PROJET-INFO5 2021 Covoiturage solidaire avec borne d'appel| Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/Covoiturage_solidaire_avec_borne_d%27appel Documents], [[Media:flyermobipa.pdf|Flyer]], [[Media:mobipa.pdf|Poster]], [[Media:Pitch_Groupe14.pdf|Pitch]], Screencast<br />
| [https://github.com/OliDesu/MoBiPa Dépôt GitHub] <br />
| 16H00, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_14.pdf|Présentation]]<br />
| 15H15, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_14.pdf|Présentation]]<br />
|}<br />
<br />
====Projets non choisis====<br />
* [[LoRaWAN Roaming]] avec [[Chirpstack]] et [[TheThingStack]]: Didier Donsez, Bernard Tourancheau.<br />
* [[Contributions open-source au projet JHipster]] : Didier Donsez<br />
* [[Test d'infrastructures avec NixOS]] Olivier Richard et Quentin Guilloteau</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=File:Wildcount_Flyer.pdf&diff=51029File:Wildcount Flyer.pdf2021-03-18T21:05:06Z<p>Elisa.Beaugrand: Elisa.Beaugrand uploaded a new version of File:Wildcount Flyer.pdf</p>
<hr />
<div></div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=File:Presentation_Finale_INFO5_ProjetS10_groupe_2.pdf&diff=51028File:Presentation Finale INFO5 ProjetS10 groupe 2.pdf2021-03-18T21:03:00Z<p>Elisa.Beaugrand: </p>
<hr />
<div></div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=File:Wildcount_Flyer.pdf&diff=51027File:Wildcount Flyer.pdf2021-03-18T21:00:51Z<p>Elisa.Beaugrand: </p>
<hr />
<div></div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=Projets_2020-2021&diff=51026Projets 2020-20212021-03-18T21:00:13Z<p>Elisa.Beaugrand: /* Affectations S10 */</p>
<hr />
<div><<[[Projets 2019-2020]] | [[Projets]] | [[Projets 2021-2022]]>><br />
=INFO=<br />
==INFO3==<br />
<br />
==INFO4==<br />
===Projet Semestre S8===<br />
<br />
Enseignants responsables : Olivier Richard, Didier Donsez<br />
<br />
* Dates : Lundi après-midi, Mardi après-midi <br />
* Lancement: 18 Janvier 2021 après midi<br />
* Soutenance à mi-parcours: A définir<br />
* Soutenance: A définir<br />
<br />
* '''Evaluation à mi-parcours le lundi/mardi ???''': Format: 10min (5min de présentation 3 slides au plus, 5min de discussion). Cette évaluation sera prise en compte dans la note finale.<br />
<br />
'''Consignes générales:'''<br />
<br />
* '''Vous devez être pro-actifs !!!''': Si des points sont pas ou mals spécifiés, vous le faîtes et vous justifiez vos choix. Pour les problèmes techniques éventuels vous pouvez: creuser la question, contacter l'auteur du code si il y a lieu, écrire un rapport de bug ('''Attention:''' ca se prépare !), soumettre un patch/pull request, contacter l'enseignant ou la personne référente du projet.<br />
<br />
* '''Vous devez maintenir une fiche de suivi de projet''': elle doit être mise à jour chaque semaine, elle rassemble les élements essentiels du projet, elle indique les évolutions du projet et présente sa feuille de route. '''Note:''' le nom de la fiche doit être composé du nom du projet et suffixé par info4_2020_2021. '''Cette fiche compte pour la note finale'''<br />
<br />
* '''Votre code''' pour doit être hébergé sur le gitlab et à l'URL suivante https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21 , vous utiliserez votre compte UGA.<br />
<br />
* Chaque projet doit avoir '''aux moins 2 dépôts git''':<br />
** '''Un pour les documents''' demandés rapport, présentation de pré-soutenante, de soutenance, flyer. '''Il sera appelé documents.'''<br />
** Un ou plusieurs pour le code, les tests, les évaluations, les preuves de concept, la ou les documentations afférentes. <br />
<br />
* Les '''documents public doivent être rédigés en anglais (README, documentation, commentaires de code, nom de variables et de fonctions)'''. Le *rapport* sera aussi demandé en *anglais* (il fera la taille d'un rapport de TP). Les transparents des présentation peuvent être en anglais ou en francais, la soutenance sera taire en francais.<br />
<br />
* '''La note obtenue''' tiendra compte du '''nombre et de la qualité des commits''' observé dans '''vos dépots git et la branche master''' (or depot documents). La qualité comprend l'intitulé du commit et son contenu. Les notes pourront être différentiées dans un groupe, il n'est pas acceptable de pas avoir de commit dans le(s) dépôt(s) du projet (or dépôt documents).<br />
<br />
* Il est fortement conseillé de suivre un '''développement incrémental''' qui permette d'avoir à tout moment un démonstrateur à présenter, un projet peut être constituer d'une succession de '''démonstrateurs présentables séparément'''.<br />
<br />
* Vous devez faire aussi des '''schémas d'architectures générales et/ou spéficiques, des diagrammes de séquence''', et autre documents de spécification si nécessaire. Ces documents vous serviront de base de discussion/brainstorming interne ainsi que dans vos différents documents (rapport, présentations, documentation). Ces schémas sont avant tout conceptuels et techniques.<br />
<br />
===Propositions de projets S8===<br />
<br />
* 1. [[Contribution au projet STM32Python]], Didier DONSEZ.<br />
* 2. [[Portage du kit station LoRa LRWAN2 de ST sur RIOT OS]], Didier DONSEZ.<br />
* 3+4. [[Portage de la carte de prototypage IoT Nucleo-WL55JC sur RIOT OS]] + [[Portage de la carte de communication LoRa LLCC68MB2BAS sur RIOT OS]], Didier DONSEZ (1 seul groupe de 3 élèves pour les 2 cartes).<br />
* 5. [[Service Web d'équipements embarqués communicant sur bus CAN]] (2 groupes de 2 élèves), Didier DONSEZ.<br />
* 6. [[Application mobile d'enregistrements de noeuds IoT LoRaWAN dans plusieurs réseaux]], Didier DONSEZ.<br />
* 7. [[Evaluation du toolkit AI de STM32 pour l'analyse de l'environnement sonore]], Didier DONSEZ.<br />
* 8. [[Godot Game Engine et tables tactiles]] : démonstration d'un jeu en réseau sur les 3 tables tactiles : (gaming spirit) Olivier RICHARD.<br />
* 9. [[Serveur filière INFO]], Nicolas Palix<br />
* Agriculture connectée en partenariat avec les projets collectifs IESE/MAT<br />
** 10. [[ASAC/AP|Polytech]] : Nicolas Palix<br />
** 11. [[ASAC/SJC|St Cassien]] : Nicolas Palix<br />
* 12. [[ENT Polytech]] avec XMPP/Mumble/BBB/Mattermost/OpenBoard : Nicolas Palix<br />
* 13. [[Polytech Helper Service | Outils d'aide à la gestion de service]], (professionel) Olivier Richard<br />
* 14. [[Rust Engine | Executeur de tâche en Rust]], (exigeant techniquement) Olivier Richard<br />
* 15. [[Retrocompute simulateur | RetroComputing]]: (vintage style) Coupler le simulateur Digital avec un simulateur de processeur 8bits, Olivier Richard<br />
* 16. [[FPGA et Deep Learnning]] Olivier Richard<br />
* 17. [[OpenAPI OAR | OpenAPI pour la gestion de tâches de ressources OAR]], (professionel) Olivier Richard <br />
* 18. [[Monitoring de la plateforme CampusIoT]] : Didier Donsez<br />
<br />
==== Reporté INFO5 21-22 ==== <br />
* 1 heure 1 heure (échange de compétence), etudiant.e.s Emilie Tondeux + ?, tuteur ?<br />
==== Reporté ====<br />
[[Simulateur de réseaux simples avec un FPGA]], (typé recherche/prospectif)<br />
<br />
==== Affectation ====<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets INFO4 20-21<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 1<br />
| [[Contribution au projet STM32Python]]<br />
| BAUDEUR BERTRAND,LANQUETIN ALEXIS,TONDEUX EMILIE<br />
| Didier DONSEZ<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/01/docs/-/blob/master/Contribution%20au%20projet%20STM32Python%20info4_2020_2021.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/01/docs/-/blob/master/Pr%C3%A9sentation_mi-parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 2<br />
| [[Portage du kit station LoRa LRWAN2 de ST sur RIOT OS]]<br />
| HERQUE ERIC,MALLEN GUILLAUME,PORTIER BARNAB<br />
| Didier DONSEZ<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/02/docs/-/blob/master/Portage_du_kit_station_LoRa_LRWAN2_de_ST_sur_RIOT_OS_info4_2020_2021.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/02/docs/-/blob/master/Pr%C3%A9sentation%20de%20mi-parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 5<br />
| [[Service Web d'équipements embarqués communicant sur bus CAN]]<br />
| ANDRIEUX LIAM,DREZET LUCAS,REGOUIN ROMAN<br />
| Didier DONSEZ<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/05/docs/-/blob/master/EmbeddedEquipmentWebServiceCommunicatingOnCANBus_info4_2020_2021.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/05/docs/-/blob/master/Pre%20viva%20presentation.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 6<br />
| [[Application mobile d'enregistrements de noeuds IoT LoRaWAN dans plusieurs réseaux]]<br />
| CAMBUS QUENTIN,EL YANDOUZI ELIAS,JULIENNE MALONE<br />
| Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/06/docs/-/blob/master/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/06/docs/-/blob/master/Pr%C3%A9sentation_IoT.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 7<br />
| [[ Evaluation du toolkit AI de STM32 pour reconnaissance sonore]]<br />
| COSOTTI KEVIN,GRANGER OSCAR,GUIGNARD JULIE<br />
| Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/07/docs/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [[https://docs.google.com/presentation/d/15RCcuoAWGlpOLyM_SX3tXVhhXEHiTuNTXXxRCrJ4tiA/edit?usp=sharing |Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 8<br />
| [[Godot Game Engine et tables tactiles|Godot Engine]]<br />
| CIRSTEA PAUL,DE MULATIER JEAN-THEOPHANE,SOULARD ALEXANDR<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/08/docs/-/blob/master/Godot_Game_Engine_et_tables_tactiles_info4_2020_2021.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [[https://docs.google.com/presentation/d/1CUBp5Zz1uivkCb8latQ8tnfSy-bUTJs-7f3f7GcH4Zs/edit?usp=sharing |Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 9<br />
| [[Serveur_filière_INFO|Serveur INFO]]<br />
| GITTON ANTOINE,MERTENS GILLES,SUEUR CORENTIN<br />
| Nicolas Palix<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/09/docs/-/blob/master/Serveur_filiere_info4_2020_2021.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [[Media:Presentation_mi_parcours_groupe7.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 10<br />
| [[ASAC/AP|Serre Polytech]]<br />
| AGUIAR MATHILDE,HAJJI OUMAIMA,SIDIBE ROKIATOU DITE ROSE<br />
| Nicolas Palix<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/10/docs/-/blob/master/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [[https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/10/docs/-/blob/master/Presentations/mid-project_slides.pdf | Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 11<br />
| [[ASAC/SJC/SJC-2020-INFO]]<br />
| BUISINE JULIEN,PRAT-CAPILLA HUGO,TEYSSIER THEO<br />
| Nicolas Palix<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/11/docs/-/blob/master/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/11/docs/-/blob/master/Team11-Presentation.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 12<br />
| [[ENT Polytech]]<br />
| HERY JULES,SALMON AMAD,VACHERIAS GUILLAUME<br />
| Nicolas Palix<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/12/docs/-/blob/master/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [[https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/12/docs/-/blob/master/Presentation_mi_parcours.pdf | Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 13<br />
| [[Polytech_Helper_Service|Polytech Helper Service]]<br />
| ALIBERT ANGELO,NOERIE SOPHIE,SARRE MARGAUX<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/13/docs/ Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/13/docs/-/blob/master/Pr%C3%A9sentation_Mi-Parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 14<br />
| [[Rust Engine|Rust Engine]]<br />
| BARET DORIAN,CHALOYARD LUCAS,MALOD VICTOR,PARA YAEL<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/14/docs/-/blob/master/tracking-sheet.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/14/docs/-/blob/master/soutenance-mi_parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 15<br />
| [[Retrocompute_simulateur|Retrocomputing]]<br />
| ELHADJI TCHIAMBOU SAMI,HUMBERT CORENTIN,MUTEL MATHIS<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/15/docs/-/blob/master/README.md#follow-up Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/15/docs/-/blob/master/diapo_soutenance_mi_parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 16<br />
| [[FPGA et Deep Learning]]<br />
| GEITNER TEVA,GONZALEZ JULES,MALECOT ETHAN<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/16/docs/-/blob/master/FPGA_info4_2020_2021.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/16/docs/-/blob/master/Presentation_mi-projet.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 17<br />
| [[OpenAPI OAR]]<br />
| LAMBERT DAPHNE,MINIER-MANCINI TITOUAN,TOUE TIOYE<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/17/docs/-/blob/master/TRACKING_SHEET.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [[Media:xxx.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 18<br />
| [[Monitoring de la plateforme CampusIoT]]<br />
| BLANQUET ANTOINE,LAMBERT PAUL,YUNG KEVIN<br />
| Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/18/docs/-/blob/master/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Final Presentation]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/20-21/18/docs/-/blob/master/Reunion_de_mi_parcours.pdf Presentation de mi-parcours]<br />
|-<br />
|}<br />
<br />
==INFO5==<br />
===Projet IoT S9===<br />
Enseignants responsables : Bernard Tourancheau<br />
<br />
Calendrier: ??? Septembre à ??? Décembre 2020.<br />
<br />
<br />
===Projet Semestre S10===<br />
<br />
Enseignants responsables : [[user:Donsez|Didier Donsez]]<br />
<br />
Calendrier: 28/01 (13H30-17H30) au 19/03.<br />
<br />
Séances de Management de projets innovants: A voir dessus.<br />
<br />
Réunion de présentation et choix des sujets: 28/01 (13H30-17H30) en salle P257 (voir ADE)<br />
<br />
Démarrage : 29/01 (13H30-17H30)<br />
<br />
Soutenance à mi-parcours : 26/02/2021 13H30-17H30 en distantiel (15 minutes par équipe).<br />
<br />
Soutenance finale : 19/03/2021 (8H30-12H00 et 13H30-17H00). 30 minutes par équipe, questions/réponses et démonstration incluse. Prière de rapporter au fablab le matériel emprunté juste après votre soutenance. <br />
<br />
====Séances MPI====<br />
<br />
Les séances MPI seront en distanciel (mais ADE fait foi).<br />
<br />
<pre><br />
Séance Thématique Date Horaires Intervenante Salle<br />
1 Définir la problématique 03-févr. 14h-18h Stéphanie Diligent distanciel<br />
2 Gérer le projet en restant agile 10-févr. 8h30 - 12h30 Stéphanie Diligent distanciel<br />
3 Communiquer 24-févr. 8h30 - 12h30 Emmanuelle Tréhoust distanciel<br />
4 Evaluer et valoriser 03-mars 8h30 - 12h30 Emmanuelle Tréhoust distanciel<br />
5 Evaluation 10-mars 8h30 - 12h30 Stéphanie Diligent distanciel<br />
</pre><br />
<br />
==== Soutenance intermédiaire S10 ====<br />
Date: 26/02 Après midi. Distantiel (sur Zoom).<br />
<br />
L'objectif de la soutenance intermédiaire est de vérifier si l'équipe projet est en bon ordre de marche. La présence du porteur n'est pas obligatoire. Prévoyez du temps pour les questions-réponses (5 minutes max).<br />
<br />
L'équipe présentera en 5-6 transparents en 8 minutes.<br />
* les équipiers et leurs rôles<br />
* le contexte, le sujet et l'objectif du projet<br />
* l'architecture du systèmes à réaliser<br />
* les technologies utilisées<br />
* le plan de travail (backlog, planning, ce qui est fait, ce qu'il reste à faire ...)<br />
* les difficultés (s'il y a)<br />
<br />
Respectez bien les créneaux indiqués (par respect pour les autres équipes).<br />
<br />
==== Soutenance finale S10 ====<br />
Date: 19/03/2021 (8H30-12H00 et 13H30-17H00).<br />
<br />
'''La présence du(des) porteur(s) est obligatoire. Pensez à les prévenir bien à l'avance'''<br />
<br />
Durée: 30 minutes par équipe: présentation, questions/réponses et démonstration incluse.<br />
<br />
Les documents devront être en ligne sur le wiki (colonne Documents) la veille (ie avant le 18/03/2021 23:59:59 CET).<br />
<br />
'''Remarque: le poster et le flyer (recto-verso A4 en 3 plis : [http://air.imag.fr/mediawiki/images/9/9b/FlyerCervin.pdf exemple]) doivent être rédigés en anglais.'''<br />
<br />
La présentation est constituée des chapitres suivants:<br />
* Rappel du sujet/besoin et cahier des charges<br />
* Technologies employées<br />
* Architecture techniques<br />
* Réalisations techniques<br />
* Gestion de projet (méthode, planning prévisionnel et effectif, gestion des risques, rôles des membres ...)<br />
* Outils (collaboration, CD/CI ...)<br />
* Métriques logiciels : lignes de code, langages, performance, temps ingénieur (d'après vos journaux), la répartition des lignes de code et des commits en pourcentage entre les membres du projet ...)<br />
* Conclusion (Retour d'expérience)<br />
* Transparent expliquant la démonstration<br />
<br />
L'ensemble des documents doit être accessible depuis le tableau ci-dessus et dans chaque fiche de suivi.<br />
<br />
Le screencast (réalisé lors de la dernière répétition) sera rendu disponible via un partage caché (wetransfer, google drive …) dont le lien sera ajouté dans le devoir idoine sur Moodle et également envoyé par mail à votre tuteur.<br />
<br />
Le rapport final contient les mêmes chapitres que la présentation ainsi qu'un glossaire et une bibliographie. Le rapport ne doit pas dépasser 15 pages (schémas et figures compris). Vous pourrez référencer les autres documents que vous avez produits au cours du projet (spécifications détaillées, algorithmes, conception d'écrans ...).<br />
<br />
Le rapport final est au format Markdown et doit être placé dans un des dépôts Git de votre groupe/organisation.<br />
<br />
NB: le rapport technique listé dans la colonne Documents contient tout ce qui ne tient pas dans les 15 pages du rapport final : cahier des charges, diagrammes UML, enquêtes utilisateurs design UI, API, technologies employées (détail), plan de tests, term of services, conformance RPGD, audits/diagnostiques sécurité, MTBR, rapport de vulnérabilité, plan de charge, rapports de charge, manuel d'installation … : ça dépend un peu de la nature de votre projet.<br />
<br />
Conseil : 30 minutes c'est très court alors répétez la soutenance auparavant ! Prévoyez des transparents supplémentaires en annexe pour répondre aux questions.<br />
<br />
NB: Vous pouvez prévoir d’organiser une démonstration plus longue de votre projet auprès de vos porteurs et vos tuteurs avant ou après la soutenance. <br />
<br />
<br />
'''Prière de rapporter au fablab le matériel emprunté juste après votre soutenance'''.<br />
<br />
==== Affectations S10====<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets INFO5 2020-2021<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Documents<br />
!scope="col"| Dépôt Git<br />
!scope="col"| Soutenance intermédiaire<br />
!scope="col"| Soutenance finale<br />
|-<br />
!scope="row"| 1<br />
| [[Infrastructure de communication interne au cubesat ATISE du CSUG | ATISE]]<br />
| Alexandre SALMON, Myriam LOMBARD, Killian PAREILLEUX, Adrien ARTAUD<br />
| Imane El-Khantouti (CSUG, UGA), Frédéric Martin (CSUG, UGA)<br />
| [[PROJET-INFO5 2021 ATISE| Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/Infrastructure_de_communication_interne_au_cubesat_ATISE_du_CSUG Documents], [[Media:ATISE_rapport.pdf|Rapport]], [[Media:ATISE_Flyer.pdf|Flyer]], [[Media:ATISE_Poster.pdf|Poster]], [[Pitch ATISE | Pitch]], [https://github.com/ATISE-2020-2021-Polytech-Grenoble/Docs/blob/master/ScreenCastATISE.ogv Screencast]<br />
| [https://github.com/ATISE-2020-2021-Polytech-Grenoble Dépôt Github]<br />
| 13H30, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_1.pdf|Présentation intermédiaire]]<br />
| 9H00, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_1.pdf|Présentation finale]]<br />
|-<br />
!scope="row"| 2<br />
| [[Wildcount:_Inexpensive_Edge_sensor_for_recognizing_and_counting_the_presence_of_humans_(anonymous)_and_animals_into_wild_and_protected_areas.|Wildcount]]<br />
| BEAUGRAND Elisa, DE GAUDENZI Louis, GRAUGNARD Tom, ROLLIN Alexis<br />
| DONSEZ Didier, QUENOT Georges<br />
| [[PROJET-INFO5_2021_Wildcount|Fiche de suivi]]<br />
| [[Wildcount:_Inexpensive_Edge_sensor_for_recognizing_and_counting_the_presence_of_humans_(anonymous)_and_animals_into_wild_and_protected_areas.|Documents]], <br />
[[Media:Wildcount_Flyer.pdf|Flyer]], <br />
[[Media:WildCount_Poster_Preversion_A0_printed.pdf|Poster]], <br />
[[Media:pitch_WildCount.pdf |Pitch]], <br />
Screencast<br />
| [https://gitlab.com/wildcount Dépôt Gitlab]<br />
| 13H45, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_2.pdf|Présentation]]<br />
| 14H30, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_2.pdf|Présentation]]<br />
|-<br />
!scope="row"| 5<br />
| [[Signature électronique eIDAS|eIDAS]]<br />
| ASSI Dima, BILOUNGA Aleck, EL AJI Houda, ZERAMDINI Otba<br />
| Nicolas PALIX<br />
| [[PROJET-INFO5 2021 Signature électronique eIDAS| Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/Signature_%C3%A9lectronique_eIDAS Documents],[https://github.com/2020-2021-EIDAS-INFO5/Docs/blob/master/Technical_document.md Rapport technique], [[Media:Flyer_EIDAS.pdf|Flyer]], Poster, [[Media:Pitch_eIDAS.pdf|Pitch]], Screencast<br />
| [https://github.com/2020-2021-EIDAS-INFO5 Dépôt Github]<br />
| 14H00, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_5.pdf|Présentation]]<br />
| 15H45, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_5.pdf|Présentation]]<br />
|-<br />
<br />
!scope="row"| 6<br />
| [[Contributions open source au projet EdCampus|EdCampus]]<br />
| COURTHIAL Samuel, FOUGERE Sebastien, DELBOS Robin<br />
| POLLIER Gérard, GEOURJON Anthony, DONSEZ Didier<br />
| [[PROJET-INFO5 2021 Contributions open source au projet EdCampus| Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/Contributions_open_source_au_projet_EdCampus Documents], [https://air.imag.fr/index.php/Rapport_Final_EDCampus Rapport],[[Media:flyer_EDCampus.pdf|Flyer]], [[Media:poster_EDCampus.pdf|Poster]], [[Media:pitch_EDCampus.pdf|Pitch]], Screencast<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/edcampus Dépôt GitLab]<br />
| 14H15, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_6.pdf|Présentation]]<br />
| 09H30, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_6.pdf|Présentation]]<br />
|-<br />
<br />
!scope="row"| 8<br />
| [[Prototypage d'application mobile pour la vente en direct de produits producteur locaux]]<br />
| BOLEAT Baptiste, CHAIX Manon, MICHELARD Leila, PALOMO Rémy<br />
| DELANGUE Sylvain, Gérard POLLIER (Disrupt Campus)<br />
| [[PROJET-INFO5 2021 Go Farmer | Fiche de suivi]]<br />
| [[Rapport final Go Farmer | Rapport Final]], [https://air.imag.fr/index.php/Prototypage_d%27application_mobile_pour_la_vente_en_direct_de_produits_producteur_locaux Documents], [[Media:Flyer Producteurs Locaux.pdf | Flyer]], [[Media:Poster_Producteurs_Locaux.pdf | Poster]], [[Media: Pitch_Producteurs_Locaux.pdf | Pitch]], Screencast<br />
| [https://bitbucket.org/gofarmer/ Dépôt Bitbucket (privé)]<br />
| 14H30, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_8.pdf|Présentation]]<br />
| 08H30, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_8.pdf|Présentation]]<br />
|-<br />
!scope="row"| 9<br />
| [[Secours Montagne avec LoRa|Saint-Bernard]]<br />
| CHATON Alexandra, FRION Thomas, PASDELOUP Romain<br />
| TOURANCHEAU Bernard<br />
| [[PROJET-INFO5 2021 Secours Montagne avec LoRa | Fiche de suivi]]<br />
| [https://gitlab.com/info5-lora-avalanche/documentation/-/blob/master/Reports/Rapport%20Final.pdf Rapport final], [https://gitlab.com/info5-lora-avalanche/documentation/-/blob/master/Reports/Final%20Report.md Rapport final (MD)] [https://gitlab.com/info5-lora-avalanche/documentation/-/blob/master/Presentation/Flyer_projet_Saint-Bernard.pdf Flyer], [https://gitlab.com/info5-lora-avalanche/documentation/-/blob/master/Presentation/Poster_project_Saint-Bernard.pdf Poster], [https://gitlab.com/info5-lora-avalanche/documentation/-/blob/master/Reports/Pitch.pdf Pitch], Screencast<br />
| [https://gitlab.com/info5-lora-avalanche Gitlab]<br />
| 15H00, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_9.pdf|Présentation]]<br />
| 14H00, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_9.pdf|Présentation]]<br />
|-<br />
!scope="row"| 10<br />
| [[GenderedNews|GenderedNews]]<br />
| HO Nhat Quang, MURPHY Mica, NGUENA Gloria, SAGET Antoine<br />
| PORTET François, BASTIN Gilles, RICHARD Ange<br />
| [[PROJET-INFO5 2021 GenderedNews | Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/GenderedNews Documents], Flyer, Poster, Pitch, Screencast<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/getalp/genderednews Dépôt GitLab]<br />
| 15H15, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_10.pdf|Présentation]]<br />
| 13H30, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_10.pdf|Présentation]]<br />
|-<br />
!scope="row"| 11<br />
| [[Réseaux social d'organisation de sortie|Réseaux social d'organisation de sortie]]<br />
| EL JRAIDI Rim, VERNET Maxime, SAJIDE Idriss, MANISSADJIAN Gabriel<br />
| RICHARD Olivier<br />
| [[PROJET-INFO5 2021 Réseaux social d'organisation de sortie | Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/R%C3%A9seaux_social_d%27organisation_de_sortie Documents], [[Media:flyer_Osons_sortie.pdf|Flyer]], [[Media:poster_Osons_sortie.pdf|Poster]], [[Media:Pitch_organisation_sorties.pdf|Pitch]], Screencast, [https://www.figma.com/file/lx1mwonG7jEUYKggjGQvIJ/Maquette?node-id=0%3A1 Maquette, [[Media:Osons_sortir_rapport.pdf|Rapport final]], [[Media:Osons_sortir_rapport_technique.pdf|Rapport technique]]]<br />
| [https://github.com/2020-2021-PROJET-INFO5-G11 Dépot Git (privé)]<br />
| 15H30, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_11.pdf|Présentation]]<br />
| 10H15, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_11.pdf|Présentation]]<br />
|-<br />
!scope="row"| 13<br />
| [[Artiphonie (saison 2)|Artiphonie (saison 2)]]<br />
| CROCIATI Morgan, RIVAL Gaëtan, RUZAFA Rémy, VELUT Claire <br />
| Bastien De Araujo, Guillaume Denis, Estelle Gillet-Perret et Olivier Richard<br />
| [[PROJET-INFO5 2021 Artiphonie (saison 2) | Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/Artiphonie_(saison_2) Documents],[https://github.com/WriteInGesturesProject/docs/blob/master/2021/Rapport_Final.md Rapport Final], [https://github.com/WriteInGesturesProject/docs/blob/master/2021/Rapport_Technique.md Rapport Technique], [[Media:Artiphonie_presentation_final.pdf| Présentation Final]], [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_13.pdf|Présentation Mi-Projet]], [[Media:Flyer_-_Atrhiphonie.pdf|Flyer]], [[Media:Poster_Atrhiphonie.pdf|Poster]], [[Media:Pitch_Artiphonie.pdf|Pitch]], [https://drive.google.com/file/d/1B2W_On2FSED2HAKQ3kXJOOuL1RUmcJl7/view?usp=sharing Screencast]<br />
| [https://github.com/WriteInGesturesProject Dépôt Github]<br />
| 15H45, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_13.pdf|Présentation]]<br />
| 10H45, [[Media:Artiphonie_presentation_final.pdf| Présentation]]<br />
|-<br />
|scope="row"| 14<br />
| [[Covoiturage solidaire avec borne d'appel|Covoiturage solidaire avec borne d'appel]]<br />
| EL MUFTI Ali, NELSON William<br />
| Christine Verdier, Fabrice Forest (Didier Donsez pour le support technique borne d'appel).<br />
| [[PROJET-INFO5 2021 Covoiturage solidaire avec borne d'appel| Fiche de suivi]]<br />
| [https://air.imag.fr/index.php/Covoiturage_solidaire_avec_borne_d%27appel Documents], [[Media:flyermobipa.pdf|Flyer]], [[Media:mobipa.pdf|Poster]], [[Media:Pitch_Groupe14.pdf|Pitch]], Screencast<br />
| [https://github.com/OliDesu/MoBiPa Dépôt GitHub] <br />
| 16H00, [[Media:Presentation_Intermediaire_INFO5_ProjetS10_groupe_14.pdf|Présentation]]<br />
| 15H15, [[Media:Presentation_Finale_INFO5_ProjetS10_groupe_14.pdf|Présentation]]<br />
|}<br />
<br />
====Projets non choisis====<br />
* [[LoRaWAN Roaming]] avec [[Chirpstack]] et [[TheThingStack]]: Didier Donsez, Bernard Tourancheau.<br />
* [[Contributions open-source au projet JHipster]] : Didier Donsez<br />
* [[Test d'infrastructures avec NixOS]] Olivier Richard et Quentin Guilloteau</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=File:Presentation_Intermediaire_INFO5_ProjetS10_groupe_2.pdf&diff=50578File:Presentation Intermediaire INFO5 ProjetS10 groupe 2.pdf2021-02-26T12:34:38Z<p>Elisa.Beaugrand: </p>
<hr />
<div></div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020&diff=49775VT20202021-01-04T10:09:19Z<p>Elisa.Beaugrand: /* Séance 6 : 4/1 */</p>
<hr />
<div>[[VT2019|<< Etudes 2019]] [[VT|Sommaire]] [[VT2021|Etudes 2021 >>]]<br />
<br />
<br />
=Veille Technologique et Stratégique=<br />
* Enseignants: [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
* UE/Module: EAM (HPRJ9R6B) et EAR (HPRJ9R4B) en 1FO5<br />
<br />
L'objectif de cette UE est de réaliser un travail de synthèse et d’évaluation sur une technologie / spécification / tendance<br />
<br />
Dans votre futur vie d'ingénieur, vous aurez à d'une part, vous former par vous-même sur une technologie émergente et d'autre part à réaliser une veille technologique (et stratégique) par rapport à votre entreprise et projet.<br />
Il s'agira de réaliser<br />
* le positionnement par rapport au marché<br />
* d'être critique<br />
<br />
Votre synthèse fait l'objet d'une présentation orale convaincante devant un auditoire (dans le futur, vos collègues, vos chefs ou vos clients) avec des transparents et un discours répété.<br />
Pour finir de convaincre (Saint Thomas), vous ferez la présentation d'une démonstration.<br />
<br />
Votre présentation sera notée et commentée par tous vos camarades via un sondage (téléphone mobile). Leurs notes et leurs commentaires seront notés en fonction de leur exactitude de jugement.<br />
<br />
Remarque: Le [https://fr.wikipedia.org/wiki/Plagiat plagiat] est incompatible avec l'éthique de l'ingénieur. Le directeur d'école peut demander votre traduction devant la commission disciplinaire de l'université. La sanction peut aller jusqu’à une interdiction d'inscription dans les établissements de l'enseignement supérieur français pendant plusieurs années : Le jeu en vaut-il la chandelle ?<br />
<br />
La présentation peut être réalisée avec [[reveal.js]] ou avec [[remarkjs]]<br />
<br />
[[File:presentation-VT-RICM5-1516.pdf|transparents d'introduction à l'UE]]<br />
<br />
=Planning=<br />
<br />
== Séance 1 : 16/11 ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 5, 8, 23, 78<br />
<br />
* 16H00 : Alexandra CHATON, Jsonnet, [[VT2020-Jsonnet-Fiche|Fiche]], [[Media:VT2020-Jsonnet-Presentation.pdf|Présentation]], [[VT2020-Jsonnet-Demo|Démonstration]]<br />
* 16H25 : Alexis ROLLIN, GraalVM, [[VT2020-GraalVM-Fiche|Fiche]], [[Media:VT2020-GraalVM-Presentation.pdf|Présentation]], [[VT2020-GraalVM-Demo|Démonstration]]<br />
* 16H50 : Aleck BILOUNGA, Micronaut, [[VT2020-Micronaut-Fiche|Fiche]], [[https://docs.google.com/presentation/d/1oVq_81RwLelY1EptNoObHhmRRfGnfuxBD6PRd49jyjI/edit#slide=id.p Présentation]], [[https://youtu.be/gu7H4kbeA_Y Démonstration]]<br />
* 17H15 : Prénom NOM, Cryptojacking, [[VT2020-Cryptojacking-Fiche|Fiche]], [[File:VT2020-Cryptojacking-Presentation.pdf|Présentation]], [[VT2020-Cryptojacking-Demo|Démonstration]]<br />
<br />
== Séance 2 : 23/11 ==<br />
Enseignants : [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 9, 33, 49, 72, 81<br />
<br />
* 16H00 : Myriam LOMBARD, Microclimate, [[VT2020-Microclimate-Fiche|Fiche]], [[Media:VT2020-Microclimate-Presentation.pdf|Présentation]], [[VT2020-Microclimate-Demo|Démonstration]]<br />
* 16H25 : Samuel COURTHIAL, Voice-First Development, [[VT2020-Voice_First_Development-Fiche|Fiche]], [[Media:VT2020-Voice_First_Development-Presentation.pdf|Présentation]], [[VT2020-Voice_First_Development-Demo|Démonstration]]<br />
* 16H50 : Thomas FRION, Valgrind, [[VT2020-Valgrind-Fiche|Fiche]], [[Media:VT2020-Valgrind-Presentation.pdf|Présentation]], [[VT2020-Valgrind-Demo|Démonstration]]<br />
* 17H15 : Nhat Quang HO, HTTP/3, [[VT2020-Http3-Fiche|Fiche]], [[Media:VT2020-Http3-Presentation.pdf|Présentation]], [[VT2020-Http3-Demo|Démonstration]]<br />
* 17H40 : Romain PASDELOUP, Ballerina, [[VT2020-Ballerina-Fiche|Fiche]], [[Media:VT2020-Ballerina-Presentation.pdf|Présentation]], [[VT2020-Ballerina-Demo|Démonstration]]<br />
<br />
== Séance 3 : 30/11 ==<br />
Enseignants : [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 2, 3, 10, 11, 38<br />
<br />
* 16H00 : EL AJI Houda, Blazor, [[VT2020-Blazor-Fiche|Fiche]], [[Media:VT2020-Blazor-Presentation.pdf|Présentation]], [[VT2020-Blazor-Demo|Démonstration]]<br />
* 16H25 : Vernet Maxime, Website Rendering Types, [[VT2020-XXXXXX-Fiche|Fiche]], [[Media:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H50 : Pareilleux Killian, Quarkus, [[VT2020-Quarkus-Fiche|Fiche]], [[Media:VT2020-Quarkus-Presentation.pdf|Présentation]], [[VT2020-Quarkus-Demo|Démonstration]]<br />
* 17H15 : ZERAMDINI Otba, Helidon, [[VT2020-Helidon-Fiche|Fiche]], [[Media:VT2020-Helidon-Presentation.pdf|Présentation]], [[VT2020-Helidon-Demo|Démonstration]]<br />
* 17H40 : Crociati Morgan, WebAssembly, [[VT2020-WebAssembly-Fiche|Fiche]], [[Media:VT2020-WebAssembly-Presentation.pdf|Présentation]], [[VT2020-WebAssembly-Demo|Démonstration]]<br />
<br />
== Séance 4 : 7/12 ==<br />
Enseignants : [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 4, 15, 16, 19, 21<br />
<br />
* 16H00 : NGUENA Gloria, MemSQL, [[VT2020-MemSQL-Fiche|Fiche]], [[Media:VT2020-MemSQL-Presentation.pdf|Présentation]], [[VT2020-MemSQL-Demo|Démonstration]]<br />
* 16H25 : Graugnard Tom, QuestDB, [[VT2020-QuestDB-Fiche|Fiche]], [[Media:VT2020-QuestDB-Presentation.pdf|Présentation]], [[VT2020-QuestDB-Demo|Démonstration]]<br />
* 16H50 : Delbos Robin, Apache Arrow, [[VT2020-Apache Arrow-Fiche|Fiche]], [[Media:Présentation_Apache_Arrow.pdf|Présentation]], [[VT2020-Apache Arrow-Demo|Démonstration]]<br />
* 17H15 : El Mufti Ali, Apache Pulsar, [[VT2020-Apache Pulsar-Fiche|Fiche]], [[File:VT2020-Pulsar-Presentation.pdf|Présentation]], [[VT2020-Pulsar-Demo|Démonstration]]<br />
* 17H40 : RUZAFA Rémy, Apache Pinot, [[VT2020-AppachePinot-Fiche|Fiche]], [[Media:VT2020-AppachePinot-Présentaion.pdf|Présentation]], [[VT2020-AppachePinot-Demo|Démonstration]]<br />
<br />
== Séance 5 : 14/12 ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 22, 48, 55, 56, 84<br />
<br />
* 16H00 : Sajide Idriss, IoT Dataflow Mashup, [[Eclipse_Kura_Wires|Fiche]], [[Media:IoT Dataflow Mashup.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H25 : Chaix Manon, Nearby Communication, [[VT2020 - Nearby Communications Fiche|Fiche]], [[Media:VT_Nearby.pdf|Présentation]], [[VT2020-NearbyComm-Demo|Démonstration]]<br />
* 16H50 : Palomo Rémy, Apollo 2.0, [[VT2020-Plateforme Apollo-Fiche|Fiche]], [[Media:VT2020-Apollo-Presentation.pdf|Présentation]], [[VT2020-Apollo-Demo|Démonstration]]<br />
* 17H15 : Nelson William, Flogo, [[VT2020-Flogo-Fiche|Fiche]], [[File:Project_Flogo.pdf|Présentation]], [[VT2020_-_Flogo_Demo|Démonstration]]<br />
* 17H40 : Fougere Sebastian, Amazon Sidewalk, [[VT2020-Amazon-Sidewalk-Fiche|Fiche]], [[Media:VT2020-Amazon-sidewalk-presentation.pdf|Présentation]], [[VT2020-WebThings-Framework-Demo|Démonstration]]<br />
<br />
== Séance 6 : 4/1 ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 6, 7, 20, 50, 83<br />
<br />
* 16H00 : Boleat Baptiste, OpenAI GPT-3, [[VT2020-OpenAI GPT-3-Fiche|Fiche]], [https://baptboleat.github.io/gpt3-presentation/ Présentation], [[VT2020-GPT-3-Demo|Démonstration]]<br />
* 16H25 : Beaugrand Elisa, OpenAI Microscope, [[VT2020-OpenAI Microscope-Fiche|Fiche]], [[Media:VT2020-OpenAI Microscope-Presentation.pdf|Présentation]], [[VT2020-OpenAI Microscope-Demo|Démonstration]]<br />
* 16H50 : Artaud Adrien, Godot, [[VT2020-Godot-Fiche|Fiche]], [[Media:VT2020-Godot-Presentation.pdf|Présentation]], [[VT2020-Godot-Demo|Démonstration]]<br />
* 17H15 : ASSI Dima, Psychométrie, [[VT2020_Psychometrie_Fiche|Fiche]], [[File:VT2020-psychometriePresentation.pdf|Présentation]], [[VT2020-Psychometrie-Demo|Démonstration]]<br />
* 17H40 : De Gaudenzi Louis, Deepfake Algorithms, [[VT2020-Deepfake Algorithms-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-Deepfake_Algorithms-Demo|Démonstration]]<br />
<br />
== Séance 7 : 11/1 ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 1, 32, 41, 60, XXXX<br />
<br />
* 16H00 : Rival Gaëtan, Matrix, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H25 : El Jraidi Rim, Peloton, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H50 : Michelard Leila, DevSecOps, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 17H15 : Salmon Alexandre, BFT, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 17H40 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
<br />
== Séance 8 : Asynchrone ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : TBC<br />
<br />
* 16H00 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H25 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H50 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 17H15 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 17H40 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
<br />
=Sujets=<br />
# [[Matrix]] : An open network for secure, decentralized communication<br />
# [[Blazor]] (Browser+Razor) : a new web development framework introduced by Microsoft, which allows you to develop browser-based applications using C# and Razor syntax alongside HTML and CSS.<br />
# [[Website Rendering Types]] (Static, Dynamic, Incremetal) : démonstration de [https://nextjs.org/ NextJS]<br />
# [[MemSQL]]<br />
# [[Micronaut]] : Microservice platform ([https://dzone.com/articles/how-to-use-jhipster-to-build-a-secure-micronaut-an démo] avec [https://github.com/jhipster/generator-jhipster-micronaut Micronaut blueprint of JHipster])<br />
# [[OpenAI GPT-3]]<br />
# [[OpenAI Microscope]]<br />
# [[GraalVM]] : Polyglot Virtual Machine<br />
# [[Ballerina]] : open source programming language and platform for cloud-era application programmers to easily write software that just works<br />
# [[Quarkus]] : Supersonic Subatomic Java<br />
# [[Helidon]] : collection of Java libraries for writing microservices.<br />
# [[Flux]] (#fluxlang) new data scripting language to make querying and analyzing time series<br />
# [[Processeurs spécialisés pour l'IA]] : Démonstration avec la carte [https://greenwaves-technologies.com/product/gappoc-a-computer-vision-concept-board/ GAPPoc-A] de GreenWaves. ANNULé<br />
# [[NATS]]: PubSub broker (démonstration avec CampusIoT)<br />
# [[QuestDB]] : time-series database (démostration avec CampusIoT).<br />
# [[Apache Arrow]] : cross-language development platform for in-memory data<br />
# In-memory Distributed Data Grid : démonstration de eCom avec [[Apache Ignite]].<br />
# [[jQAssistant]] : application à eCOM<br />
# [[Apache Pulsar]] Pulsar is a multi-tenant, high-performance solution for server-to-server messaging. Pulsar was originally developed by Yahoo.<br />
# [[Godot Game Engine]]<br />
# [[Apache Pinot]] : realtime distributed OLAP datastore<br />
# [[IoT Dataflow Mashup]] (démo avec [[Eclipse Kura Wires]])<br />
# [[JSONnet]]<br />
# [[Géo-réplication]] : Démo avec [[Apache Kafka MirrorMaker]]<br />
# [[Pulsar]]<br />
# [[Wookey project]] (Demo on a STM32F407 Discovery board) ANNULé<br />
# [[RSocket]]<br />
# [[Nacos]] : open source project by Alibaba for service discovery and service configuration.<br />
# [[NEMU]] : open source hypervisor specifically built and designed to run modern cloud workloads on modern 64-bit Intel and ARM CPUs.<br />
# [[Architecture Serverless]] : démonstration avec le projet https://github.com/serverless/serverless sur votre compte Azure de votre compte GitHub Student Pack ANNULé<br />
# [[Fission]] : open-source serverless function framework for [[Kubernetes]] with a focus on developer productivity and high performance.<br />
# [[Peloton]], a unified resource scheduler<br />
# [[Microclimate]]<br />
# [[AdTech]]<br />
# [[Nearby communications]] (démonstration de [https://ionicframework.com/docs/native/google-nearby/ Nearby Messages API de Google avec Ionic]) --> Réservé Manon Chaix<br />
# [[Conflict-free replicated data type]] (CRDT) RECOMMANDé<br />
# [[Spinnaker]]<br />
# [[WebAssembly]]<br />
# [[Fast Identity Online Alliance]] (FIDO) ANNULé<br />
# [[Apache MXNet]] : Demo avec [[Intel Movidius]] ([https://github.com/tspannhw/rpi-mxnet-movidius-minifi lien]) ANNULé<br />
# [[DevSecOps]] <br />
# [[Apache Beam]] RECOMMANDé<br />
# [[In-Memory Data Grids]] : Démonstration de [[Gigaspaces]] et [[XAP]] Open Source<br />
# Gestionnaires de contenu : démonstration de [[Apache Jackrabbit]] dans le projet [[eCOM]]<br />
# [[Memory-centric virtual distributed storage system]]<br />
# [[ESB]] : démonstration de [[Mule ESB]]<br />
# [[MemCached]]<br />
# [[Low-Power Global Area Network]]s ([[Sat-IoT]])<br />
# [[ Voice-First Development]] : Designing, Developing, and Deploying Conversational Interfaces<br />
# [[Psychométrie]]<br />
# [[WebAssembly]]<br />
# [[DevSecOps]]<br />
# Portails et l'API [[Portlet]] : Démo avec [[Liferay]] ANNULé<br />
# [[Apache Beam]]<br />
# [[plateforme logicielle open source de conduite autonome Apollo 2.0]]<br />
# [[Flogo]] Open Source Framework for IoT Edge Apps & Integration.<br />
# [[Neural Processing Unit]] (NPU) : Demo de la clé [[Intel Movidius]] sur un RPI<br />
# [[Hazelcast]] : Démo avec Spring Boot ([https://dzone.com/storage/assets/6459742-dzone-rc247-gettingstartedwithspringbootandmicrose.pdf lien]) dans un projet [[JHipster]]<br />
# [[In-Memory Data Grids]] : Démonstration de [[Gigaspaces]] et [[XAP]] Open Source<br />
# [[Fautes Byzantines]] : Démonstration de [[BFT-SMaRt]]<br />
# Insport Video<br />
# Gestionnaires de contenu : démonstration de [[Apache Jackrabbit]] dans le projet [[eCOM]]<br />
# [[Memory-centric virtual distributed storage system]]<br />
# [[Performance Monitoring]]<br />
# [[ESB]] : démonstration de [[Mule ESB]] ANNULé<br />
# [[Access Network Query Protocol (ANQP)]]<br />
# [[JCache]] : démonstration avec [[Apache Ignity]]<br />
# [[MemCached]]<br />
# [[Apache Stratos]]<br />
# [[gceasy]] : Universal garbage collection log Analyser<br />
# [[Apache Solr]] : Démonstration avec [http://hortonworks.com/hadoop-tutorial/indexing-and-searching-text-within-images-with-apache-solr/ Tesseract OCR]<br />
# [[Valgrind]]<br />
# [[Content Delivery Network]]s : Démonstration de [[Amazon S3]], Azure, Akamaï ... sur votre projet [[ECOM-RICM|eCOM]]<br />
# [[CMS]] : Demo avec [[Crafter CMS]]<br />
# [[DMS]] (GED) : Demo avec la version Community Edition d'[[Alfresco]] et de son API REST avec [[Swagger]] ANNULé<br />
# [[SIG]] : Démonstration de [[QGIS]]<br />
# [[Apache Airflow]] ANNULé<br />
# [[Cryptojacking]] : démonstration d'un navigateur exécutant [https://github.com/cazala/coin-hive CoinHive] et affichage du coup énergétique de l'opération.<br />
# [[RIOT-OS]] : système d'exploitation pour l'Internet des Objets (Démonstration sur une carte STM32 Nucleo LRWAN1). ANNULé<br />
# [[Zephyr]] : système d'exploitation pour l'Internet des Objets (Démonstration sur une carte [[Intel Quark D2000]]). ANNULé<br />
# [[HTTP/3]] : quoi de neuf ? Démonstration de l'amélioration des performances.<br />
# [[Gyro]] : domain-specific language designed to concisely describe a cloud infrastructure. Démonstration avec votre application eCOM JHipster sur Azure.<br />
# [[Deepfake Algorithms]] et outils.<br />
# [[Amazon Sidewalk]]<br />
# Interfaces Homme-Machine sans contact (sous réserve de démonstrateur)<br />
# Interfaces Homme-Machine haptiques (sous réserve de démonstrateur)<br />
# Algorithmes et systèmes de vote électronique : vices et vertus.<br />
# [[Normes et systèmes de signature électronique]]<br />
# Database as a Microservice : [[HarperDB]]<br />
# [[Web of Things (WoT)]]</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=File:VT2020-OpenAI_Microscope-Presentation.pdf&diff=49773File:VT2020-OpenAI Microscope-Presentation.pdf2021-01-04T10:06:57Z<p>Elisa.Beaugrand: </p>
<hr />
<div></div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020&diff=49772VT20202021-01-04T10:06:33Z<p>Elisa.Beaugrand: /* Séance 6 : 4/1 */</p>
<hr />
<div>[[VT2019|<< Etudes 2019]] [[VT|Sommaire]] [[VT2021|Etudes 2021 >>]]<br />
<br />
<br />
=Veille Technologique et Stratégique=<br />
* Enseignants: [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
* UE/Module: EAM (HPRJ9R6B) et EAR (HPRJ9R4B) en 1FO5<br />
<br />
L'objectif de cette UE est de réaliser un travail de synthèse et d’évaluation sur une technologie / spécification / tendance<br />
<br />
Dans votre futur vie d'ingénieur, vous aurez à d'une part, vous former par vous-même sur une technologie émergente et d'autre part à réaliser une veille technologique (et stratégique) par rapport à votre entreprise et projet.<br />
Il s'agira de réaliser<br />
* le positionnement par rapport au marché<br />
* d'être critique<br />
<br />
Votre synthèse fait l'objet d'une présentation orale convaincante devant un auditoire (dans le futur, vos collègues, vos chefs ou vos clients) avec des transparents et un discours répété.<br />
Pour finir de convaincre (Saint Thomas), vous ferez la présentation d'une démonstration.<br />
<br />
Votre présentation sera notée et commentée par tous vos camarades via un sondage (téléphone mobile). Leurs notes et leurs commentaires seront notés en fonction de leur exactitude de jugement.<br />
<br />
Remarque: Le [https://fr.wikipedia.org/wiki/Plagiat plagiat] est incompatible avec l'éthique de l'ingénieur. Le directeur d'école peut demander votre traduction devant la commission disciplinaire de l'université. La sanction peut aller jusqu’à une interdiction d'inscription dans les établissements de l'enseignement supérieur français pendant plusieurs années : Le jeu en vaut-il la chandelle ?<br />
<br />
La présentation peut être réalisée avec [[reveal.js]] ou avec [[remarkjs]]<br />
<br />
[[File:presentation-VT-RICM5-1516.pdf|transparents d'introduction à l'UE]]<br />
<br />
=Planning=<br />
<br />
== Séance 1 : 16/11 ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 5, 8, 23, 78<br />
<br />
* 16H00 : Alexandra CHATON, Jsonnet, [[VT2020-Jsonnet-Fiche|Fiche]], [[Media:VT2020-Jsonnet-Presentation.pdf|Présentation]], [[VT2020-Jsonnet-Demo|Démonstration]]<br />
* 16H25 : Alexis ROLLIN, GraalVM, [[VT2020-GraalVM-Fiche|Fiche]], [[Media:VT2020-GraalVM-Presentation.pdf|Présentation]], [[VT2020-GraalVM-Demo|Démonstration]]<br />
* 16H50 : Aleck BILOUNGA, Micronaut, [[VT2020-Micronaut-Fiche|Fiche]], [[https://docs.google.com/presentation/d/1oVq_81RwLelY1EptNoObHhmRRfGnfuxBD6PRd49jyjI/edit#slide=id.p Présentation]], [[https://youtu.be/gu7H4kbeA_Y Démonstration]]<br />
* 17H15 : Prénom NOM, Cryptojacking, [[VT2020-Cryptojacking-Fiche|Fiche]], [[File:VT2020-Cryptojacking-Presentation.pdf|Présentation]], [[VT2020-Cryptojacking-Demo|Démonstration]]<br />
<br />
== Séance 2 : 23/11 ==<br />
Enseignants : [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 9, 33, 49, 72, 81<br />
<br />
* 16H00 : Myriam LOMBARD, Microclimate, [[VT2020-Microclimate-Fiche|Fiche]], [[Media:VT2020-Microclimate-Presentation.pdf|Présentation]], [[VT2020-Microclimate-Demo|Démonstration]]<br />
* 16H25 : Samuel COURTHIAL, Voice-First Development, [[VT2020-Voice_First_Development-Fiche|Fiche]], [[Media:VT2020-Voice_First_Development-Presentation.pdf|Présentation]], [[VT2020-Voice_First_Development-Demo|Démonstration]]<br />
* 16H50 : Thomas FRION, Valgrind, [[VT2020-Valgrind-Fiche|Fiche]], [[Media:VT2020-Valgrind-Presentation.pdf|Présentation]], [[VT2020-Valgrind-Demo|Démonstration]]<br />
* 17H15 : Nhat Quang HO, HTTP/3, [[VT2020-Http3-Fiche|Fiche]], [[Media:VT2020-Http3-Presentation.pdf|Présentation]], [[VT2020-Http3-Demo|Démonstration]]<br />
* 17H40 : Romain PASDELOUP, Ballerina, [[VT2020-Ballerina-Fiche|Fiche]], [[Media:VT2020-Ballerina-Presentation.pdf|Présentation]], [[VT2020-Ballerina-Demo|Démonstration]]<br />
<br />
== Séance 3 : 30/11 ==<br />
Enseignants : [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 2, 3, 10, 11, 38<br />
<br />
* 16H00 : EL AJI Houda, Blazor, [[VT2020-Blazor-Fiche|Fiche]], [[Media:VT2020-Blazor-Presentation.pdf|Présentation]], [[VT2020-Blazor-Demo|Démonstration]]<br />
* 16H25 : Vernet Maxime, Website Rendering Types, [[VT2020-XXXXXX-Fiche|Fiche]], [[Media:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H50 : Pareilleux Killian, Quarkus, [[VT2020-Quarkus-Fiche|Fiche]], [[Media:VT2020-Quarkus-Presentation.pdf|Présentation]], [[VT2020-Quarkus-Demo|Démonstration]]<br />
* 17H15 : ZERAMDINI Otba, Helidon, [[VT2020-Helidon-Fiche|Fiche]], [[Media:VT2020-Helidon-Presentation.pdf|Présentation]], [[VT2020-Helidon-Demo|Démonstration]]<br />
* 17H40 : Crociati Morgan, WebAssembly, [[VT2020-WebAssembly-Fiche|Fiche]], [[Media:VT2020-WebAssembly-Presentation.pdf|Présentation]], [[VT2020-WebAssembly-Demo|Démonstration]]<br />
<br />
== Séance 4 : 7/12 ==<br />
Enseignants : [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 4, 15, 16, 19, 21<br />
<br />
* 16H00 : NGUENA Gloria, MemSQL, [[VT2020-MemSQL-Fiche|Fiche]], [[Media:VT2020-MemSQL-Presentation.pdf|Présentation]], [[VT2020-MemSQL-Demo|Démonstration]]<br />
* 16H25 : Graugnard Tom, QuestDB, [[VT2020-QuestDB-Fiche|Fiche]], [[Media:VT2020-QuestDB-Presentation.pdf|Présentation]], [[VT2020-QuestDB-Demo|Démonstration]]<br />
* 16H50 : Delbos Robin, Apache Arrow, [[VT2020-Apache Arrow-Fiche|Fiche]], [[Media:Présentation_Apache_Arrow.pdf|Présentation]], [[VT2020-Apache Arrow-Demo|Démonstration]]<br />
* 17H15 : El Mufti Ali, Apache Pulsar, [[VT2020-Apache Pulsar-Fiche|Fiche]], [[File:VT2020-Pulsar-Presentation.pdf|Présentation]], [[VT2020-Pulsar-Demo|Démonstration]]<br />
* 17H40 : RUZAFA Rémy, Apache Pinot, [[VT2020-AppachePinot-Fiche|Fiche]], [[Media:VT2020-AppachePinot-Présentaion.pdf|Présentation]], [[VT2020-AppachePinot-Demo|Démonstration]]<br />
<br />
== Séance 5 : 14/12 ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 22, 48, 55, 56, 84<br />
<br />
* 16H00 : Sajide Idriss, IoT Dataflow Mashup, [[Eclipse_Kura_Wires|Fiche]], [[Media:IoT Dataflow Mashup.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H25 : Chaix Manon, Nearby Communication, [[VT2020 - Nearby Communications Fiche|Fiche]], [[Media:VT_Nearby.pdf|Présentation]], [[VT2020-NearbyComm-Demo|Démonstration]]<br />
* 16H50 : Palomo Rémy, Apollo 2.0, [[VT2020-Plateforme Apollo-Fiche|Fiche]], [[Media:VT2020-Apollo-Presentation.pdf|Présentation]], [[VT2020-Apollo-Demo|Démonstration]]<br />
* 17H15 : Nelson William, Flogo, [[VT2020-Flogo-Fiche|Fiche]], [[File:Project_Flogo.pdf|Présentation]], [[VT2020_-_Flogo_Demo|Démonstration]]<br />
* 17H40 : Fougere Sebastian, Amazon Sidewalk, [[VT2020-Amazon-Sidewalk-Fiche|Fiche]], [[Media:VT2020-Amazon-sidewalk-presentation.pdf|Présentation]], [[VT2020-WebThings-Framework-Demo|Démonstration]]<br />
<br />
== Séance 6 : 4/1 ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 6, 7, 20, 50, 83<br />
<br />
* 16H00 : Boleat Baptiste, OpenAI GPT-3, [[VT2020-OpenAI GPT-3-Fiche|Fiche]], [https://baptboleat.github.io/gpt3-presentation/ Présentation], [[VT2020-GPT-3-Demo|Démonstration]]<br />
* 16H25 : Beaugrand Elisa, OpenAI Microscope, [[VT2020-OpenAI Microscope-Fiche|Fiche]], [[File:VT2020-OpenAI Microscope-Presentation.pdf|Présentation]], [[VT2020-OpenAI Microscope-Demo|Démonstration]]<br />
* 16H50 : Artaud Adrien, Godot, [[VT2020-Godot-Fiche|Fiche]], [[Media:VT2020-Godot-Presentation.pdf|Présentation]], [[VT2020-Godot-Demo|Démonstration]]<br />
* 17H15 : ASSI Dima, Psychométrie, [[VT2020_Psychometrie_Fiche|Fiche]], [[File:VT2020-psychometriePresentation.pdf|Présentation]], [[VT2020-Psychometrie-Demo|Démonstration]]<br />
* 17H40 : De Gaudenzi Louis, Deepfake Algorithms, [[VT2020-Deepfake Algorithms-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-Deepfake_Algorithms-Demo|Démonstration]]<br />
<br />
== Séance 7 : 11/1 ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 1, 32, 41, 60, XXXX<br />
<br />
* 16H00 : Rival Gaëtan, Matrix, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H25 : El Jraidi Rim, Peloton, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H50 : Michelard Leila, DevSecOps, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 17H15 : Salmon Alexandre, BFT, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 17H40 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
<br />
== Séance 8 : Asynchrone ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : TBC<br />
<br />
* 16H00 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H25 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H50 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 17H15 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 17H40 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
<br />
=Sujets=<br />
# [[Matrix]] : An open network for secure, decentralized communication<br />
# [[Blazor]] (Browser+Razor) : a new web development framework introduced by Microsoft, which allows you to develop browser-based applications using C# and Razor syntax alongside HTML and CSS.<br />
# [[Website Rendering Types]] (Static, Dynamic, Incremetal) : démonstration de [https://nextjs.org/ NextJS]<br />
# [[MemSQL]]<br />
# [[Micronaut]] : Microservice platform ([https://dzone.com/articles/how-to-use-jhipster-to-build-a-secure-micronaut-an démo] avec [https://github.com/jhipster/generator-jhipster-micronaut Micronaut blueprint of JHipster])<br />
# [[OpenAI GPT-3]]<br />
# [[OpenAI Microscope]]<br />
# [[GraalVM]] : Polyglot Virtual Machine<br />
# [[Ballerina]] : open source programming language and platform for cloud-era application programmers to easily write software that just works<br />
# [[Quarkus]] : Supersonic Subatomic Java<br />
# [[Helidon]] : collection of Java libraries for writing microservices.<br />
# [[Flux]] (#fluxlang) new data scripting language to make querying and analyzing time series<br />
# [[Processeurs spécialisés pour l'IA]] : Démonstration avec la carte [https://greenwaves-technologies.com/product/gappoc-a-computer-vision-concept-board/ GAPPoc-A] de GreenWaves. ANNULé<br />
# [[NATS]]: PubSub broker (démonstration avec CampusIoT)<br />
# [[QuestDB]] : time-series database (démostration avec CampusIoT).<br />
# [[Apache Arrow]] : cross-language development platform for in-memory data<br />
# In-memory Distributed Data Grid : démonstration de eCom avec [[Apache Ignite]].<br />
# [[jQAssistant]] : application à eCOM<br />
# [[Apache Pulsar]] Pulsar is a multi-tenant, high-performance solution for server-to-server messaging. Pulsar was originally developed by Yahoo.<br />
# [[Godot Game Engine]]<br />
# [[Apache Pinot]] : realtime distributed OLAP datastore<br />
# [[IoT Dataflow Mashup]] (démo avec [[Eclipse Kura Wires]])<br />
# [[JSONnet]]<br />
# [[Géo-réplication]] : Démo avec [[Apache Kafka MirrorMaker]]<br />
# [[Pulsar]]<br />
# [[Wookey project]] (Demo on a STM32F407 Discovery board) ANNULé<br />
# [[RSocket]]<br />
# [[Nacos]] : open source project by Alibaba for service discovery and service configuration.<br />
# [[NEMU]] : open source hypervisor specifically built and designed to run modern cloud workloads on modern 64-bit Intel and ARM CPUs.<br />
# [[Architecture Serverless]] : démonstration avec le projet https://github.com/serverless/serverless sur votre compte Azure de votre compte GitHub Student Pack ANNULé<br />
# [[Fission]] : open-source serverless function framework for [[Kubernetes]] with a focus on developer productivity and high performance.<br />
# [[Peloton]], a unified resource scheduler<br />
# [[Microclimate]]<br />
# [[AdTech]]<br />
# [[Nearby communications]] (démonstration de [https://ionicframework.com/docs/native/google-nearby/ Nearby Messages API de Google avec Ionic]) --> Réservé Manon Chaix<br />
# [[Conflict-free replicated data type]] (CRDT) RECOMMANDé<br />
# [[Spinnaker]]<br />
# [[WebAssembly]]<br />
# [[Fast Identity Online Alliance]] (FIDO) ANNULé<br />
# [[Apache MXNet]] : Demo avec [[Intel Movidius]] ([https://github.com/tspannhw/rpi-mxnet-movidius-minifi lien]) ANNULé<br />
# [[DevSecOps]] <br />
# [[Apache Beam]] RECOMMANDé<br />
# [[In-Memory Data Grids]] : Démonstration de [[Gigaspaces]] et [[XAP]] Open Source<br />
# Gestionnaires de contenu : démonstration de [[Apache Jackrabbit]] dans le projet [[eCOM]]<br />
# [[Memory-centric virtual distributed storage system]]<br />
# [[ESB]] : démonstration de [[Mule ESB]]<br />
# [[MemCached]]<br />
# [[Low-Power Global Area Network]]s ([[Sat-IoT]])<br />
# [[ Voice-First Development]] : Designing, Developing, and Deploying Conversational Interfaces<br />
# [[Psychométrie]]<br />
# [[WebAssembly]]<br />
# [[DevSecOps]]<br />
# Portails et l'API [[Portlet]] : Démo avec [[Liferay]] ANNULé<br />
# [[Apache Beam]]<br />
# [[plateforme logicielle open source de conduite autonome Apollo 2.0]]<br />
# [[Flogo]] Open Source Framework for IoT Edge Apps & Integration.<br />
# [[Neural Processing Unit]] (NPU) : Demo de la clé [[Intel Movidius]] sur un RPI<br />
# [[Hazelcast]] : Démo avec Spring Boot ([https://dzone.com/storage/assets/6459742-dzone-rc247-gettingstartedwithspringbootandmicrose.pdf lien]) dans un projet [[JHipster]]<br />
# [[In-Memory Data Grids]] : Démonstration de [[Gigaspaces]] et [[XAP]] Open Source<br />
# [[Fautes Byzantines]] : Démonstration de [[BFT-SMaRt]]<br />
# Insport Video<br />
# Gestionnaires de contenu : démonstration de [[Apache Jackrabbit]] dans le projet [[eCOM]]<br />
# [[Memory-centric virtual distributed storage system]]<br />
# [[Performance Monitoring]]<br />
# [[ESB]] : démonstration de [[Mule ESB]] ANNULé<br />
# [[Access Network Query Protocol (ANQP)]]<br />
# [[JCache]] : démonstration avec [[Apache Ignity]]<br />
# [[MemCached]]<br />
# [[Apache Stratos]]<br />
# [[gceasy]] : Universal garbage collection log Analyser<br />
# [[Apache Solr]] : Démonstration avec [http://hortonworks.com/hadoop-tutorial/indexing-and-searching-text-within-images-with-apache-solr/ Tesseract OCR]<br />
# [[Valgrind]]<br />
# [[Content Delivery Network]]s : Démonstration de [[Amazon S3]], Azure, Akamaï ... sur votre projet [[ECOM-RICM|eCOM]]<br />
# [[CMS]] : Demo avec [[Crafter CMS]]<br />
# [[DMS]] (GED) : Demo avec la version Community Edition d'[[Alfresco]] et de son API REST avec [[Swagger]] ANNULé<br />
# [[SIG]] : Démonstration de [[QGIS]]<br />
# [[Apache Airflow]] ANNULé<br />
# [[Cryptojacking]] : démonstration d'un navigateur exécutant [https://github.com/cazala/coin-hive CoinHive] et affichage du coup énergétique de l'opération.<br />
# [[RIOT-OS]] : système d'exploitation pour l'Internet des Objets (Démonstration sur une carte STM32 Nucleo LRWAN1). ANNULé<br />
# [[Zephyr]] : système d'exploitation pour l'Internet des Objets (Démonstration sur une carte [[Intel Quark D2000]]). ANNULé<br />
# [[HTTP/3]] : quoi de neuf ? Démonstration de l'amélioration des performances.<br />
# [[Gyro]] : domain-specific language designed to concisely describe a cloud infrastructure. Démonstration avec votre application eCOM JHipster sur Azure.<br />
# [[Deepfake Algorithms]] et outils.<br />
# [[Amazon Sidewalk]]<br />
# Interfaces Homme-Machine sans contact (sous réserve de démonstrateur)<br />
# Interfaces Homme-Machine haptiques (sous réserve de démonstrateur)<br />
# Algorithmes et systèmes de vote électronique : vices et vertus.<br />
# [[Normes et systèmes de signature électronique]]<br />
# Database as a Microservice : [[HarperDB]]<br />
# [[Web of Things (WoT)]]</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49769VT2020-OpenAI Microscope-Fiche2021-01-04T09:59:31Z<p>Elisa.Beaugrand: /* Sources */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns notables:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
Beaucoup d'autres projets ont bien évidemment vu le jour, dont notamment Microscope présenté ci-dessous.<br />
<br />
= Microscope =<br />
<br />
OpenAI Microscope est un outil sorti au printemps 2020 qui permet de visualiser graphiquement chaque couche significative et chaque neurone de chaque couche d'un réseau de neurones. Grâce à cet outil, on peut explorer un réseau de neurone facilement afin de mieux comprendre son fonctionnement. <br />
<br />
== Définitions ==<br />
Quelques définitions sont nécessaires avant de comprendre plus en détail le fonctionnement de Microscope.<br />
=== Réseau de neurones ===<br />
Un réseau de neurones est un système informatique qui s'inspire du cerveau humain pour apprendre. <br />
<br />
Voici l'architecture d'un réseau de neurones qui peut être représentée comme un graphe orienté:<br />
[[File:neurones.jpeg|600px|thumb|left|Structure réseau de neurones]]<br />
<br />
Ici, sur l'image ci-contre, notre réseau est simple et ne comporte que 4 couches : une '''couche d'entrées''' en rouge, deux '''couches cachées''' en bleu, et une '''couche de sortie''' en vert. Le principe d'un réseau de neurones est le même qu'il y ait 4 couches ou 200 couches. <br />
<br />
Les noeuds du graphe représentent les neurones. On constate que chaque neurone de chaque couche est relié à tous les neurones de la couche suivante.<br />
<br />
Dans le cerveau humain, une information arrive à un neurone, le neurone est stimulé ou non par cette information. Il interprète cette information et transmet ou non un résultat au neurone suivant. Dans les réseaux de neurones, c'est la même chose! Une information arrive à un neurone. Ce neurone calcule son "interêt" pour cette information en fonction de sa stimulation. Ensuite chaque arête du graphe possède un poids qui va permettre grâce à un sytème probabiliste de determiner quel est le neurone suivant à recevoir l'information. Ce système de graphe pondéré et orienté est utilisé afin de représenter au mieux le cerveau animal. En effet grâce à ce système, seulement certains neurones sont stimulés (les plus utiles au traitement de l'information) et non tous à la fois à l'instar du cerveau humain.<br />
<br />
<br />
<br />
=== ImageNet ===<br />
<br />
ImageNet est une banque d'images 200x200px toutes labelisées. ImageNet compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. ImageNet contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont tous types d'objets, d'animaux, de véhicules, etc.<br />
<br />
=== Places365 ===<br />
<br />
Places365 est une banque d'images 200x200px toutes labelisées. Places365 compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. Places365 contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont principalement des lieux remarquables, la nature (montagnes, mer, jungle...), de l'architecture.<br />
<br />
= Modèles compatibles =<br />
Microscope fonctionne sur 8 réseaux de neurones différents, tous basés sur la reconnaissance d'images:<br />
* '''Inception v1''' : apprentissage basé sur ImageNet, en 22 couches, sorti en 2014.<br />
* '''Inception v1 (Places)''' : apprentissage basé sur Places365, même architecture que Inception v1 mais spécialisé dans la reconnaissance de lieux, sorti en 2014.<br />
* '''Inception v3''' : apprentissage basé sur ImageNet, plus performant et efficace qu'Inception v1, sorti en 2015.<br />
* '''Inception v4''' : appretissage basé sur ImageNet, encore plus performant et efficace qu'Inception v3, sorti en 2016.<br />
* '''VGG 19''' : Réseau assez simple basé sur Inception en version simplifiée.<br />
* '''ResNet v2 50''' <br />
* '''AlexNet''' : Modèle le plus connu et le plus étudié basé sur ImageNet.<br />
* '''AlexNet (Places)''' : Même architecture que le réseau AlexNet mais avec un apprentissage basé sur Places365<br />
<br />
Ces modèles de reconnaissance d'images se différencient grâce à leurs caractéristiques d'apprentissage (différentes tailles de couches de convolution, différentes fonctions utilisées, différents poids ...) mais font partis des modèles les plus performants à l'heure actuelle. Microscope s'intéresse donc au fonctionnement de ses réseaux de neuronnes en essayant de comprendre ce qu'apprend concrètement un modèle.<br />
<br />
= Visualisations =<br />
<br />
Nous allons maintenant observer quelques visualisations depuis Microscope. Microscope nous éclaire sur la façon dont est traitée une analyse d'image à travers un réseau de neurones.<br />
<br />
== Architecture en couches ==<br />
<br />
Comme vu précedemment, un modèle est constitué de couches. Ces couches permettent l'analyse d'une image à différents niveaux. Plus les couches sont élévées, plus les visualisations des neurones sont complexes.<br />
<br />
Dans les couches les plus basses on observe des neurones s'interessant particulièrement aux contours:<br />
<br />
[[File:contour.png]]<br />
<br />
Ces neuronnes ne permettent pas à ce stade de deviner par quel "objet" en particulier ils sont stimulés.<br />
<br />
Dans une couche un peu plus élevée, on commence à observer des textures:<br />
<br />
[[File:texture.png]]<br />
<br />
Encore dans une couche plus élevée, on remarque des patterns dans les visualisations, bien qu'on ne distingue encore aucune représentation réelle:<br />
<br />
[[File:pattern.png]]<br />
<br />
Dans les couches les plus élevées, on commence à observer dans la visualisation ce par quoi l'objet peut être stimulé. Par exemple, dans la photo ci-dessous, on peut observer des têtes de chiens dans la visualisation du neurone.<br />
<br />
[[File:partiesobjets.png]]<br />
<br />
== Car Detector ==<br />
<br />
Les visualisations des neurones d'une couche s'appuyent sur les visualisations des neuronnes des couches précédentes.<br />
<br />
Par exemple ici, dans une classe du modèle inception v1, nous trouvons un neurone stimulé par une roue de voiture et un autre stimulé par des fenêtres de voiture: <br />
<br />
[[File:roue.png]]<br />
[[File:fenetre.png]]<br />
<br />
Ensuite dans une couche supérieure, on trouve le neurone permettant la détection de voiture dans une image:<br />
<br />
[[File:car.png]]<br />
<br />
On peut donc constater que le neurone de détection de voiture s'est formé grâce aux neurones de détéction de fenêtre et de roues.<br />
<br />
= Utilité =<br />
<br />
Nous allons maintenant voir en quoi Microscope est utile. <br />
<br />
1. Microscope permet au grand public de visualiser un réseau de neurones.<br />
<br />
2. Il est bien plus facile de se représenter le fonctionnement des neuronnes grâce à un résultat graphique. De même que cette technique permet d'éviter toute confusion sur le modèle ou le neurone qui est en train d'être discuté.<br />
<br />
3. Cet outil permet de comprendre comment apprend un réseau de neurones, et comment il fonctionne.<br />
<br />
4. On peut maintenant interpreter graphiquement les choix fait par une IA pour arriver à son but.<br />
<br />
= Sources =<br />
<br />
[https://openai.com/blog/microscope/ Blog d'OpenAI]<br />
<br />
[https://microscope.openai.com/models OpenAI Microscope]<br />
<br />
[https://microscope.openai.com/about Article OpenAI Microscope]<br />
<br />
[https://distill.pub/2017/feature-visualization/ Article de Google Brain, Feature Visualization]<br />
<br />
[https://www.kdnuggets.com/2020/04/openai-open-sources-microscope-lucid-library-neural-networks.html Article sur Microscope et Lucid library]<br />
<br />
[https://www.youtube.com/watch?v=1zvohULpe_0 Video how neural network see the world?]<br />
<br />
[https://www.youtube.com/watch?v=Ok44otx90D4 Video sur Feature Visualization et OpenAI Microscope]<br />
<br />
[https://en.wikipedia.org/wiki/OpenAI#GPT-3 Page Wikipedia d'OpenAI]<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : OpenAI Microscope<br />
* [https://air.imag.fr/index.php/VT2020-OpenAI_Microscope-Demo Démonstration]<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : Élisa BEAUGRAND</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49768VT2020-OpenAI Microscope-Fiche2021-01-04T09:51:26Z<p>Elisa.Beaugrand: /* Utilité */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns notables:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
Beaucoup d'autres projets ont bien évidemment vu le jour, dont notamment Microscope présenté ci-dessous.<br />
<br />
= Microscope =<br />
<br />
OpenAI Microscope est un outil sorti au printemps 2020 qui permet de visualiser graphiquement chaque couche significative et chaque neurone de chaque couche d'un réseau de neurones. Grâce à cet outil, on peut explorer un réseau de neurone facilement afin de mieux comprendre son fonctionnement. <br />
<br />
== Définitions ==<br />
Quelques définitions sont nécessaires avant de comprendre plus en détail le fonctionnement de Microscope.<br />
=== Réseau de neurones ===<br />
Un réseau de neurones est un système informatique qui s'inspire du cerveau humain pour apprendre. <br />
<br />
Voici l'architecture d'un réseau de neurones qui peut être représentée comme un graphe orienté:<br />
[[File:neurones.jpeg|600px|thumb|left|Structure réseau de neurones]]<br />
<br />
Ici, sur l'image ci-contre, notre réseau est simple et ne comporte que 4 couches : une '''couche d'entrées''' en rouge, deux '''couches cachées''' en bleu, et une '''couche de sortie''' en vert. Le principe d'un réseau de neurones est le même qu'il y ait 4 couches ou 200 couches. <br />
<br />
Les noeuds du graphe représentent les neurones. On constate que chaque neurone de chaque couche est relié à tous les neurones de la couche suivante.<br />
<br />
Dans le cerveau humain, une information arrive à un neurone, le neurone est stimulé ou non par cette information. Il interprète cette information et transmet ou non un résultat au neurone suivant. Dans les réseaux de neurones, c'est la même chose! Une information arrive à un neurone. Ce neurone calcule son "interêt" pour cette information en fonction de sa stimulation. Ensuite chaque arête du graphe possède un poids qui va permettre grâce à un sytème probabiliste de determiner quel est le neurone suivant à recevoir l'information. Ce système de graphe pondéré et orienté est utilisé afin de représenter au mieux le cerveau animal. En effet grâce à ce système, seulement certains neurones sont stimulés (les plus utiles au traitement de l'information) et non tous à la fois à l'instar du cerveau humain.<br />
<br />
<br />
<br />
=== ImageNet ===<br />
<br />
ImageNet est une banque d'images 200x200px toutes labelisées. ImageNet compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. ImageNet contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont tous types d'objets, d'animaux, de véhicules, etc.<br />
<br />
=== Places365 ===<br />
<br />
Places365 est une banque d'images 200x200px toutes labelisées. Places365 compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. Places365 contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont principalement des lieux remarquables, la nature (montagnes, mer, jungle...), de l'architecture.<br />
<br />
= Modèles compatibles =<br />
Microscope fonctionne sur 8 réseaux de neurones différents, tous basés sur la reconnaissance d'images:<br />
* '''Inception v1''' : apprentissage basé sur ImageNet, en 22 couches, sorti en 2014.<br />
* '''Inception v1 (Places)''' : apprentissage basé sur Places365, même architecture que Inception v1 mais spécialisé dans la reconnaissance de lieux, sorti en 2014.<br />
* '''Inception v3''' : apprentissage basé sur ImageNet, plus performant et efficace qu'Inception v1, sorti en 2015.<br />
* '''Inception v4''' : appretissage basé sur ImageNet, encore plus performant et efficace qu'Inception v3, sorti en 2016.<br />
* '''VGG 19''' : Réseau assez simple basé sur Inception en version simplifiée.<br />
* '''ResNet v2 50''' <br />
* '''AlexNet''' : Modèle le plus connu et le plus étudié basé sur ImageNet.<br />
* '''AlexNet (Places)''' : Même architecture que le réseau AlexNet mais avec un apprentissage basé sur Places365<br />
<br />
Ces modèles de reconnaissance d'images se différencient grâce à leurs caractéristiques d'apprentissage (différentes tailles de couches de convolution, différentes fonctions utilisées, différents poids ...) mais font partis des modèles les plus performants à l'heure actuelle. Microscope s'intéresse donc au fonctionnement de ses réseaux de neuronnes en essayant de comprendre ce qu'apprend concrètement un modèle.<br />
<br />
= Visualisations =<br />
<br />
Nous allons maintenant observer quelques visualisations depuis Microscope. Microscope nous éclaire sur la façon dont est traitée une analyse d'image à travers un réseau de neurones.<br />
<br />
== Architecture en couches ==<br />
<br />
Comme vu précedemment, un modèle est constitué de couches. Ces couches permettent l'analyse d'une image à différents niveaux. Plus les couches sont élévées, plus les visualisations des neurones sont complexes.<br />
<br />
Dans les couches les plus basses on observe des neurones s'interessant particulièrement aux contours:<br />
<br />
[[File:contour.png]]<br />
<br />
Ces neuronnes ne permettent pas à ce stade de deviner par quel "objet" en particulier ils sont stimulés.<br />
<br />
Dans une couche un peu plus élevée, on commence à observer des textures:<br />
<br />
[[File:texture.png]]<br />
<br />
Encore dans une couche plus élevée, on remarque des patterns dans les visualisations, bien qu'on ne distingue encore aucune représentation réelle:<br />
<br />
[[File:pattern.png]]<br />
<br />
Dans les couches les plus élevées, on commence à observer dans la visualisation ce par quoi l'objet peut être stimulé. Par exemple, dans la photo ci-dessous, on peut observer des têtes de chiens dans la visualisation du neurone.<br />
<br />
[[File:partiesobjets.png]]<br />
<br />
== Car Detector ==<br />
<br />
Les visualisations des neurones d'une couche s'appuyent sur les visualisations des neuronnes des couches précédentes.<br />
<br />
Par exemple ici, dans une classe du modèle inception v1, nous trouvons un neurone stimulé par une roue de voiture et un autre stimulé par des fenêtres de voiture: <br />
<br />
[[File:roue.png]]<br />
[[File:fenetre.png]]<br />
<br />
Ensuite dans une couche supérieure, on trouve le neurone permettant la détection de voiture dans une image:<br />
<br />
[[File:car.png]]<br />
<br />
On peut donc constater que le neurone de détection de voiture s'est formé grâce aux neurones de détéction de fenêtre et de roues.<br />
<br />
= Utilité =<br />
<br />
Nous allons maintenant voir en quoi Microscope est utile. <br />
<br />
1. Microscope permet au grand public de visualiser un réseau de neurones.<br />
<br />
2. Il est bien plus facile de se représenter le fonctionnement des neuronnes grâce à un résultat graphique. De même que cette technique permet d'éviter toute confusion sur le modèle ou le neurone qui est en train d'être discuté.<br />
<br />
3. Cet outil permet de comprendre comment apprend un réseau de neurones, et comment il fonctionne.<br />
<br />
4. On peut maintenant interpreter graphiquement les choix fait par une IA pour arriver à son but.<br />
<br />
= Sources =<br />
<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : OpenAI Microscope<br />
* [https://air.imag.fr/index.php/VT2020-OpenAI_Microscope-Demo Démonstration]<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : Élisa BEAUGRAND</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=File:Car.png&diff=49767File:Car.png2021-01-04T09:41:41Z<p>Elisa.Beaugrand: </p>
<hr />
<div></div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49766VT2020-OpenAI Microscope-Fiche2021-01-04T09:41:32Z<p>Elisa.Beaugrand: /* Car Detector */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns notables:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
Beaucoup d'autres projets ont bien évidemment vu le jour, dont notamment Microscope présenté ci-dessous.<br />
<br />
= Microscope =<br />
<br />
OpenAI Microscope est un outil sorti au printemps 2020 qui permet de visualiser graphiquement chaque couche significative et chaque neurone de chaque couche d'un réseau de neurones. Grâce à cet outil, on peut explorer un réseau de neurone facilement afin de mieux comprendre son fonctionnement. <br />
<br />
== Définitions ==<br />
Quelques définitions sont nécessaires avant de comprendre plus en détail le fonctionnement de Microscope.<br />
=== Réseau de neurones ===<br />
Un réseau de neurones est un système informatique qui s'inspire du cerveau humain pour apprendre. <br />
<br />
Voici l'architecture d'un réseau de neurones qui peut être représentée comme un graphe orienté:<br />
[[File:neurones.jpeg|600px|thumb|left|Structure réseau de neurones]]<br />
<br />
Ici, sur l'image ci-contre, notre réseau est simple et ne comporte que 4 couches : une '''couche d'entrées''' en rouge, deux '''couches cachées''' en bleu, et une '''couche de sortie''' en vert. Le principe d'un réseau de neurones est le même qu'il y ait 4 couches ou 200 couches. <br />
<br />
Les noeuds du graphe représentent les neurones. On constate que chaque neurone de chaque couche est relié à tous les neurones de la couche suivante.<br />
<br />
Dans le cerveau humain, une information arrive à un neurone, le neurone est stimulé ou non par cette information. Il interprète cette information et transmet ou non un résultat au neurone suivant. Dans les réseaux de neurones, c'est la même chose! Une information arrive à un neurone. Ce neurone calcule son "interêt" pour cette information en fonction de sa stimulation. Ensuite chaque arête du graphe possède un poids qui va permettre grâce à un sytème probabiliste de determiner quel est le neurone suivant à recevoir l'information. Ce système de graphe pondéré et orienté est utilisé afin de représenter au mieux le cerveau animal. En effet grâce à ce système, seulement certains neurones sont stimulés (les plus utiles au traitement de l'information) et non tous à la fois à l'instar du cerveau humain.<br />
<br />
<br />
<br />
=== ImageNet ===<br />
<br />
ImageNet est une banque d'images 200x200px toutes labelisées. ImageNet compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. ImageNet contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont tous types d'objets, d'animaux, de véhicules, etc.<br />
<br />
=== Places365 ===<br />
<br />
Places365 est une banque d'images 200x200px toutes labelisées. Places365 compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. Places365 contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont principalement des lieux remarquables, la nature (montagnes, mer, jungle...), de l'architecture.<br />
<br />
= Modèles compatibles =<br />
Microscope fonctionne sur 8 réseaux de neurones différents, tous basés sur la reconnaissance d'images:<br />
* '''Inception v1''' : apprentissage basé sur ImageNet, en 22 couches, sorti en 2014.<br />
* '''Inception v1 (Places)''' : apprentissage basé sur Places365, même architecture que Inception v1 mais spécialisé dans la reconnaissance de lieux, sorti en 2014.<br />
* '''Inception v3''' : apprentissage basé sur ImageNet, plus performant et efficace qu'Inception v1, sorti en 2015.<br />
* '''Inception v4''' : appretissage basé sur ImageNet, encore plus performant et efficace qu'Inception v3, sorti en 2016.<br />
* '''VGG 19''' : Réseau assez simple basé sur Inception en version simplifiée.<br />
* '''ResNet v2 50''' <br />
* '''AlexNet''' : Modèle le plus connu et le plus étudié basé sur ImageNet.<br />
* '''AlexNet (Places)''' : Même architecture que le réseau AlexNet mais avec un apprentissage basé sur Places365<br />
<br />
Ces modèles de reconnaissance d'images se différencient grâce à leurs caractéristiques d'apprentissage (différentes tailles de couches de convolution, différentes fonctions utilisées, différents poids ...) mais font partis des modèles les plus performants à l'heure actuelle. Microscope s'intéresse donc au fonctionnement de ses réseaux de neuronnes en essayant de comprendre ce qu'apprend concrètement un modèle.<br />
<br />
= Visualisations =<br />
<br />
Nous allons maintenant observer quelques visualisations depuis Microscope. Microscope nous éclaire sur la façon dont est traitée une analyse d'image à travers un réseau de neurones.<br />
<br />
== Architecture en couches ==<br />
<br />
Comme vu précedemment, un modèle est constitué de couches. Ces couches permettent l'analyse d'une image à différents niveaux. Plus les couches sont élévées, plus les visualisations des neurones sont complexes.<br />
<br />
Dans les couches les plus basses on observe des neurones s'interessant particulièrement aux contours:<br />
<br />
[[File:contour.png]]<br />
<br />
Ces neuronnes ne permettent pas à ce stade de deviner par quel "objet" en particulier ils sont stimulés.<br />
<br />
Dans une couche un peu plus élevée, on commence à observer des textures:<br />
<br />
[[File:texture.png]]<br />
<br />
Encore dans une couche plus élevée, on remarque des patterns dans les visualisations, bien qu'on ne distingue encore aucune représentation réelle:<br />
<br />
[[File:pattern.png]]<br />
<br />
Dans les couches les plus élevées, on commence à observer dans la visualisation ce par quoi l'objet peut être stimulé. Par exemple, dans la photo ci-dessous, on peut observer des têtes de chiens dans la visualisation du neurone.<br />
<br />
[[File:partiesobjets.png]]<br />
<br />
== Car Detector ==<br />
<br />
Les visualisations des neurones d'une couche s'appuyent sur les visualisations des neuronnes des couches précédentes.<br />
<br />
Par exemple ici, dans une classe du modèle inception v1, nous trouvons un neurone stimulé par une roue de voiture et un autre stimulé par des fenêtres de voiture: <br />
<br />
[[File:roue.png]]<br />
[[File:fenetre.png]]<br />
<br />
Ensuite dans une couche supérieure, on trouve le neurone permettant la détection de voiture dans une image:<br />
<br />
[[File:car.png]]<br />
<br />
On peut donc constater que le neurone de détection de voiture s'est formé grâce aux neurones de détéction de fenêtre et de roues.<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : OpenAI Microscope<br />
* [https://air.imag.fr/index.php/VT2020-OpenAI_Microscope-Demo Démonstration]<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : Élisa BEAUGRAND</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49765VT2020-OpenAI Microscope-Fiche2021-01-04T09:41:09Z<p>Elisa.Beaugrand: /* Car Detector */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns notables:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
Beaucoup d'autres projets ont bien évidemment vu le jour, dont notamment Microscope présenté ci-dessous.<br />
<br />
= Microscope =<br />
<br />
OpenAI Microscope est un outil sorti au printemps 2020 qui permet de visualiser graphiquement chaque couche significative et chaque neurone de chaque couche d'un réseau de neurones. Grâce à cet outil, on peut explorer un réseau de neurone facilement afin de mieux comprendre son fonctionnement. <br />
<br />
== Définitions ==<br />
Quelques définitions sont nécessaires avant de comprendre plus en détail le fonctionnement de Microscope.<br />
=== Réseau de neurones ===<br />
Un réseau de neurones est un système informatique qui s'inspire du cerveau humain pour apprendre. <br />
<br />
Voici l'architecture d'un réseau de neurones qui peut être représentée comme un graphe orienté:<br />
[[File:neurones.jpeg|600px|thumb|left|Structure réseau de neurones]]<br />
<br />
Ici, sur l'image ci-contre, notre réseau est simple et ne comporte que 4 couches : une '''couche d'entrées''' en rouge, deux '''couches cachées''' en bleu, et une '''couche de sortie''' en vert. Le principe d'un réseau de neurones est le même qu'il y ait 4 couches ou 200 couches. <br />
<br />
Les noeuds du graphe représentent les neurones. On constate que chaque neurone de chaque couche est relié à tous les neurones de la couche suivante.<br />
<br />
Dans le cerveau humain, une information arrive à un neurone, le neurone est stimulé ou non par cette information. Il interprète cette information et transmet ou non un résultat au neurone suivant. Dans les réseaux de neurones, c'est la même chose! Une information arrive à un neurone. Ce neurone calcule son "interêt" pour cette information en fonction de sa stimulation. Ensuite chaque arête du graphe possède un poids qui va permettre grâce à un sytème probabiliste de determiner quel est le neurone suivant à recevoir l'information. Ce système de graphe pondéré et orienté est utilisé afin de représenter au mieux le cerveau animal. En effet grâce à ce système, seulement certains neurones sont stimulés (les plus utiles au traitement de l'information) et non tous à la fois à l'instar du cerveau humain.<br />
<br />
<br />
<br />
=== ImageNet ===<br />
<br />
ImageNet est une banque d'images 200x200px toutes labelisées. ImageNet compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. ImageNet contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont tous types d'objets, d'animaux, de véhicules, etc.<br />
<br />
=== Places365 ===<br />
<br />
Places365 est une banque d'images 200x200px toutes labelisées. Places365 compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. Places365 contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont principalement des lieux remarquables, la nature (montagnes, mer, jungle...), de l'architecture.<br />
<br />
= Modèles compatibles =<br />
Microscope fonctionne sur 8 réseaux de neurones différents, tous basés sur la reconnaissance d'images:<br />
* '''Inception v1''' : apprentissage basé sur ImageNet, en 22 couches, sorti en 2014.<br />
* '''Inception v1 (Places)''' : apprentissage basé sur Places365, même architecture que Inception v1 mais spécialisé dans la reconnaissance de lieux, sorti en 2014.<br />
* '''Inception v3''' : apprentissage basé sur ImageNet, plus performant et efficace qu'Inception v1, sorti en 2015.<br />
* '''Inception v4''' : appretissage basé sur ImageNet, encore plus performant et efficace qu'Inception v3, sorti en 2016.<br />
* '''VGG 19''' : Réseau assez simple basé sur Inception en version simplifiée.<br />
* '''ResNet v2 50''' <br />
* '''AlexNet''' : Modèle le plus connu et le plus étudié basé sur ImageNet.<br />
* '''AlexNet (Places)''' : Même architecture que le réseau AlexNet mais avec un apprentissage basé sur Places365<br />
<br />
Ces modèles de reconnaissance d'images se différencient grâce à leurs caractéristiques d'apprentissage (différentes tailles de couches de convolution, différentes fonctions utilisées, différents poids ...) mais font partis des modèles les plus performants à l'heure actuelle. Microscope s'intéresse donc au fonctionnement de ses réseaux de neuronnes en essayant de comprendre ce qu'apprend concrètement un modèle.<br />
<br />
= Visualisations =<br />
<br />
Nous allons maintenant observer quelques visualisations depuis Microscope. Microscope nous éclaire sur la façon dont est traitée une analyse d'image à travers un réseau de neurones.<br />
<br />
== Architecture en couches ==<br />
<br />
Comme vu précedemment, un modèle est constitué de couches. Ces couches permettent l'analyse d'une image à différents niveaux. Plus les couches sont élévées, plus les visualisations des neurones sont complexes.<br />
<br />
Dans les couches les plus basses on observe des neurones s'interessant particulièrement aux contours:<br />
<br />
[[File:contour.png]]<br />
<br />
Ces neuronnes ne permettent pas à ce stade de deviner par quel "objet" en particulier ils sont stimulés.<br />
<br />
Dans une couche un peu plus élevée, on commence à observer des textures:<br />
<br />
[[File:texture.png]]<br />
<br />
Encore dans une couche plus élevée, on remarque des patterns dans les visualisations, bien qu'on ne distingue encore aucune représentation réelle:<br />
<br />
[[File:pattern.png]]<br />
<br />
Dans les couches les plus élevées, on commence à observer dans la visualisation ce par quoi l'objet peut être stimulé. Par exemple, dans la photo ci-dessous, on peut observer des têtes de chiens dans la visualisation du neurone.<br />
<br />
[[File:partiesobjets.png]]<br />
<br />
== Car Detector ==<br />
<br />
Les visualisations des neurones d'une couche s'appuyent sur les visualisations des neuronnes des couches précédentes.<br />
<br />
Par exemple ici, dans une classe du modèle inception v1, nous trouvons un neurone stimulé par une roue de voiture et un autre stimulé par des fenêtres de voiture: <br />
<br />
[[File:roue.png|200px]]<br />
[[File:fenetre.png|200px]]<br />
<br />
Ensuite dans une couche supérieure, on trouve le neurone permettant la détection de voiture dans une image:<br />
<br />
[[File:car.png|200px]]<br />
<br />
On peut donc constater que le neurone de détection de voiture s'est formé grâce aux neurones de détéction de fenêtre et de roues.<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : OpenAI Microscope<br />
* [https://air.imag.fr/index.php/VT2020-OpenAI_Microscope-Demo Démonstration]<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : Élisa BEAUGRAND</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=File:Fenetre.png&diff=49764File:Fenetre.png2021-01-04T09:40:28Z<p>Elisa.Beaugrand: </p>
<hr />
<div></div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=File:Roue.png&diff=49762File:Roue.png2021-01-04T09:39:21Z<p>Elisa.Beaugrand: </p>
<hr />
<div></div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=File:Partiesobjets.png&diff=49761File:Partiesobjets.png2021-01-04T09:38:49Z<p>Elisa.Beaugrand: </p>
<hr />
<div></div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=File:Pattern.png&diff=49760File:Pattern.png2021-01-04T09:38:17Z<p>Elisa.Beaugrand: </p>
<hr />
<div></div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=File:Texture.png&diff=49758File:Texture.png2021-01-04T09:37:56Z<p>Elisa.Beaugrand: </p>
<hr />
<div></div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49757VT2020-OpenAI Microscope-Fiche2021-01-04T09:37:28Z<p>Elisa.Beaugrand: /* Architecture en couches */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns notables:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
Beaucoup d'autres projets ont bien évidemment vu le jour, dont notamment Microscope présenté ci-dessous.<br />
<br />
= Microscope =<br />
<br />
OpenAI Microscope est un outil sorti au printemps 2020 qui permet de visualiser graphiquement chaque couche significative et chaque neurone de chaque couche d'un réseau de neurones. Grâce à cet outil, on peut explorer un réseau de neurone facilement afin de mieux comprendre son fonctionnement. <br />
<br />
== Définitions ==<br />
Quelques définitions sont nécessaires avant de comprendre plus en détail le fonctionnement de Microscope.<br />
=== Réseau de neurones ===<br />
Un réseau de neurones est un système informatique qui s'inspire du cerveau humain pour apprendre. <br />
<br />
Voici l'architecture d'un réseau de neurones qui peut être représentée comme un graphe orienté:<br />
[[File:neurones.jpeg|600px|thumb|left|Structure réseau de neurones]]<br />
<br />
Ici, sur l'image ci-contre, notre réseau est simple et ne comporte que 4 couches : une '''couche d'entrées''' en rouge, deux '''couches cachées''' en bleu, et une '''couche de sortie''' en vert. Le principe d'un réseau de neurones est le même qu'il y ait 4 couches ou 200 couches. <br />
<br />
Les noeuds du graphe représentent les neurones. On constate que chaque neurone de chaque couche est relié à tous les neurones de la couche suivante.<br />
<br />
Dans le cerveau humain, une information arrive à un neurone, le neurone est stimulé ou non par cette information. Il interprète cette information et transmet ou non un résultat au neurone suivant. Dans les réseaux de neurones, c'est la même chose! Une information arrive à un neurone. Ce neurone calcule son "interêt" pour cette information en fonction de sa stimulation. Ensuite chaque arête du graphe possède un poids qui va permettre grâce à un sytème probabiliste de determiner quel est le neurone suivant à recevoir l'information. Ce système de graphe pondéré et orienté est utilisé afin de représenter au mieux le cerveau animal. En effet grâce à ce système, seulement certains neurones sont stimulés (les plus utiles au traitement de l'information) et non tous à la fois à l'instar du cerveau humain.<br />
<br />
<br />
<br />
=== ImageNet ===<br />
<br />
ImageNet est une banque d'images 200x200px toutes labelisées. ImageNet compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. ImageNet contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont tous types d'objets, d'animaux, de véhicules, etc.<br />
<br />
=== Places365 ===<br />
<br />
Places365 est une banque d'images 200x200px toutes labelisées. Places365 compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. Places365 contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont principalement des lieux remarquables, la nature (montagnes, mer, jungle...), de l'architecture.<br />
<br />
= Modèles compatibles =<br />
Microscope fonctionne sur 8 réseaux de neurones différents, tous basés sur la reconnaissance d'images:<br />
* '''Inception v1''' : apprentissage basé sur ImageNet, en 22 couches, sorti en 2014.<br />
* '''Inception v1 (Places)''' : apprentissage basé sur Places365, même architecture que Inception v1 mais spécialisé dans la reconnaissance de lieux, sorti en 2014.<br />
* '''Inception v3''' : apprentissage basé sur ImageNet, plus performant et efficace qu'Inception v1, sorti en 2015.<br />
* '''Inception v4''' : appretissage basé sur ImageNet, encore plus performant et efficace qu'Inception v3, sorti en 2016.<br />
* '''VGG 19''' : Réseau assez simple basé sur Inception en version simplifiée.<br />
* '''ResNet v2 50''' <br />
* '''AlexNet''' : Modèle le plus connu et le plus étudié basé sur ImageNet.<br />
* '''AlexNet (Places)''' : Même architecture que le réseau AlexNet mais avec un apprentissage basé sur Places365<br />
<br />
Ces modèles de reconnaissance d'images se différencient grâce à leurs caractéristiques d'apprentissage (différentes tailles de couches de convolution, différentes fonctions utilisées, différents poids ...) mais font partis des modèles les plus performants à l'heure actuelle. Microscope s'intéresse donc au fonctionnement de ses réseaux de neuronnes en essayant de comprendre ce qu'apprend concrètement un modèle.<br />
<br />
= Visualisations =<br />
<br />
Nous allons maintenant observer quelques visualisations depuis Microscope. Microscope nous éclaire sur la façon dont est traitée une analyse d'image à travers un réseau de neurones.<br />
<br />
== Architecture en couches ==<br />
<br />
Comme vu précedemment, un modèle est constitué de couches. Ces couches permettent l'analyse d'une image à différents niveaux. Plus les couches sont élévées, plus les visualisations des neurones sont complexes.<br />
<br />
Dans les couches les plus basses on observe des neurones s'interessant particulièrement aux contours:<br />
<br />
[[File:contour.png]]<br />
<br />
Ces neuronnes ne permettent pas à ce stade de deviner par quel "objet" en particulier ils sont stimulés.<br />
<br />
Dans une couche un peu plus élevée, on commence à observer des textures:<br />
<br />
[[File:texture.png]]<br />
<br />
Encore dans une couche plus élevée, on remarque des patterns dans les visualisations, bien qu'on ne distingue encore aucune représentation réelle:<br />
<br />
[[File:pattern.png]]<br />
<br />
Dans les couches les plus élevées, on commence à observer dans la visualisation ce par quoi l'objet peut être stimulé. Par exemple, dans la photo ci-dessous, on peut observer des têtes de chiens dans la visualisation du neurone.<br />
<br />
[[File:partiesobjets.png]]<br />
<br />
== Car Detector ==<br />
<br />
Les visualisations des neurones d'une couche s'appuyent sur les visualisations des neuronnes des couches précédentes.<br />
<br />
Par exemple ici, dans une classe du modèle inception v1, nous trouvons un neurone stimulé par une roue de voiture et un autre stimulé par des fenêtres de voiture: <br />
<br />
[[File:roue.png|200px]]<br />
[[File:fenetre|200px]]<br />
<br />
Ensuite dans une couche supérieure, on trouve le neurone permettant la détection de voiture dans une image:<br />
<br />
[[File:car.png|200px]]<br />
<br />
On peut donc constater que le neurone de détection de voiture s'est formé grâce aux neurones de détéction de fenêtre et de roues.<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : OpenAI Microscope<br />
* [https://air.imag.fr/index.php/VT2020-OpenAI_Microscope-Demo Démonstration]<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : Élisa BEAUGRAND</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=File:Contour.png&diff=49755File:Contour.png2021-01-04T09:36:42Z<p>Elisa.Beaugrand: </p>
<hr />
<div></div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49754VT2020-OpenAI Microscope-Fiche2021-01-04T09:26:46Z<p>Elisa.Beaugrand: /* Visualisations */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns notables:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
Beaucoup d'autres projets ont bien évidemment vu le jour, dont notamment Microscope présenté ci-dessous.<br />
<br />
= Microscope =<br />
<br />
OpenAI Microscope est un outil sorti au printemps 2020 qui permet de visualiser graphiquement chaque couche significative et chaque neurone de chaque couche d'un réseau de neurones. Grâce à cet outil, on peut explorer un réseau de neurone facilement afin de mieux comprendre son fonctionnement. <br />
<br />
== Définitions ==<br />
Quelques définitions sont nécessaires avant de comprendre plus en détail le fonctionnement de Microscope.<br />
=== Réseau de neurones ===<br />
Un réseau de neurones est un système informatique qui s'inspire du cerveau humain pour apprendre. <br />
<br />
Voici l'architecture d'un réseau de neurones qui peut être représentée comme un graphe orienté:<br />
[[File:neurones.jpeg|600px|thumb|left|Structure réseau de neurones]]<br />
<br />
Ici, sur l'image ci-contre, notre réseau est simple et ne comporte que 4 couches : une '''couche d'entrées''' en rouge, deux '''couches cachées''' en bleu, et une '''couche de sortie''' en vert. Le principe d'un réseau de neurones est le même qu'il y ait 4 couches ou 200 couches. <br />
<br />
Les noeuds du graphe représentent les neurones. On constate que chaque neurone de chaque couche est relié à tous les neurones de la couche suivante.<br />
<br />
Dans le cerveau humain, une information arrive à un neurone, le neurone est stimulé ou non par cette information. Il interprète cette information et transmet ou non un résultat au neurone suivant. Dans les réseaux de neurones, c'est la même chose! Une information arrive à un neurone. Ce neurone calcule son "interêt" pour cette information en fonction de sa stimulation. Ensuite chaque arête du graphe possède un poids qui va permettre grâce à un sytème probabiliste de determiner quel est le neurone suivant à recevoir l'information. Ce système de graphe pondéré et orienté est utilisé afin de représenter au mieux le cerveau animal. En effet grâce à ce système, seulement certains neurones sont stimulés (les plus utiles au traitement de l'information) et non tous à la fois à l'instar du cerveau humain.<br />
<br />
<br />
<br />
=== ImageNet ===<br />
<br />
ImageNet est une banque d'images 200x200px toutes labelisées. ImageNet compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. ImageNet contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont tous types d'objets, d'animaux, de véhicules, etc.<br />
<br />
=== Places365 ===<br />
<br />
Places365 est une banque d'images 200x200px toutes labelisées. Places365 compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. Places365 contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont principalement des lieux remarquables, la nature (montagnes, mer, jungle...), de l'architecture.<br />
<br />
= Modèles compatibles =<br />
Microscope fonctionne sur 8 réseaux de neurones différents, tous basés sur la reconnaissance d'images:<br />
* '''Inception v1''' : apprentissage basé sur ImageNet, en 22 couches, sorti en 2014.<br />
* '''Inception v1 (Places)''' : apprentissage basé sur Places365, même architecture que Inception v1 mais spécialisé dans la reconnaissance de lieux, sorti en 2014.<br />
* '''Inception v3''' : apprentissage basé sur ImageNet, plus performant et efficace qu'Inception v1, sorti en 2015.<br />
* '''Inception v4''' : appretissage basé sur ImageNet, encore plus performant et efficace qu'Inception v3, sorti en 2016.<br />
* '''VGG 19''' : Réseau assez simple basé sur Inception en version simplifiée.<br />
* '''ResNet v2 50''' <br />
* '''AlexNet''' : Modèle le plus connu et le plus étudié basé sur ImageNet.<br />
* '''AlexNet (Places)''' : Même architecture que le réseau AlexNet mais avec un apprentissage basé sur Places365<br />
<br />
Ces modèles de reconnaissance d'images se différencient grâce à leurs caractéristiques d'apprentissage (différentes tailles de couches de convolution, différentes fonctions utilisées, différents poids ...) mais font partis des modèles les plus performants à l'heure actuelle. Microscope s'intéresse donc au fonctionnement de ses réseaux de neuronnes en essayant de comprendre ce qu'apprend concrètement un modèle.<br />
<br />
= Visualisations =<br />
<br />
Nous allons maintenant observer quelques visualisations depuis Microscope. Microscope nous éclaire sur la façon dont est traitée une analyse d'image à travers un réseau de neurones.<br />
<br />
== Architecture en couches ==<br />
<br />
Comme vu précedemment, un modèle est constitué de couches. Ces couches permettent l'analyse d'une image à différents niveaux. Plus les couches sont élévées, plus les visualisations des neurones sont complexes.<br />
<br />
Dans les couches les plus basses on observe des neurones s'interessant particulièrement aux contours:<br />
<br />
[[File:contour.png|200px]]<br />
<br />
Ces neuronnes ne permettent pas à ce stade de deviner par quel "objet" en particulier ils sont stimulés.<br />
<br />
Dans une couche un peu plus élevée, on commence à observer des textures:<br />
<br />
[[File:texture.png|200px]]<br />
<br />
Encore dans une couche plus élevée, on remarque des patterns dans les visualisations, bien qu'on ne distingue encore aucune représentation réelle:<br />
<br />
[[File:pattern.png|200px]]<br />
<br />
Dans les couches les plus élevées, on commence à observer dans la visualisation ce par quoi l'objet peut être stimulé. Par exemple, dans la photo ci-dessous, on peut observer des têtes de chiens dans la visualisation du neurone.<br />
<br />
[[File:partiesobjets.png|200px]]<br />
<br />
== Car Detector ==<br />
<br />
Les visualisations des neurones d'une couche s'appuyent sur les visualisations des neuronnes des couches précédentes.<br />
<br />
Par exemple ici, dans une classe du modèle inception v1, nous trouvons un neurone stimulé par une roue de voiture et un autre stimulé par des fenêtres de voiture: <br />
<br />
[[File:roue.png|200px]]<br />
[[File:fenetre|200px]]<br />
<br />
Ensuite dans une couche supérieure, on trouve le neurone permettant la détection de voiture dans une image:<br />
<br />
[[File:car.png|200px]]<br />
<br />
On peut donc constater que le neurone de détection de voiture s'est formé grâce aux neurones de détéction de fenêtre et de roues.<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : OpenAI Microscope<br />
* [https://air.imag.fr/index.php/VT2020-OpenAI_Microscope-Demo Démonstration]<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : Élisa BEAUGRAND</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49752VT2020-OpenAI Microscope-Fiche2021-01-04T09:06:43Z<p>Elisa.Beaugrand: /* Veille Technologique 2020 */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns notables:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
Beaucoup d'autres projets ont bien évidemment vu le jour, dont notamment Microscope présenté ci-dessous.<br />
<br />
= Microscope =<br />
<br />
OpenAI Microscope est un outil sorti au printemps 2020 qui permet de visualiser graphiquement chaque couche significative et chaque neurone de chaque couche d'un réseau de neurones. Grâce à cet outil, on peut explorer un réseau de neurone facilement afin de mieux comprendre son fonctionnement. <br />
<br />
== Définitions ==<br />
Quelques définitions sont nécessaires avant de comprendre plus en détail le fonctionnement de Microscope.<br />
=== Réseau de neurones ===<br />
Un réseau de neurones est un système informatique qui s'inspire du cerveau humain pour apprendre. <br />
<br />
Voici l'architecture d'un réseau de neurones qui peut être représentée comme un graphe orienté:<br />
[[File:neurones.jpeg|600px|thumb|left|Structure réseau de neurones]]<br />
<br />
Ici, sur l'image ci-contre, notre réseau est simple et ne comporte que 4 couches : une '''couche d'entrées''' en rouge, deux '''couches cachées''' en bleu, et une '''couche de sortie''' en vert. Le principe d'un réseau de neurones est le même qu'il y ait 4 couches ou 200 couches. <br />
<br />
Les noeuds du graphe représentent les neurones. On constate que chaque neurone de chaque couche est relié à tous les neurones de la couche suivante.<br />
<br />
Dans le cerveau humain, une information arrive à un neurone, le neurone est stimulé ou non par cette information. Il interprète cette information et transmet ou non un résultat au neurone suivant. Dans les réseaux de neurones, c'est la même chose! Une information arrive à un neurone. Ce neurone calcule son "interêt" pour cette information en fonction de sa stimulation. Ensuite chaque arête du graphe possède un poids qui va permettre grâce à un sytème probabiliste de determiner quel est le neurone suivant à recevoir l'information. Ce système de graphe pondéré et orienté est utilisé afin de représenter au mieux le cerveau animal. En effet grâce à ce système, seulement certains neurones sont stimulés (les plus utiles au traitement de l'information) et non tous à la fois à l'instar du cerveau humain.<br />
<br />
<br />
<br />
=== ImageNet ===<br />
<br />
ImageNet est une banque d'images 200x200px toutes labelisées. ImageNet compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. ImageNet contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont tous types d'objets, d'animaux, de véhicules, etc.<br />
<br />
=== Places365 ===<br />
<br />
Places365 est une banque d'images 200x200px toutes labelisées. Places365 compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. Places365 contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont principalement des lieux remarquables, la nature (montagnes, mer, jungle...), de l'architecture.<br />
<br />
= Modèles compatibles =<br />
Microscope fonctionne sur 8 réseaux de neurones différents, tous basés sur la reconnaissance d'images:<br />
* '''Inception v1''' : apprentissage basé sur ImageNet, en 22 couches, sorti en 2014.<br />
* '''Inception v1 (Places)''' : apprentissage basé sur Places365, même architecture que Inception v1 mais spécialisé dans la reconnaissance de lieux, sorti en 2014.<br />
* '''Inception v3''' : apprentissage basé sur ImageNet, plus performant et efficace qu'Inception v1, sorti en 2015.<br />
* '''Inception v4''' : appretissage basé sur ImageNet, encore plus performant et efficace qu'Inception v3, sorti en 2016.<br />
* '''VGG 19''' : Réseau assez simple basé sur Inception en version simplifiée.<br />
* '''ResNet v2 50''' <br />
* '''AlexNet''' : Modèle le plus connu et le plus étudié basé sur ImageNet.<br />
* '''AlexNet (Places)''' : Même architecture que le réseau AlexNet mais avec un apprentissage basé sur Places365<br />
<br />
Ces modèles de reconnaissance d'images se différencient grâce à leurs caractéristiques d'apprentissage (différentes tailles de couches de convolution, différentes fonctions utilisées, différents poids ...) mais font partis des modèles les plus performants à l'heure actuelle. Microscope s'intéresse donc au fonctionnement de ses réseaux de neuronnes en essayant de comprendre ce qu'apprend concrètement un modèle.<br />
<br />
= Visualisations =<br />
<br />
== Architecture en couches ==<br />
<br />
== Car Detector ==<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : OpenAI Microscope<br />
* [https://air.imag.fr/index.php/VT2020-OpenAI_Microscope-Demo Démonstration]<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : Élisa BEAUGRAND</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=File:Couche.png&diff=49751File:Couche.png2021-01-04T09:04:06Z<p>Elisa.Beaugrand: </p>
<hr />
<div></div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Demo&diff=49750VT2020-OpenAI Microscope-Demo2021-01-04T09:03:55Z<p>Elisa.Beaugrand: /* Démonstration */</p>
<hr />
<div>= Démonstration =<br />
<br />
L'outil OpenAI Microscope est accessible depuis [https://microscope.openai.com/models ce site web]. Depuis la page principale, on choisit le modèle que l'on souhaite observer parmi les 8 proposés:<br />
[[File:accueilMicroscope.jpg|800px]]<br />
<br />
Une fois un modèle selectionné, nous arrivons sur cette page:<br />
<br />
[[File:Alexnet.png|800px]]<br />
<br />
Dans le menu le plus à gauche de l'écran, nous pouvons changer de modèle. Dans la colonne la plus à droite nous pouvons observer l'architecture du réseau de neuronnes. Chaque noeud représente une couche. Dans la partie centrale de la fenêtre on peut observer une prévisualisation des couches. On peut aussi choisir la technique d'observation. La technique est un peu la "lentille" du microscope.<br />
<br />
<br />
Lorsque l'on clique sur une couche, nous arrivons sur la page suivante:<br />
<br />
[[File:couche.png|800px]]<br />
<br />
On observe alors les neurones du système. On peut parcourir ces neurones. Ici, le neurone séléctionné semble représenter une version abstraite d'une roue de voiture. On peut remarquer dans l'onglet "Dataset samples" qu'effectivement ce neurone a été stimulé par des images de roues de voitures.</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Demo&diff=49749VT2020-OpenAI Microscope-Demo2021-01-04T08:59:54Z<p>Elisa.Beaugrand: /* Démonstration */</p>
<hr />
<div>= Démonstration =<br />
<br />
L'outil OpenAI Microscope est accessible depuis [https://microscope.openai.com/models ce site web]. Depuis la page principale, on choisit le modèle que l'on souhaite observer parmi les 8 proposés:<br />
[[File:accueilMicroscope.jpg|800px]]<br />
<br />
Une fois un modèle selectionné, nous arrivons sur cette page:<br />
[[File:Alexnet.png|800px]]<br />
Dans le menu le plus à gauche de l'écran, nous pouvons changé de modèle. Dans la colonne la plus à droite nous pouvons observer l'architecture du réseau de neuronnes. Chaque noeud représente une couche. Dans la partie centrale de la fenêtre on peut observer une prévisualisation des couches. On peut aussi choisir la technique d'observation. La technique est un peu la "lentille" du microscope.<br />
<br />
<br />
Lorsque l'on clique sur une couche, nous arrivons sur la page suivante:<br />
[[File:couche.png|800px]]<br />
On observe alors les neurones du système. On peut parcourir ces neurones. Ici, le neurone séléctionné semble représenter une version abstraite d'une roue de voiture. On peut remarquer dans l'onglet "Dataset samples" qu'effectivement ce neurone a été stimulé par des images de roues de voitures.</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=File:Alexnet.png&diff=49748File:Alexnet.png2021-01-04T08:58:34Z<p>Elisa.Beaugrand: </p>
<hr />
<div></div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Demo&diff=49747VT2020-OpenAI Microscope-Demo2021-01-04T08:57:56Z<p>Elisa.Beaugrand: /* Démonstration */</p>
<hr />
<div>= Démonstration =<br />
<br />
L'outil OpenAI Microscope est accessible depuis [https://microscope.openai.com/models ce site web]. Depuis la page principale, on choisit le modèle que l'on souhaite observer parmi les 8 proposés:<br />
[[File:accueilMicroscope.jpg|800px]]<br />
<br />
Une fois un modèle selectionné, nous arrivons sur cette page:<br />
[[File:alexnet.jpg|800px]]<br />
Dans le menu le plus à gauche de l'écran, nous pouvons changé de modèle. Dans la colonne la plus à droite nous pouvons observer l'architecture du réseau de neuronnes. Chaque noeud représente une couche. Dans la partie centrale de la fenêtre on peut observer une prévisualisation des couches. On peut aussi choisir la technique d'observation. La technique est un peu la "lentille" du microscope.<br />
<br />
<br />
Lorsque l'on clique sur une couche, nous arrivons sur la page suivante:<br />
[[File:couche.jpg|800px]]<br />
On observe alors les neurones du système. On peut parcourir ces neurones. Ici, le neurone séléctionné semble représenter une version abstraite d'une roue de voiture. On peut remarquer dans l'onglet "Dataset samples" qu'effectivement ce neurone a été stimulé par des images de roues de voitures.</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=File:AccueilMicroscope.jpg&diff=49746File:AccueilMicroscope.jpg2021-01-04T08:45:35Z<p>Elisa.Beaugrand: </p>
<hr />
<div></div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Demo&diff=49745VT2020-OpenAI Microscope-Demo2021-01-04T08:45:20Z<p>Elisa.Beaugrand: Created page with "= Démonstration = L'outil OpenAI Microscope est accessible depuis [https://microscope.openai.com/models ce site web]. Depuis la page principale, on choisit le modèle que l'..."</p>
<hr />
<div>= Démonstration =<br />
<br />
L'outil OpenAI Microscope est accessible depuis [https://microscope.openai.com/models ce site web]. Depuis la page principale, on choisit le modèle que l'on souhaite observer parmi les 8 proposés:<br />
[[File:accueilMicroscope.jpg]]</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020&diff=49744VT20202021-01-04T08:41:36Z<p>Elisa.Beaugrand: </p>
<hr />
<div>[[VT2019|<< Etudes 2019]] [[VT|Sommaire]] [[VT2021|Etudes 2021 >>]]<br />
<br />
<br />
=Veille Technologique et Stratégique=<br />
* Enseignants: [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
* UE/Module: EAM (HPRJ9R6B) et EAR (HPRJ9R4B) en 1FO5<br />
<br />
L'objectif de cette UE est de réaliser un travail de synthèse et d’évaluation sur une technologie / spécification / tendance<br />
<br />
Dans votre futur vie d'ingénieur, vous aurez à d'une part, vous former par vous-même sur une technologie émergente et d'autre part à réaliser une veille technologique (et stratégique) par rapport à votre entreprise et projet.<br />
Il s'agira de réaliser<br />
* le positionnement par rapport au marché<br />
* d'être critique<br />
<br />
Votre synthèse fait l'objet d'une présentation orale convaincante devant un auditoire (dans le futur, vos collègues, vos chefs ou vos clients) avec des transparents et un discours répété.<br />
Pour finir de convaincre (Saint Thomas), vous ferez la présentation d'une démonstration.<br />
<br />
Votre présentation sera notée et commentée par tous vos camarades via un sondage (téléphone mobile). Leurs notes et leurs commentaires seront notés en fonction de leur exactitude de jugement.<br />
<br />
Remarque: Le [https://fr.wikipedia.org/wiki/Plagiat plagiat] est incompatible avec l'éthique de l'ingénieur. Le directeur d'école peut demander votre traduction devant la commission disciplinaire de l'université. La sanction peut aller jusqu’à une interdiction d'inscription dans les établissements de l'enseignement supérieur français pendant plusieurs années : Le jeu en vaut-il la chandelle ?<br />
<br />
La présentation peut être réalisée avec [[reveal.js]] ou avec [[remarkjs]]<br />
<br />
[[File:presentation-VT-RICM5-1516.pdf|transparents d'introduction à l'UE]]<br />
<br />
=Planning=<br />
<br />
== Séance 1 : 16/11 ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 5, 8, 23, 78<br />
<br />
* 16H00 : Alexandra CHATON, Jsonnet, [[VT2020-Jsonnet-Fiche|Fiche]], [[Media:VT2020-Jsonnet-Presentation.pdf|Présentation]], [[VT2020-Jsonnet-Demo|Démonstration]]<br />
* 16H25 : Alexis ROLLIN, GraalVM, [[VT2020-GraalVM-Fiche|Fiche]], [[Media:VT2020-GraalVM-Presentation.pdf|Présentation]], [[VT2020-GraalVM-Demo|Démonstration]]<br />
* 16H50 : Aleck BILOUNGA, Micronaut, [[VT2020-Micronaut-Fiche|Fiche]], [[https://docs.google.com/presentation/d/1oVq_81RwLelY1EptNoObHhmRRfGnfuxBD6PRd49jyjI/edit#slide=id.p Présentation]], [[https://youtu.be/gu7H4kbeA_Y Démonstration]]<br />
* 17H15 : Prénom NOM, Cryptojacking, [[VT2020-Cryptojacking-Fiche|Fiche]], [[File:VT2020-Cryptojacking-Presentation.pdf|Présentation]], [[VT2020-Cryptojacking-Demo|Démonstration]]<br />
<br />
== Séance 2 : 23/11 ==<br />
Enseignants : [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 9, 33, 49, 72, 81<br />
<br />
* 16H00 : Myriam LOMBARD, Microclimate, [[VT2020-Microclimate-Fiche|Fiche]], [[Media:VT2020-Microclimate-Presentation.pdf|Présentation]], [[VT2020-Microclimate-Demo|Démonstration]]<br />
* 16H25 : Samuel COURTHIAL, Voice-First Development, [[VT2020-Voice_First_Development-Fiche|Fiche]], [[Media:VT2020-Voice_First_Development-Presentation.pdf|Présentation]], [[VT2020-Voice_First_Development-Demo|Démonstration]]<br />
* 16H50 : Thomas FRION, Valgrind, [[VT2020-Valgrind-Fiche|Fiche]], [[Media:VT2020-Valgrind-Presentation.pdf|Présentation]], [[VT2020-Valgrind-Demo|Démonstration]]<br />
* 17H15 : Nhat Quang HO, HTTP/3, [[VT2020-Http3-Fiche|Fiche]], [[Media:VT2020-Http3-Presentation.pdf|Présentation]], [[VT2020-Http3-Demo|Démonstration]]<br />
* 17H40 : Romain PASDELOUP, Ballerina, [[VT2020-Ballerina-Fiche|Fiche]], [[Media:VT2020-Ballerina-Presentation.pdf|Présentation]], [[VT2020-Ballerina-Demo|Démonstration]]<br />
<br />
== Séance 3 : 30/11 ==<br />
Enseignants : [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 2, 3, 10, 11, 38<br />
<br />
* 16H00 : EL AJI Houda, Blazor, [[VT2020-Blazor-Fiche|Fiche]], [[Media:VT2020-Blazor-Presentation.pdf|Présentation]], [[VT2020-Blazor-Demo|Démonstration]]<br />
* 16H25 : Vernet Maxime, Website Rendering Types, [[VT2020-XXXXXX-Fiche|Fiche]], [[Media:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H50 : Pareilleux Killian, Quarkus, [[VT2020-Quarkus-Fiche|Fiche]], [[Media:VT2020-Quarkus-Presentation.pdf|Présentation]], [[VT2020-Quarkus-Demo|Démonstration]]<br />
* 17H15 : ZERAMDINI Otba, Helidon, [[VT2020-Helidon-Fiche|Fiche]], [[Media:VT2020-Helidon-Presentation.pdf|Présentation]], [[VT2020-Helidon-Demo|Démonstration]]<br />
* 17H40 : Crociati Morgan, WebAssembly, [[VT2020-WebAssembly-Fiche|Fiche]], [[Media:VT2020-WebAssembly-Presentation.pdf|Présentation]], [[VT2020-WebAssembly-Demo|Démonstration]]<br />
<br />
== Séance 4 : 7/12 ==<br />
Enseignants : [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 4, 15, 16, 19, 21<br />
<br />
* 16H00 : NGUENA Gloria, MemSQL, [[VT2020-MemSQL-Fiche|Fiche]], [[Media:VT2020-MemSQL-Presentation.pdf|Présentation]], [[VT2020-MemSQL-Demo|Démonstration]]<br />
* 16H25 : Graugnard Tom, QuestDB, [[VT2020-QuestDB-Fiche|Fiche]], [[Media:VT2020-QuestDB-Presentation.pdf|Présentation]], [[VT2020-QuestDB-Demo|Démonstration]]<br />
* 16H50 : Delbos Robin, Apache Arrow, [[VT2020-Apache Arrow-Fiche|Fiche]], [[Media:Présentation_Apache_Arrow.pdf|Présentation]], [[VT2020-Apache Arrow-Demo|Démonstration]]<br />
* 17H15 : El Mufti Ali, Apache Pulsar, [[VT2020-Apache Pulsar-Fiche|Fiche]], [[File:VT2020-Pulsar-Presentation.pdf|Présentation]], [[VT2020-Pulsar-Demo|Démonstration]]<br />
* 17H40 : RUZAFA Rémy, Apache Pinot, [[VT2020-AppachePinot-Fiche|Fiche]], [[Media:VT2020-AppachePinot-Présentaion.pdf|Présentation]], [[VT2020-AppachePinot-Demo|Démonstration]]<br />
<br />
== Séance 5 : 14/12 ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 22, 48, 55, 56, 84<br />
<br />
* 16H00 : Sajide Idriss, IoT Dataflow Mashup, [[Eclipse_Kura_Wires|Fiche]], [[Media:IoT Dataflow Mashup.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H25 : Chaix Manon, Nearby Communication, [[VT2020 - Nearby Communications Fiche|Fiche]], [[Media:VT_Nearby.pdf|Présentation]], [[VT2020-NearbyComm-Demo|Démonstration]]<br />
* 16H50 : Palomo Rémy, Apollo 2.0, [[VT2020-Plateforme Apollo-Fiche|Fiche]], [[Media:VT2020-Apollo-Presentation.pdf|Présentation]], [[VT2020-Apollo-Demo|Démonstration]]<br />
* 17H15 : Nelson William, Flogo, [[VT2020-Flogo-Fiche|Fiche]], [[File:Project_Flogo.pdf|Présentation]], [[VT2020_-_Flogo_Demo|Démonstration]]<br />
* 17H40 : Fougere Sebastian, Amazon Sidewalk, [[VT2020-Amazon-Sidewalk-Fiche|Fiche]], [[Media:VT2020-Amazon-sidewalk-presentation.pdf|Présentation]], [[VT2020-WebThings-Framework-Demo|Démonstration]]<br />
<br />
== Séance 6 : 4/1 ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 6, 7, 20, 50, 83<br />
<br />
* 16H00 : Boleat Baptiste, OpenAI GPT-3, [[VT2020-OpenAI GPT-3-Fiche|Fiche]], [https://baptboleat.github.io/gpt3-presentation/ Présentation], [[VT2020-GPT-3-Demo|Démonstration]]<br />
* 16H25 : Beaugrand Elisa, OpenAI Microscope, [[VT2020-OpenAI Microscope-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-OpenAI Microscope-Demo|Démonstration]]<br />
* 16H50 : Artaud Adrien, Godot, [[VT2020-Godot-Fiche|Fiche]], [[Media:VT2020-Godot-Presentation.pdf|Présentation]], [[VT2020-Godot-Demo|Démonstration]]<br />
* 17H15 : ASSI Dima, Psychométrie, [[VT2020_Psychometrie_Fiche|Fiche]], [[File:VT2020-psychometriePresentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 17H40 : De Gaudenzi Louis, Deepfake Algorithms, [[VT2020-Deepfake Algorithms-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-Deepfake_Algorithms-Demo|Démonstration]]<br />
<br />
== Séance 7 : 11/1 ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 1, 32, 41, 60, XXXX<br />
<br />
* 16H00 : Rival Gaëtan, Matrix, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H25 : El Jraidi Rim, Peloton, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H50 : Michelard Leila, DevSecOps, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 17H15 : Salmon Alexandre, BFT, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 17H40 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
<br />
== Séance 8 : Asynchrone ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : TBC<br />
<br />
* 16H00 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H25 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H50 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 17H15 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 17H40 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
<br />
=Sujets=<br />
# [[Matrix]] : An open network for secure, decentralized communication<br />
# [[Blazor]] (Browser+Razor) : a new web development framework introduced by Microsoft, which allows you to develop browser-based applications using C# and Razor syntax alongside HTML and CSS.<br />
# [[Website Rendering Types]] (Static, Dynamic, Incremetal) : démonstration de [https://nextjs.org/ NextJS]<br />
# [[MemSQL]]<br />
# [[Micronaut]] : Microservice platform ([https://dzone.com/articles/how-to-use-jhipster-to-build-a-secure-micronaut-an démo] avec [https://github.com/jhipster/generator-jhipster-micronaut Micronaut blueprint of JHipster])<br />
# [[OpenAI GPT-3]]<br />
# [[OpenAI Microscope]]<br />
# [[GraalVM]] : Polyglot Virtual Machine<br />
# [[Ballerina]] : open source programming language and platform for cloud-era application programmers to easily write software that just works<br />
# [[Quarkus]] : Supersonic Subatomic Java<br />
# [[Helidon]] : collection of Java libraries for writing microservices.<br />
# [[Flux]] (#fluxlang) new data scripting language to make querying and analyzing time series<br />
# [[Processeurs spécialisés pour l'IA]] : Démonstration avec la carte [https://greenwaves-technologies.com/product/gappoc-a-computer-vision-concept-board/ GAPPoc-A] de GreenWaves. ANNULé<br />
# [[NATS]]: PubSub broker (démonstration avec CampusIoT)<br />
# [[QuestDB]] : time-series database (démostration avec CampusIoT).<br />
# [[Apache Arrow]] : cross-language development platform for in-memory data<br />
# In-memory Distributed Data Grid : démonstration de eCom avec [[Apache Ignite]].<br />
# [[jQAssistant]] : application à eCOM<br />
# [[Apache Pulsar]] Pulsar is a multi-tenant, high-performance solution for server-to-server messaging. Pulsar was originally developed by Yahoo.<br />
# [[Godot Game Engine]]<br />
# [[Apache Pinot]] : realtime distributed OLAP datastore<br />
# [[IoT Dataflow Mashup]] (démo avec [[Eclipse Kura Wires]])<br />
# [[JSONnet]]<br />
# [[Géo-réplication]] : Démo avec [[Apache Kafka MirrorMaker]]<br />
# [[Pulsar]]<br />
# [[Wookey project]] (Demo on a STM32F407 Discovery board) ANNULé<br />
# [[RSocket]]<br />
# [[Nacos]] : open source project by Alibaba for service discovery and service configuration.<br />
# [[NEMU]] : open source hypervisor specifically built and designed to run modern cloud workloads on modern 64-bit Intel and ARM CPUs.<br />
# [[Architecture Serverless]] : démonstration avec le projet https://github.com/serverless/serverless sur votre compte Azure de votre compte GitHub Student Pack ANNULé<br />
# [[Fission]] : open-source serverless function framework for [[Kubernetes]] with a focus on developer productivity and high performance.<br />
# [[Peloton]], a unified resource scheduler<br />
# [[Microclimate]]<br />
# [[AdTech]]<br />
# [[Nearby communications]] (démonstration de [https://ionicframework.com/docs/native/google-nearby/ Nearby Messages API de Google avec Ionic]) --> Réservé Manon Chaix<br />
# [[Conflict-free replicated data type]] (CRDT) RECOMMANDé<br />
# [[Spinnaker]]<br />
# [[WebAssembly]]<br />
# [[Fast Identity Online Alliance]] (FIDO) ANNULé<br />
# [[Apache MXNet]] : Demo avec [[Intel Movidius]] ([https://github.com/tspannhw/rpi-mxnet-movidius-minifi lien]) ANNULé<br />
# [[DevSecOps]] <br />
# [[Apache Beam]] RECOMMANDé<br />
# [[In-Memory Data Grids]] : Démonstration de [[Gigaspaces]] et [[XAP]] Open Source<br />
# Gestionnaires de contenu : démonstration de [[Apache Jackrabbit]] dans le projet [[eCOM]]<br />
# [[Memory-centric virtual distributed storage system]]<br />
# [[ESB]] : démonstration de [[Mule ESB]]<br />
# [[MemCached]]<br />
# [[Low-Power Global Area Network]]s ([[Sat-IoT]])<br />
# [[ Voice-First Development]] : Designing, Developing, and Deploying Conversational Interfaces<br />
# [[Psychométrie]]<br />
# [[WebAssembly]]<br />
# [[DevSecOps]]<br />
# Portails et l'API [[Portlet]] : Démo avec [[Liferay]] ANNULé<br />
# [[Apache Beam]]<br />
# [[plateforme logicielle open source de conduite autonome Apollo 2.0]]<br />
# [[Flogo]] Open Source Framework for IoT Edge Apps & Integration.<br />
# [[Neural Processing Unit]] (NPU) : Demo de la clé [[Intel Movidius]] sur un RPI<br />
# [[Hazelcast]] : Démo avec Spring Boot ([https://dzone.com/storage/assets/6459742-dzone-rc247-gettingstartedwithspringbootandmicrose.pdf lien]) dans un projet [[JHipster]]<br />
# [[In-Memory Data Grids]] : Démonstration de [[Gigaspaces]] et [[XAP]] Open Source<br />
# [[Fautes Byzantines]] : Démonstration de [[BFT-SMaRt]]<br />
# Insport Video<br />
# Gestionnaires de contenu : démonstration de [[Apache Jackrabbit]] dans le projet [[eCOM]]<br />
# [[Memory-centric virtual distributed storage system]]<br />
# [[Performance Monitoring]]<br />
# [[ESB]] : démonstration de [[Mule ESB]] ANNULé<br />
# [[Access Network Query Protocol (ANQP)]]<br />
# [[JCache]] : démonstration avec [[Apache Ignity]]<br />
# [[MemCached]]<br />
# [[Apache Stratos]]<br />
# [[gceasy]] : Universal garbage collection log Analyser<br />
# [[Apache Solr]] : Démonstration avec [http://hortonworks.com/hadoop-tutorial/indexing-and-searching-text-within-images-with-apache-solr/ Tesseract OCR]<br />
# [[Valgrind]]<br />
# [[Content Delivery Network]]s : Démonstration de [[Amazon S3]], Azure, Akamaï ... sur votre projet [[ECOM-RICM|eCOM]]<br />
# [[CMS]] : Demo avec [[Crafter CMS]]<br />
# [[DMS]] (GED) : Demo avec la version Community Edition d'[[Alfresco]] et de son API REST avec [[Swagger]] ANNULé<br />
# [[SIG]] : Démonstration de [[QGIS]]<br />
# [[Apache Airflow]] ANNULé<br />
# [[Cryptojacking]] : démonstration d'un navigateur exécutant [https://github.com/cazala/coin-hive CoinHive] et affichage du coup énergétique de l'opération.<br />
# [[RIOT-OS]] : système d'exploitation pour l'Internet des Objets (Démonstration sur une carte STM32 Nucleo LRWAN1). ANNULé<br />
# [[Zephyr]] : système d'exploitation pour l'Internet des Objets (Démonstration sur une carte [[Intel Quark D2000]]). ANNULé<br />
# [[HTTP/3]] : quoi de neuf ? Démonstration de l'amélioration des performances.<br />
# [[Gyro]] : domain-specific language designed to concisely describe a cloud infrastructure. Démonstration avec votre application eCOM JHipster sur Azure.<br />
# [[Deepfake Algorithms]] et outils.<br />
# [[Amazon Sidewalk]]<br />
# Interfaces Homme-Machine sans contact (sous réserve de démonstrateur)<br />
# Interfaces Homme-Machine haptiques (sous réserve de démonstrateur)<br />
# Algorithmes et systèmes de vote électronique : vices et vertus.<br />
# [[Normes et systèmes de signature électronique]]<br />
# Database as a Microservice : [[HarperDB]]<br />
# [[Web of Things (WoT)]]</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49743VT2020-OpenAI Microscope-Fiche2021-01-04T08:40:06Z<p>Elisa.Beaugrand: /* Fonctionnement */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns notables:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
Beaucoup d'autres projets ont bien évidemment vu le jour, dont notamment Microscope présenté ci-dessous.<br />
<br />
= Microscope =<br />
<br />
OpenAI Microscope est un outil sorti au printemps 2020 qui permet de visualiser graphiquement chaque couche significative et chaque neurone de chaque couche d'un réseau de neurones. Grâce à cet outil, on peut explorer un réseau de neurone facilement afin de mieux comprendre son fonctionnement. <br />
<br />
== Définitions ==<br />
Quelques définitions sont nécessaires avant de comprendre plus en détail le fonctionnement de Microscope.<br />
=== Réseau de neurones ===<br />
Un réseau de neurones est un système informatique qui s'inspire du cerveau humain pour apprendre. <br />
<br />
Voici l'architecture d'un réseau de neurones qui peut être représentée comme un graphe orienté:<br />
[[File:neurones.jpeg|600px|thumb|left|Structure réseau de neurones]]<br />
<br />
Ici, sur l'image ci-contre, notre réseau est simple et ne comporte que 4 couches : une '''couche d'entrées''' en rouge, deux '''couches cachées''' en bleu, et une '''couche de sortie''' en vert. Le principe d'un réseau de neurones est le même qu'il y ait 4 couches ou 200 couches. <br />
<br />
Les noeuds du graphe représentent les neurones. On constate que chaque neurone de chaque couche est relié à tous les neurones de la couche suivante.<br />
<br />
Dans le cerveau humain, une information arrive à un neurone, le neurone est stimulé ou non par cette information. Il interprète cette information et transmet ou non un résultat au neurone suivant. Dans les réseaux de neurones, c'est la même chose! Une information arrive à un neurone. Ce neurone calcule son "interêt" pour cette information en fonction de sa stimulation. Ensuite chaque arête du graphe possède un poids qui va permettre grâce à un sytème probabiliste de determiner quel est le neurone suivant à recevoir l'information. Ce système de graphe pondéré et orienté est utilisé afin de représenter au mieux le cerveau animal. En effet grâce à ce système, seulement certains neurones sont stimulés (les plus utiles au traitement de l'information) et non tous à la fois à l'instar du cerveau humain.<br />
<br />
<br />
<br />
=== ImageNet ===<br />
<br />
ImageNet est une banque d'images 200x200px toutes labelisées. ImageNet compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. ImageNet contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont tous types d'objets, d'animaux, de véhicules, etc.<br />
<br />
=== Places365 ===<br />
<br />
Places365 est une banque d'images 200x200px toutes labelisées. Places365 compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. Places365 contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont principalement des lieux remarquables, la nature (montagnes, mer, jungle...), de l'architecture.<br />
<br />
= Modèles compatibles =<br />
Microscope fonctionne sur 8 réseaux de neurones différents, tous basés sur la reconnaissance d'images:<br />
* '''Inception v1''' : apprentissage basé sur ImageNet, en 22 couches, sorti en 2014.<br />
* '''Inception v1 (Places)''' : apprentissage basé sur Places365, même architecture que Inception v1 mais spécialisé dans la reconnaissance de lieux, sorti en 2014.<br />
* '''Inception v3''' : apprentissage basé sur ImageNet, plus performant et efficace qu'Inception v1, sorti en 2015.<br />
* '''Inception v4''' : appretissage basé sur ImageNet, encore plus performant et efficace qu'Inception v3, sorti en 2016.<br />
* '''VGG 19''' : Réseau assez simple basé sur Inception en version simplifiée.<br />
* '''ResNet v2 50''' <br />
* '''AlexNet''' : Modèle le plus connu et le plus étudié basé sur ImageNet.<br />
* '''AlexNet (Places)''' : Même architecture que le réseau AlexNet mais avec un apprentissage basé sur Places365<br />
<br />
Ces modèles de reconnaissance d'images se différencient grâce à leurs caractéristiques d'apprentissage (différentes tailles de couches de convolution, différentes fonctions utilisées, différents poids ...) mais font partis des modèles les plus performants à l'heure actuelle. Microscope s'intéresse donc au fonctionnement de ses réseaux de neuronnes en essayant de comprendre ce qu'apprend concrètement un modèle.<br />
<br />
= Visualisations =<br />
<br />
== Architecture en couches ==<br />
<br />
== Car Detector ==<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : OpenAI Microscope<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : Élisa BEAUGRAND</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49741VT2020-OpenAI Microscope-Fiche2021-01-04T08:25:23Z<p>Elisa.Beaugrand: /* Modèles compatibles */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns notables:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
Beaucoup d'autres projets ont bien évidemment vu le jour, dont notamment Microscope présenté ci-dessous.<br />
<br />
= Microscope =<br />
<br />
OpenAI Microscope est un outil sorti au printemps 2020 qui permet de visualiser graphiquement chaque couche significative et chaque neurone de chaque couche d'un réseau de neurones. Grâce à cet outil, on peut explorer un réseau de neurone facilement afin de mieux comprendre son fonctionnement. <br />
<br />
== Définitions ==<br />
Quelques définitions sont nécessaires avant de comprendre plus en détail le fonctionnement de Microscope.<br />
=== Réseau de neurones ===<br />
Un réseau de neurones est un système informatique qui s'inspire du cerveau humain pour apprendre. <br />
<br />
Voici l'architecture d'un réseau de neurones qui peut être représentée comme un graphe orienté:<br />
[[File:neurones.jpeg|600px|thumb|left|Structure réseau de neurones]]<br />
<br />
Ici, sur l'image ci-contre, notre réseau est simple et ne comporte que 4 couches : une '''couche d'entrées''' en rouge, deux '''couches cachées''' en bleu, et une '''couche de sortie''' en vert. Le principe d'un réseau de neurones est le même qu'il y ait 4 couches ou 200 couches. <br />
<br />
Les noeuds du graphe représentent les neurones. On constate que chaque neurone de chaque couche est relié à tous les neurones de la couche suivante.<br />
<br />
Dans le cerveau humain, une information arrive à un neurone, le neurone est stimulé ou non par cette information. Il interprète cette information et transmet ou non un résultat au neurone suivant. Dans les réseaux de neurones, c'est la même chose! Une information arrive à un neurone. Ce neurone calcule son "interêt" pour cette information en fonction de sa stimulation. Ensuite chaque arête du graphe possède un poids qui va permettre grâce à un sytème probabiliste de determiner quel est le neurone suivant à recevoir l'information. Ce système de graphe pondéré et orienté est utilisé afin de représenter au mieux le cerveau animal. En effet grâce à ce système, seulement certains neurones sont stimulés (les plus utiles au traitement de l'information) et non tous à la fois à l'instar du cerveau humain.<br />
<br />
<br />
<br />
=== ImageNet ===<br />
<br />
ImageNet est une banque d'images 200x200px toutes labelisées. ImageNet compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. ImageNet contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont tous types d'objets, d'animaux, de véhicules, etc.<br />
<br />
=== Places365 ===<br />
<br />
Places365 est une banque d'images 200x200px toutes labelisées. Places365 compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. Places365 contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont principalement des lieux remarquables, la nature (montagnes, mer, jungle...), de l'architecture.<br />
<br />
= Modèles compatibles =<br />
Microscope fonctionne sur 8 réseaux de neurones différents, tous basés sur la reconnaissance d'images:<br />
* '''Inception v1''' : apprentissage basé sur ImageNet, en 22 couches, sorti en 2014.<br />
* '''Inception v1 (Places)''' : apprentissage basé sur Places365, même architecture que Inception v1 mais spécialisé dans la reconnaissance de lieux, sorti en 2014.<br />
* '''Inception v3''' : apprentissage basé sur ImageNet, plus performant et efficace qu'Inception v1, sorti en 2015.<br />
* '''Inception v4''' : appretissage basé sur ImageNet, encore plus performant et efficace qu'Inception v3, sorti en 2016.<br />
* '''VGG 19''' : Réseau assez simple basé sur Inception en version simplifiée.<br />
* '''ResNet v2 50''' <br />
* '''AlexNet''' : Modèle le plus connu et le plus étudié basé sur ImageNet.<br />
* '''AlexNet (Places)''' : Même architecture que le réseau AlexNet mais avec un apprentissage basé sur Places365<br />
<br />
Ces modèles de reconnaissance d'images se différencient grâce à leurs caractéristiques d'apprentissage (différentes tailles de couches de convolution, différentes fonctions utilisées, différents poids ...) mais font partis des modèles les plus performants à l'heure actuelle. Microscope s'intéresse donc au fonctionnement de ses réseaux de neuronnes en essayant de comprendre ce qu'apprend concrètement un modèle.<br />
<br />
= Fonctionnement =<br />
<br />
<br />
= Visualisations =<br />
<br />
== Architecture en couches ==<br />
<br />
== Car Detector ==<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : OpenAI Microscope<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : Élisa BEAUGRAND</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49740VT2020-OpenAI Microscope-Fiche2021-01-04T08:24:57Z<p>Elisa.Beaugrand: </p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns notables:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
Beaucoup d'autres projets ont bien évidemment vu le jour, dont notamment Microscope présenté ci-dessous.<br />
<br />
= Microscope =<br />
<br />
OpenAI Microscope est un outil sorti au printemps 2020 qui permet de visualiser graphiquement chaque couche significative et chaque neurone de chaque couche d'un réseau de neurones. Grâce à cet outil, on peut explorer un réseau de neurone facilement afin de mieux comprendre son fonctionnement. <br />
<br />
== Définitions ==<br />
Quelques définitions sont nécessaires avant de comprendre plus en détail le fonctionnement de Microscope.<br />
=== Réseau de neurones ===<br />
Un réseau de neurones est un système informatique qui s'inspire du cerveau humain pour apprendre. <br />
<br />
Voici l'architecture d'un réseau de neurones qui peut être représentée comme un graphe orienté:<br />
[[File:neurones.jpeg|600px|thumb|left|Structure réseau de neurones]]<br />
<br />
Ici, sur l'image ci-contre, notre réseau est simple et ne comporte que 4 couches : une '''couche d'entrées''' en rouge, deux '''couches cachées''' en bleu, et une '''couche de sortie''' en vert. Le principe d'un réseau de neurones est le même qu'il y ait 4 couches ou 200 couches. <br />
<br />
Les noeuds du graphe représentent les neurones. On constate que chaque neurone de chaque couche est relié à tous les neurones de la couche suivante.<br />
<br />
Dans le cerveau humain, une information arrive à un neurone, le neurone est stimulé ou non par cette information. Il interprète cette information et transmet ou non un résultat au neurone suivant. Dans les réseaux de neurones, c'est la même chose! Une information arrive à un neurone. Ce neurone calcule son "interêt" pour cette information en fonction de sa stimulation. Ensuite chaque arête du graphe possède un poids qui va permettre grâce à un sytème probabiliste de determiner quel est le neurone suivant à recevoir l'information. Ce système de graphe pondéré et orienté est utilisé afin de représenter au mieux le cerveau animal. En effet grâce à ce système, seulement certains neurones sont stimulés (les plus utiles au traitement de l'information) et non tous à la fois à l'instar du cerveau humain.<br />
<br />
<br />
<br />
=== ImageNet ===<br />
<br />
ImageNet est une banque d'images 200x200px toutes labelisées. ImageNet compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. ImageNet contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont tous types d'objets, d'animaux, de véhicules, etc.<br />
<br />
=== Places365 ===<br />
<br />
Places365 est une banque d'images 200x200px toutes labelisées. Places365 compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. Places365 contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont principalement des lieux remarquables, la nature (montagnes, mer, jungle...), de l'architecture.<br />
<br />
== Modèles compatibles ==<br />
Microscope fonctionne sur 8 réseaux de neurones différents, tous basés sur la reconnaissance d'images:<br />
* '''Inception v1''' : apprentissage basé sur ImageNet, en 22 couches, sorti en 2014.<br />
* '''Inception v1 (Places)''' : apprentissage basé sur Places365, même architecture que Inception v1 mais spécialisé dans la reconnaissance de lieux, sorti en 2014.<br />
* '''Inception v3''' : apprentissage basé sur ImageNet, plus performant et efficace qu'Inception v1, sorti en 2015.<br />
* '''Inception v4''' : appretissage basé sur ImageNet, encore plus performant et efficace qu'Inception v3, sorti en 2016.<br />
* '''VGG 19''' : Réseau assez simple basé sur Inception en version simplifiée.<br />
* '''ResNet v2 50''' <br />
* '''AlexNet''' : Modèle le plus connu et le plus étudié basé sur ImageNet.<br />
* '''AlexNet (Places)''' : Même architecture que le réseau AlexNet mais avec un apprentissage basé sur Places365<br />
<br />
Ces modèles de reconnaissance d'images se différencient grâce à leurs caractéristiques d'apprentissage (différentes tailles de couches de convolution, différentes fonctions utilisées, différents poids ...) mais font partis des modèles les plus performants à l'heure actuelle. Microscope s'intéresse donc au fonctionnement de ses réseaux de neuronnes en essayant de comprendre ce qu'apprend concrètement un modèle.<br />
<br />
= Fonctionnement =<br />
<br />
<br />
= Visualisations =<br />
<br />
== Architecture en couches ==<br />
<br />
== Car Detector ==<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : OpenAI Microscope<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : Élisa BEAUGRAND</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49739VT2020-OpenAI Microscope-Fiche2021-01-04T08:22:03Z<p>Elisa.Beaugrand: /* Places365 */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns notables:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
Beaucoup d'autres projets ont bien évidemment vu le jour, dont notamment Microscope présenté ci-dessous.<br />
<br />
= Microscope =<br />
<br />
OpenAI Microscope est un outil sorti au printemps 2020 qui permet de visualiser graphiquement chaque couche significative et chaque neurone de chaque couche d'un réseau de neurones. Grâce à cet outil, on peut explorer un réseau de neurone facilement afin de mieux comprendre son fonctionnement. <br />
<br />
== Définitions ==<br />
Quelques définitions sont nécessaires avant de comprendre plus en détail le fonctionnement de Microscope.<br />
=== Réseau de neurones ===<br />
Un réseau de neurones est un système informatique qui s'inspire du cerveau humain pour apprendre. <br />
<br />
Voici l'architecture d'un réseau de neurones qui peut être représentée comme un graphe orienté:<br />
[[File:neurones.jpeg|600px|thumb|left|Structure réseau de neurones]]<br />
<br />
Ici, sur l'image ci-contre, notre réseau est simple et ne comporte que 4 couches : une '''couche d'entrées''' en rouge, deux '''couches cachées''' en bleu, et une '''couche de sortie''' en vert. Le principe d'un réseau de neurones est le même qu'il y ait 4 couches ou 200 couches. <br />
<br />
Les noeuds du graphe représentent les neurones. On constate que chaque neurone de chaque couche est relié à tous les neurones de la couche suivante.<br />
<br />
Dans le cerveau humain, une information arrive à un neurone, le neurone est stimulé ou non par cette information. Il interprète cette information et transmet ou non un résultat au neurone suivant. Dans les réseaux de neurones, c'est la même chose! Une information arrive à un neurone. Ce neurone calcule son "interêt" pour cette information en fonction de sa stimulation. Ensuite chaque arête du graphe possède un poids qui va permettre grâce à un sytème probabiliste de determiner quel est le neurone suivant à recevoir l'information. Ce système de graphe pondéré et orienté est utilisé afin de représenter au mieux le cerveau animal. En effet grâce à ce système, seulement certains neurones sont stimulés (les plus utiles au traitement de l'information) et non tous à la fois à l'instar du cerveau humain.<br />
<br />
<br />
<br />
=== ImageNet ===<br />
<br />
ImageNet est une banque d'images 200x200px toutes labelisées. ImageNet compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. ImageNet contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont tous types d'objets, d'animaux, de véhicules, etc.<br />
<br />
=== Places365 ===<br />
<br />
Places365 est une banque d'images 200x200px toutes labelisées. Places365 compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. Places365 contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont principalement des lieux remarquables, la nature (montagnes, mer, jungle...), de l'architecture.<br />
<br />
== Modèles compatibles ==<br />
Microscope fonctionne sur 8 réseaux de neurones différents, tous basés sur la reconnaissance d'images:<br />
* '''Inception v1''' : apprentissage basé sur ImageNet, en 22 couches, sorti en 2014.<br />
* '''Inception v1 (Places)''' : apprentissage basé sur Places365, même architecture que Inception v1 mais spécialisé dans la reconnaissance de lieux, sorti en 2014.<br />
* '''Inception v3''' : apprentissage basé sur ImageNet, plus performant et efficace qu'Inception v1, sorti en 2015.<br />
* '''Inception v4''' : appretissage basé sur ImageNet, encore plus performant et efficace qu'Inception v3, sorti en 2016.<br />
* '''VGG 19''' : Réseau assez simple basé sur Inception en version simplifiée.<br />
* '''ResNet v2 50''' <br />
* '''AlexNet''' : Modèle le plus connu et le plus étudié basé sur ImageNet.<br />
* '''AlexNet (Places)''' : Même architecture que le réseau AlexNet mais avec un apprentissage basé sur Places365<br />
<br />
Ces modèles de reconnaissance d'images se différencient grâce à leurs caractéristiques d'apprentissage (différentes tailles de couches de convolution, différentes fonctions utilisées, différents poids ...) mais font partis des modèles les plus performants à l'heure actuelle. Microscope s'intéresse donc au fonctionnement de ses réseaux de neuronnes en essayant de comprendre ce qu'apprend concrètement un modèle.<br />
<br />
= Définitions =<br />
== Réseau de neuronnes ==<br />
<br />
== ImageNet ==<br />
<br />
== Places365 ==<br />
<br />
= Fonctionnement =<br />
<br />
= Visualisations =<br />
<br />
== Architecture en couches ==<br />
<br />
== Car Detector ==<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
Site officiel :<br />
http://www.flogo.io/<br />
<br />
Github :<br />
https://github.com/tibcosoftware/flogo<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : Flogo<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : William NELSON</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49738VT2020-OpenAI Microscope-Fiche2021-01-04T08:20:21Z<p>Elisa.Beaugrand: /* ImageNet */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns notables:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
Beaucoup d'autres projets ont bien évidemment vu le jour, dont notamment Microscope présenté ci-dessous.<br />
<br />
= Microscope =<br />
<br />
OpenAI Microscope est un outil sorti au printemps 2020 qui permet de visualiser graphiquement chaque couche significative et chaque neurone de chaque couche d'un réseau de neurones. Grâce à cet outil, on peut explorer un réseau de neurone facilement afin de mieux comprendre son fonctionnement. <br />
<br />
== Définitions ==<br />
Quelques définitions sont nécessaires avant de comprendre plus en détail le fonctionnement de Microscope.<br />
=== Réseau de neurones ===<br />
Un réseau de neurones est un système informatique qui s'inspire du cerveau humain pour apprendre. <br />
<br />
Voici l'architecture d'un réseau de neurones qui peut être représentée comme un graphe orienté:<br />
[[File:neurones.jpeg|600px|thumb|left|Structure réseau de neurones]]<br />
<br />
Ici, sur l'image ci-contre, notre réseau est simple et ne comporte que 4 couches : une '''couche d'entrées''' en rouge, deux '''couches cachées''' en bleu, et une '''couche de sortie''' en vert. Le principe d'un réseau de neurones est le même qu'il y ait 4 couches ou 200 couches. <br />
<br />
Les noeuds du graphe représentent les neurones. On constate que chaque neurone de chaque couche est relié à tous les neurones de la couche suivante.<br />
<br />
Dans le cerveau humain, une information arrive à un neurone, le neurone est stimulé ou non par cette information. Il interprète cette information et transmet ou non un résultat au neurone suivant. Dans les réseaux de neurones, c'est la même chose! Une information arrive à un neurone. Ce neurone calcule son "interêt" pour cette information en fonction de sa stimulation. Ensuite chaque arête du graphe possède un poids qui va permettre grâce à un sytème probabiliste de determiner quel est le neurone suivant à recevoir l'information. Ce système de graphe pondéré et orienté est utilisé afin de représenter au mieux le cerveau animal. En effet grâce à ce système, seulement certains neurones sont stimulés (les plus utiles au traitement de l'information) et non tous à la fois à l'instar du cerveau humain.<br />
<br />
<br />
<br />
=== ImageNet ===<br />
<br />
ImageNet est une banque d'images 200x200px toutes labelisées. ImageNet compte 1000 classes d'images différentes et est souvent utilisé pour l'apprentissage de réseaux de neurones de reconnaissance d'images. ImageNet contient donc un très gros volume de données (environ 100000 images). Les classes d'images sont tous types d'objets, d'animaux, de véhicules, etc.<br />
<br />
=== Places365 ===<br />
<br />
== Modèles compatibles ==<br />
Microscope fonctionne sur 8 réseaux de neurones différents, tous basés sur la reconnaissance d'images:<br />
* '''Inception v1''' : apprentissage basé sur ImageNet, en 22 couches, sorti en 2014.<br />
* '''Inception v1 (Places)''' : apprentissage basé sur Places365, même architecture que Inception v1 mais spécialisé dans la reconnaissance de lieux, sorti en 2014.<br />
* '''Inception v3''' : apprentissage basé sur ImageNet, plus performant et efficace qu'Inception v1, sorti en 2015.<br />
* '''Inception v4''' : appretissage basé sur ImageNet, encore plus performant et efficace qu'Inception v3, sorti en 2016.<br />
* '''VGG 19''' : Réseau assez simple basé sur Inception en version simplifiée.<br />
* '''ResNet v2 50''' <br />
* '''AlexNet''' : Modèle le plus connu et le plus étudié basé sur ImageNet.<br />
* '''AlexNet (Places)''' : Même architecture que le réseau AlexNet mais avec un apprentissage basé sur Places365<br />
<br />
Ces modèles de reconnaissance d'images se différencient grâce à leurs caractéristiques d'apprentissage (différentes tailles de couches de convolution, différentes fonctions utilisées, différents poids ...) mais font partis des modèles les plus performants à l'heure actuelle. Microscope s'intéresse donc au fonctionnement de ses réseaux de neuronnes en essayant de comprendre ce qu'apprend concrètement un modèle.<br />
<br />
= Définitions =<br />
== Réseau de neuronnes ==<br />
<br />
== ImageNet ==<br />
<br />
== Places365 ==<br />
<br />
= Fonctionnement =<br />
<br />
= Visualisations =<br />
<br />
== Architecture en couches ==<br />
<br />
== Car Detector ==<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
Site officiel :<br />
http://www.flogo.io/<br />
<br />
Github :<br />
https://github.com/tibcosoftware/flogo<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : Flogo<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : William NELSON</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49737VT2020-OpenAI Microscope-Fiche2021-01-04T08:15:43Z<p>Elisa.Beaugrand: /* ImageNet */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns notables:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
Beaucoup d'autres projets ont bien évidemment vu le jour, dont notamment Microscope présenté ci-dessous.<br />
<br />
= Microscope =<br />
<br />
OpenAI Microscope est un outil sorti au printemps 2020 qui permet de visualiser graphiquement chaque couche significative et chaque neurone de chaque couche d'un réseau de neurones. Grâce à cet outil, on peut explorer un réseau de neurone facilement afin de mieux comprendre son fonctionnement. <br />
<br />
== Définitions ==<br />
Quelques définitions sont nécessaires avant de comprendre plus en détail le fonctionnement de Microscope.<br />
=== Réseau de neurones ===<br />
Un réseau de neurones est un système informatique qui s'inspire du cerveau humain pour apprendre. <br />
<br />
Voici l'architecture d'un réseau de neurones qui peut être représentée comme un graphe orienté:<br />
[[File:neurones.jpeg|600px|thumb|left|Structure réseau de neurones]]<br />
<br />
Ici, sur l'image ci-contre, notre réseau est simple et ne comporte que 4 couches : une '''couche d'entrées''' en rouge, deux '''couches cachées''' en bleu, et une '''couche de sortie''' en vert. Le principe d'un réseau de neurones est le même qu'il y ait 4 couches ou 200 couches. <br />
<br />
Les noeuds du graphe représentent les neurones. On constate que chaque neurone de chaque couche est relié à tous les neurones de la couche suivante.<br />
<br />
Dans le cerveau humain, une information arrive à un neurone, le neurone est stimulé ou non par cette information. Il interprète cette information et transmet ou non un résultat au neurone suivant. Dans les réseaux de neurones, c'est la même chose! Une information arrive à un neurone. Ce neurone calcule son "interêt" pour cette information en fonction de sa stimulation. Ensuite chaque arête du graphe possède un poids qui va permettre grâce à un sytème probabiliste de determiner quel est le neurone suivant à recevoir l'information. Ce système de graphe pondéré et orienté est utilisé afin de représenter au mieux le cerveau animal. En effet grâce à ce système, seulement certains neurones sont stimulés (les plus utiles au traitement de l'information) et non tous à la fois à l'instar du cerveau humain.<br />
<br />
<br />
<br />
=== ImageNet ===<br />
<br />
=== Places365 ===<br />
<br />
== Modèles compatibles ==<br />
Microscope fonctionne sur 8 réseaux de neurones différents, tous basés sur la reconnaissance d'images:<br />
* '''Inception v1''' : apprentissage basé sur ImageNet, en 22 couches, sorti en 2014.<br />
* '''Inception v1 (Places)''' : apprentissage basé sur Places365, même architecture que Inception v1 mais spécialisé dans la reconnaissance de lieux, sorti en 2014.<br />
* '''Inception v3''' : apprentissage basé sur ImageNet, plus performant et efficace qu'Inception v1, sorti en 2015.<br />
* '''Inception v4''' : appretissage basé sur ImageNet, encore plus performant et efficace qu'Inception v3, sorti en 2016.<br />
* '''VGG 19''' : Réseau assez simple basé sur Inception en version simplifiée.<br />
* '''ResNet v2 50''' <br />
* '''AlexNet''' : Modèle le plus connu et le plus étudié basé sur ImageNet.<br />
* '''AlexNet (Places)''' : Même architecture que le réseau AlexNet mais avec un apprentissage basé sur Places365<br />
<br />
Ces modèles de reconnaissance d'images se différencient grâce à leurs caractéristiques d'apprentissage (différentes tailles de couches de convolution, différentes fonctions utilisées, différents poids ...) mais font partis des modèles les plus performants à l'heure actuelle. Microscope s'intéresse donc au fonctionnement de ses réseaux de neuronnes en essayant de comprendre ce qu'apprend concrètement un modèle.<br />
<br />
= Définitions =<br />
== Réseau de neuronnes ==<br />
<br />
== ImageNet ==<br />
<br />
== Places365 ==<br />
<br />
= Fonctionnement =<br />
<br />
= Visualisations =<br />
<br />
== Architecture en couches ==<br />
<br />
== Car Detector ==<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
Site officiel :<br />
http://www.flogo.io/<br />
<br />
Github :<br />
https://github.com/tibcosoftware/flogo<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : Flogo<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : William NELSON</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49736VT2020-OpenAI Microscope-Fiche2021-01-04T08:15:26Z<p>Elisa.Beaugrand: /* Réseau de neurones */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns notables:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
Beaucoup d'autres projets ont bien évidemment vu le jour, dont notamment Microscope présenté ci-dessous.<br />
<br />
= Microscope =<br />
<br />
OpenAI Microscope est un outil sorti au printemps 2020 qui permet de visualiser graphiquement chaque couche significative et chaque neurone de chaque couche d'un réseau de neurones. Grâce à cet outil, on peut explorer un réseau de neurone facilement afin de mieux comprendre son fonctionnement. <br />
<br />
== Définitions ==<br />
Quelques définitions sont nécessaires avant de comprendre plus en détail le fonctionnement de Microscope.<br />
=== Réseau de neurones ===<br />
Un réseau de neurones est un système informatique qui s'inspire du cerveau humain pour apprendre. <br />
<br />
Voici l'architecture d'un réseau de neurones qui peut être représentée comme un graphe orienté:<br />
[[File:neurones.jpeg|600px|thumb|left|Structure réseau de neurones]]<br />
<br />
Ici, sur l'image ci-contre, notre réseau est simple et ne comporte que 4 couches : une '''couche d'entrées''' en rouge, deux '''couches cachées''' en bleu, et une '''couche de sortie''' en vert. Le principe d'un réseau de neurones est le même qu'il y ait 4 couches ou 200 couches. <br />
<br />
Les noeuds du graphe représentent les neurones. On constate que chaque neurone de chaque couche est relié à tous les neurones de la couche suivante.<br />
<br />
Dans le cerveau humain, une information arrive à un neurone, le neurone est stimulé ou non par cette information. Il interprète cette information et transmet ou non un résultat au neurone suivant. Dans les réseaux de neurones, c'est la même chose! Une information arrive à un neurone. Ce neurone calcule son "interêt" pour cette information en fonction de sa stimulation. Ensuite chaque arête du graphe possède un poids qui va permettre grâce à un sytème probabiliste de determiner quel est le neurone suivant à recevoir l'information. Ce système de graphe pondéré et orienté est utilisé afin de représenter au mieux le cerveau animal. En effet grâce à ce système, seulement certains neurones sont stimulés (les plus utiles au traitement de l'information) et non tous à la fois à l'instar du cerveau humain.<br />
<br />
=== ImageNet ===<br />
=== Places365 ===<br />
<br />
== Modèles compatibles ==<br />
Microscope fonctionne sur 8 réseaux de neurones différents, tous basés sur la reconnaissance d'images:<br />
* '''Inception v1''' : apprentissage basé sur ImageNet, en 22 couches, sorti en 2014.<br />
* '''Inception v1 (Places)''' : apprentissage basé sur Places365, même architecture que Inception v1 mais spécialisé dans la reconnaissance de lieux, sorti en 2014.<br />
* '''Inception v3''' : apprentissage basé sur ImageNet, plus performant et efficace qu'Inception v1, sorti en 2015.<br />
* '''Inception v4''' : appretissage basé sur ImageNet, encore plus performant et efficace qu'Inception v3, sorti en 2016.<br />
* '''VGG 19''' : Réseau assez simple basé sur Inception en version simplifiée.<br />
* '''ResNet v2 50''' <br />
* '''AlexNet''' : Modèle le plus connu et le plus étudié basé sur ImageNet.<br />
* '''AlexNet (Places)''' : Même architecture que le réseau AlexNet mais avec un apprentissage basé sur Places365<br />
<br />
Ces modèles de reconnaissance d'images se différencient grâce à leurs caractéristiques d'apprentissage (différentes tailles de couches de convolution, différentes fonctions utilisées, différents poids ...) mais font partis des modèles les plus performants à l'heure actuelle. Microscope s'intéresse donc au fonctionnement de ses réseaux de neuronnes en essayant de comprendre ce qu'apprend concrètement un modèle.<br />
<br />
= Définitions =<br />
== Réseau de neuronnes ==<br />
<br />
== ImageNet ==<br />
<br />
== Places365 ==<br />
<br />
= Fonctionnement =<br />
<br />
= Visualisations =<br />
<br />
== Architecture en couches ==<br />
<br />
== Car Detector ==<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
Site officiel :<br />
http://www.flogo.io/<br />
<br />
Github :<br />
https://github.com/tibcosoftware/flogo<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : Flogo<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : William NELSON</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49735VT2020-OpenAI Microscope-Fiche2021-01-04T07:55:38Z<p>Elisa.Beaugrand: /* Réseau de neurones */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns notables:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
Beaucoup d'autres projets ont bien évidemment vu le jour, dont notamment Microscope présenté ci-dessous.<br />
<br />
= Microscope =<br />
<br />
OpenAI Microscope est un outil sorti au printemps 2020 qui permet de visualiser graphiquement chaque couche significative et chaque neurone de chaque couche d'un réseau de neurones. Grâce à cet outil, on peut explorer un réseau de neurone facilement afin de mieux comprendre son fonctionnement. <br />
<br />
== Définitions ==<br />
Quelques définitions sont nécessaires avant de comprendre plus en détail le fonctionnement de Microscope.<br />
=== Réseau de neurones ===<br />
Un réseau de neurones est un système informatique qui s'inspire du cerveau humain pour apprendre. <br />
<br />
Voici l'architecture d'un réseau de neurones:<br />
[[File:neurones.jpeg|200px|thumb|left|alt text]]]]<br />
<br />
=== ImageNet ===<br />
=== Places365 ===<br />
<br />
== Modèles compatibles ==<br />
Microscope fonctionne sur 8 réseaux de neurones différents, tous basés sur la reconnaissance d'images:<br />
* '''Inception v1''' : apprentissage basé sur ImageNet, en 22 couches, sorti en 2014.<br />
* '''Inception v1 (Places)''' : apprentissage basé sur Places365, même architecture que Inception v1 mais spécialisé dans la reconnaissance de lieux, sorti en 2014.<br />
* '''Inception v3''' : apprentissage basé sur ImageNet, plus performant et efficace qu'Inception v1, sorti en 2015.<br />
* '''Inception v4''' : appretissage basé sur ImageNet, encore plus performant et efficace qu'Inception v3, sorti en 2016.<br />
* '''VGG 19''' : Réseau assez simple basé sur Inception en version simplifiée.<br />
* '''ResNet v2 50''' <br />
* '''AlexNet''' : Modèle le plus connu et le plus étudié basé sur ImageNet.<br />
* '''AlexNet (Places)''' : Même architecture que le réseau AlexNet mais avec un apprentissage basé sur Places365<br />
<br />
Ces modèles de reconnaissance d'images se différencient grâce à leurs caractéristiques d'apprentissage (différentes tailles de couches de convolution, différentes fonctions utilisées, différents poids ...) mais font partis des modèles les plus performants à l'heure actuelle. Microscope s'intéresse donc au fonctionnement de ses réseaux de neuronnes en essayant de comprendre ce qu'apprend concrètement un modèle.<br />
<br />
= Définitions =<br />
== Réseau de neuronnes ==<br />
<br />
== ImageNet ==<br />
<br />
== Places365 ==<br />
<br />
= Fonctionnement =<br />
<br />
= Visualisations =<br />
<br />
== Architecture en couches ==<br />
<br />
== Car Detector ==<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
Site officiel :<br />
http://www.flogo.io/<br />
<br />
Github :<br />
https://github.com/tibcosoftware/flogo<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : Flogo<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : William NELSON</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=File:Neurones.jpeg&diff=49734File:Neurones.jpeg2021-01-04T07:55:02Z<p>Elisa.Beaugrand: </p>
<hr />
<div></div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49733VT2020-OpenAI Microscope-Fiche2021-01-04T07:54:05Z<p>Elisa.Beaugrand: /* Microscope */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns notables:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
Beaucoup d'autres projets ont bien évidemment vu le jour, dont notamment Microscope présenté ci-dessous.<br />
<br />
= Microscope =<br />
<br />
OpenAI Microscope est un outil sorti au printemps 2020 qui permet de visualiser graphiquement chaque couche significative et chaque neurone de chaque couche d'un réseau de neurones. Grâce à cet outil, on peut explorer un réseau de neurone facilement afin de mieux comprendre son fonctionnement. <br />
<br />
== Définitions ==<br />
Quelques définitions sont nécessaires avant de comprendre plus en détail le fonctionnement de Microscope.<br />
=== Réseau de neurones ===<br />
Un réseau de neurones est un système informatique qui s'inspire du cerveau humain pour apprendre. <br />
<br />
Voici l'architecture d'un réseau de neurones:<br />
[[File:neurones.jpeg]]<br />
<br />
=== ImageNet ===<br />
=== Places365 ===<br />
<br />
== Modèles compatibles ==<br />
Microscope fonctionne sur 8 réseaux de neurones différents, tous basés sur la reconnaissance d'images:<br />
* '''Inception v1''' : apprentissage basé sur ImageNet, en 22 couches, sorti en 2014.<br />
* '''Inception v1 (Places)''' : apprentissage basé sur Places365, même architecture que Inception v1 mais spécialisé dans la reconnaissance de lieux, sorti en 2014.<br />
* '''Inception v3''' : apprentissage basé sur ImageNet, plus performant et efficace qu'Inception v1, sorti en 2015.<br />
* '''Inception v4''' : appretissage basé sur ImageNet, encore plus performant et efficace qu'Inception v3, sorti en 2016.<br />
* '''VGG 19''' : Réseau assez simple basé sur Inception en version simplifiée.<br />
* '''ResNet v2 50''' <br />
* '''AlexNet''' : Modèle le plus connu et le plus étudié basé sur ImageNet.<br />
* '''AlexNet (Places)''' : Même architecture que le réseau AlexNet mais avec un apprentissage basé sur Places365<br />
<br />
Ces modèles de reconnaissance d'images se différencient grâce à leurs caractéristiques d'apprentissage (différentes tailles de couches de convolution, différentes fonctions utilisées, différents poids ...) mais font partis des modèles les plus performants à l'heure actuelle. Microscope s'intéresse donc au fonctionnement de ses réseaux de neuronnes en essayant de comprendre ce qu'apprend concrètement un modèle.<br />
<br />
= Définitions =<br />
== Réseau de neuronnes ==<br />
<br />
== ImageNet ==<br />
<br />
== Places365 ==<br />
<br />
= Fonctionnement =<br />
<br />
= Visualisations =<br />
<br />
== Architecture en couches ==<br />
<br />
== Car Detector ==<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
Site officiel :<br />
http://www.flogo.io/<br />
<br />
Github :<br />
https://github.com/tibcosoftware/flogo<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : Flogo<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : William NELSON</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49732VT2020-OpenAI Microscope-Fiche2021-01-04T07:24:49Z<p>Elisa.Beaugrand: /* Projets */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns notables:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
Beaucoup d'autres projets ont bien évidemment vu le jour, dont notamment Microscope présenté ci-dessous.<br />
<br />
= Microscope =<br />
<br />
= Définitions =<br />
== Réseau de neuronnes ==<br />
<br />
== ImageNet ==<br />
<br />
== Places365 ==<br />
<br />
= Fonctionnement =<br />
<br />
= Visualisations =<br />
<br />
== Architecture en couches ==<br />
<br />
== Car Detector ==<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
Site officiel :<br />
http://www.flogo.io/<br />
<br />
Github :<br />
https://github.com/tibcosoftware/flogo<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : Flogo<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : William NELSON</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49731VT2020-OpenAI Microscope-Fiche2021-01-04T07:21:09Z<p>Elisa.Beaugrand: /* Microscope */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
= Microscope =<br />
<br />
= Définitions =<br />
== Réseau de neuronnes ==<br />
<br />
== ImageNet ==<br />
<br />
== Places365 ==<br />
<br />
= Fonctionnement =<br />
<br />
= Visualisations =<br />
<br />
== Architecture en couches ==<br />
<br />
== Car Detector ==<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
Site officiel :<br />
http://www.flogo.io/<br />
<br />
Github :<br />
https://github.com/tibcosoftware/flogo<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : Flogo<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : William NELSON</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49730VT2020-OpenAI Microscope-Fiche2021-01-04T07:15:51Z<p>Elisa.Beaugrand: /* Projets */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la création de l'association, de nombreux projets ont vu le jour. En voici quelques uns:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement (voir [http://gym.openai.com/ site internet] pour en savoir plus).<br />
* '''ROBOSUMO''' : IA en forme d'homme bâton qui apprend seule à marcher, jouer au foot, faire du sumo, etc... Voici une [https://www.youtube.com/watch?v=2cjkKnAxCug vidéo YouTube] qui illustre le projet ROBOSUMO.<br />
* '''DACTYL''' : Main artificielle pilotée par une IA. Elle est aujourd'hui capable de réaliser des Rubik's Cube (voir [https://www.youtube.com/watch?v=iV545-f61kg vidéo]).<br />
* '''JUKEBOX''' : IA pour créer de la musique. <br />
* '''GPT-3''' : Voir la [https://air.imag.fr/index.php/VT2020-OpenAI_GPT-3-Fiche fiche] sur le sujet.<br />
* '''OPEN FIVE et GYM RETRO''' : IA permettant de jouer aux jeux vidéos. OPEN FIVE joue à des jeux récents tandis que GYM RETRO est spécialisée dans le retrogaming.<br />
* '''DEBATE GAME''' : Jeu de débat [https://debate-game.openai.com/ en ligne] où il faut deviner quelle IA dit la vérité lors d'un débat.<br />
<br />
= Microscope =<br />
<br />
<br />
= Définitions =<br />
== Réseau de neuronnes ==<br />
<br />
== ImageNet ==<br />
<br />
== Places365 ==<br />
<br />
= Fonctionnement =<br />
<br />
= Visualisations =<br />
<br />
== Architecture en couches ==<br />
<br />
== Car Detector ==<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
Site officiel :<br />
http://www.flogo.io/<br />
<br />
Github :<br />
https://github.com/tibcosoftware/flogo<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : Flogo<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : William NELSON</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49729VT2020-OpenAI Microscope-Fiche2021-01-04T07:06:20Z<p>Elisa.Beaugrand: /* Projets */</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la fondation de l'association, de nombreux projets ont vu le jour. En voici quelques uns:<br />
<br />
* '''GYM''' : Développer et comparer des algorithmes d'apprentissage par renforcement. (Voir [http://gym.openai.com/ site internet])<br />
* '''ROBOSUMO'''<br />
* '''DACTYL'''<br />
* '''JUKEBOX'''<br />
* '''GPT-3'''<br />
* '''OPEN FIVE et GYM RETRO'''<br />
* '''DEBATE GAME'''<br />
<br />
= Microscope =<br />
<br />
<br />
= Définitions =<br />
== Réseau de neuronnes ==<br />
<br />
== ImageNet ==<br />
<br />
== Places365 ==<br />
<br />
= Fonctionnement =<br />
<br />
= Visualisations =<br />
<br />
== Architecture en couches ==<br />
<br />
== Car Detector ==<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
Site officiel :<br />
http://www.flogo.io/<br />
<br />
Github :<br />
https://github.com/tibcosoftware/flogo<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : Flogo<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : William NELSON</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020-OpenAI_Microscope-Fiche&diff=49728VT2020-OpenAI Microscope-Fiche2021-01-04T07:00:11Z<p>Elisa.Beaugrand: Présentation de l'outil OpenAI Microscope</p>
<hr />
<div>= OpenAI =<br />
<br />
[[File:openai-cover.png|400px|right|thumb|Logo OpenAI]]<br />
<br />
OpenAi est une association fondée en 2015 par Elon Musk et Sam Altman. Cette association est devenue en 2019 une entreprise à but lucratif non plafonné pour obtenir plus de moyens. L'entreprise a pour but de faire avancer la recherche sur l'intelligence artificielle afin que les machines puissent analyser et comprendre au mieux l'environnement qui les entoure. À terme, l'association aimerait créer une intelligence artificielle à visage humain. Plusieurs entreprises financent ce projet comme par exemple LinkedIn, Microsoft et Amazon Web Services.<br />
<br />
== Projets ==<br />
<br />
Depuis la fondation de l'association, de nombreux projets ont vu le jour. En voici quelques uns:<br />
<br />
* <br />
* bmama<br />
<br />
= Microscope =<br />
<br />
<br />
= Définitions =<br />
== Réseau de neuronnes ==<br />
<br />
== ImageNet ==<br />
<br />
== Places365 ==<br />
<br />
= Fonctionnement =<br />
<br />
= Visualisations =<br />
<br />
== Architecture en couches ==<br />
<br />
== Car Detector ==<br />
<br />
= Utilité =<br />
<br />
<br />
<br />
= Sources =<br />
<br />
Site officiel :<br />
http://www.flogo.io/<br />
<br />
Github :<br />
https://github.com/tibcosoftware/flogo<br />
<br />
<br />
= Veille Technologique 2020 =<br />
* Année : [[VT2020]]<br />
* Sujet : Flogo<br />
* Slides : [[Media:Project_flogo.pdf|Slides]]<br />
* Auteur : William NELSON</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=VT2020&diff=49726VT20202021-01-04T06:28:36Z<p>Elisa.Beaugrand: </p>
<hr />
<div>[[VT2019|<< Etudes 2019]] [[VT|Sommaire]] [[VT2021|Etudes 2021 >>]]<br />
<br />
<br />
=Veille Technologique et Stratégique=<br />
* Enseignants: [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
* UE/Module: EAM (HPRJ9R6B) et EAR (HPRJ9R4B) en 1FO5<br />
<br />
L'objectif de cette UE est de réaliser un travail de synthèse et d’évaluation sur une technologie / spécification / tendance<br />
<br />
Dans votre futur vie d'ingénieur, vous aurez à d'une part, vous former par vous-même sur une technologie émergente et d'autre part à réaliser une veille technologique (et stratégique) par rapport à votre entreprise et projet.<br />
Il s'agira de réaliser<br />
* le positionnement par rapport au marché<br />
* d'être critique<br />
<br />
Votre synthèse fait l'objet d'une présentation orale convaincante devant un auditoire (dans le futur, vos collègues, vos chefs ou vos clients) avec des transparents et un discours répété.<br />
Pour finir de convaincre (Saint Thomas), vous ferez la présentation d'une démonstration.<br />
<br />
Votre présentation sera notée et commentée par tous vos camarades via un sondage (téléphone mobile). Leurs notes et leurs commentaires seront notés en fonction de leur exactitude de jugement.<br />
<br />
Remarque: Le [https://fr.wikipedia.org/wiki/Plagiat plagiat] est incompatible avec l'éthique de l'ingénieur. Le directeur d'école peut demander votre traduction devant la commission disciplinaire de l'université. La sanction peut aller jusqu’à une interdiction d'inscription dans les établissements de l'enseignement supérieur français pendant plusieurs années : Le jeu en vaut-il la chandelle ?<br />
<br />
La présentation peut être réalisée avec [[reveal.js]] ou avec [[remarkjs]]<br />
<br />
[[File:presentation-VT-RICM5-1516.pdf|transparents d'introduction à l'UE]]<br />
<br />
=Planning=<br />
<br />
== Séance 1 : 16/11 ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 5, 8, 23, 78<br />
<br />
* 16H00 : Alexandra CHATON, Jsonnet, [[VT2020-Jsonnet-Fiche|Fiche]], [[Media:VT2020-Jsonnet-Presentation.pdf|Présentation]], [[VT2020-Jsonnet-Demo|Démonstration]]<br />
* 16H25 : Alexis ROLLIN, GraalVM, [[VT2020-GraalVM-Fiche|Fiche]], [[Media:VT2020-GraalVM-Presentation.pdf|Présentation]], [[VT2020-GraalVM-Demo|Démonstration]]<br />
* 16H50 : Aleck BILOUNGA, Micronaut, [[VT2020-Micronaut-Fiche|Fiche]], [[https://docs.google.com/presentation/d/1oVq_81RwLelY1EptNoObHhmRRfGnfuxBD6PRd49jyjI/edit#slide=id.p Présentation]], [[https://youtu.be/gu7H4kbeA_Y Démonstration]]<br />
* 17H15 : Prénom NOM, Cryptojacking, [[VT2020-Cryptojacking-Fiche|Fiche]], [[File:VT2020-Cryptojacking-Presentation.pdf|Présentation]], [[VT2020-Cryptojacking-Demo|Démonstration]]<br />
<br />
== Séance 2 : 23/11 ==<br />
Enseignants : [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 9, 33, 49, 72, 81<br />
<br />
* 16H00 : Myriam LOMBARD, Microclimate, [[VT2020-Microclimate-Fiche|Fiche]], [[Media:VT2020-Microclimate-Presentation.pdf|Présentation]], [[VT2020-Microclimate-Demo|Démonstration]]<br />
* 16H25 : Samuel COURTHIAL, Voice-First Development, [[VT2020-Voice_First_Development-Fiche|Fiche]], [[Media:VT2020-Voice_First_Development-Presentation.pdf|Présentation]], [[VT2020-Voice_First_Development-Demo|Démonstration]]<br />
* 16H50 : Thomas FRION, Valgrind, [[VT2020-Valgrind-Fiche|Fiche]], [[Media:VT2020-Valgrind-Presentation.pdf|Présentation]], [[VT2020-Valgrind-Demo|Démonstration]]<br />
* 17H15 : Nhat Quang HO, HTTP/3, [[VT2020-Http3-Fiche|Fiche]], [[Media:VT2020-Http3-Presentation.pdf|Présentation]], [[VT2020-Http3-Demo|Démonstration]]<br />
* 17H40 : Romain PASDELOUP, Ballerina, [[VT2020-Ballerina-Fiche|Fiche]], [[Media:VT2020-Ballerina-Presentation.pdf|Présentation]], [[VT2020-Ballerina-Demo|Démonstration]]<br />
<br />
== Séance 3 : 30/11 ==<br />
Enseignants : [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 2, 3, 10, 11, 38<br />
<br />
* 16H00 : EL AJI Houda, Blazor, [[VT2020-Blazor-Fiche|Fiche]], [[Media:VT2020-Blazor-Presentation.pdf|Présentation]], [[VT2020-Blazor-Demo|Démonstration]]<br />
* 16H25 : Vernet Maxime, Website Rendering Types, [[VT2020-XXXXXX-Fiche|Fiche]], [[Media:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H50 : Pareilleux Killian, Quarkus, [[VT2020-Quarkus-Fiche|Fiche]], [[Media:VT2020-Quarkus-Presentation.pdf|Présentation]], [[VT2020-Quarkus-Demo|Démonstration]]<br />
* 17H15 : ZERAMDINI Otba, Helidon, [[VT2020-Helidon-Fiche|Fiche]], [[Media:VT2020-Helidon-Presentation.pdf|Présentation]], [[VT2020-Helidon-Demo|Démonstration]]<br />
* 17H40 : Crociati Morgan, WebAssembly, [[VT2020-WebAssembly-Fiche|Fiche]], [[Media:VT2020-WebAssembly-Presentation.pdf|Présentation]], [[VT2020-WebAssembly-Demo|Démonstration]]<br />
<br />
== Séance 4 : 7/12 ==<br />
Enseignants : [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 4, 15, 16, 19, 21<br />
<br />
* 16H00 : NGUENA Gloria, MemSQL, [[VT2020-MemSQL-Fiche|Fiche]], [[Media:VT2020-MemSQL-Presentation.pdf|Présentation]], [[VT2020-MemSQL-Demo|Démonstration]]<br />
* 16H25 : Graugnard Tom, QuestDB, [[VT2020-QuestDB-Fiche|Fiche]], [[Media:VT2020-QuestDB-Presentation.pdf|Présentation]], [[VT2020-QuestDB-Demo|Démonstration]]<br />
* 16H50 : Delbos Robin, Apache Arrow, [[VT2020-Apache Arrow-Fiche|Fiche]], [[Media:Présentation_Apache_Arrow.pdf|Présentation]], [[VT2020-Apache Arrow-Demo|Démonstration]]<br />
* 17H15 : El Mufti Ali, Apache Pulsar, [[VT2020-Apache Pulsar-Fiche|Fiche]], [[File:VT2020-Pulsar-Presentation.pdf|Présentation]], [[VT2020-Pulsar-Demo|Démonstration]]<br />
* 17H40 : RUZAFA Rémy, Apache Pinot, [[VT2020-AppachePinot-Fiche|Fiche]], [[Media:VT2020-AppachePinot-Présentaion.pdf|Présentation]], [[VT2020-AppachePinot-Demo|Démonstration]]<br />
<br />
== Séance 5 : 14/12 ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 22, 48, 55, 56, 84<br />
<br />
* 16H00 : Sajide Idriss, IoT Dataflow Mashup, [[Eclipse_Kura_Wires|Fiche]], [[Media:IoT Dataflow Mashup.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H25 : Chaix Manon, Nearby Communication, [[VT2020 - Nearby Communications Fiche|Fiche]], [[Media:VT_Nearby.pdf|Présentation]], [[VT2020-NearbyComm-Demo|Démonstration]]<br />
* 16H50 : Palomo Rémy, Apollo 2.0, [[VT2020-Plateforme Apollo-Fiche|Fiche]], [[Media:VT2020-Apollo-Presentation.pdf|Présentation]], [[VT2020-Apollo-Demo|Démonstration]]<br />
* 17H15 : Nelson William, Flogo, [[VT2020-Flogo-Fiche|Fiche]], [[File:Project_Flogo.pdf|Présentation]], [[VT2020_-_Flogo_Demo|Démonstration]]<br />
* 17H40 : Fougere Sebastian, Amazon Sidewalk, [[VT2020-Amazon-Sidewalk-Fiche|Fiche]], [[Media:VT2020-Amazon-sidewalk-presentation.pdf|Présentation]], [[VT2020-WebThings-Framework-Demo|Démonstration]]<br />
<br />
== Séance 6 : 4/1 ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 6, 7, 20, 50, 83<br />
<br />
* 16H00 : Boleat Baptiste, OpenAI GPT-3, [[VT2020-OpenAI GPT-3-Fiche|Fiche]], [https://baptboleat.github.io/gpt3-presentation/ Présentation], [[VT2020-GPT-3-Demo|Démonstration]]<br />
* 16H25 : Beaugrand Elisa, OpenAI Microscope, [[VT2020-OpenAI Microscope-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H50 : Artaud Adrien, Godot, [[VT2020-Godot-Fiche|Fiche]], [[Media:VT2020-Godot-Presentation.pdf|Présentation]], [[VT2020-Godot-Demo|Démonstration]]<br />
* 17H15 : ASSI Dima, Psychométrie, [[VT2020_Psychometrie_Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 17H40 : De Gaudenzi Louis, Deepfake Algorithms, [[VT2020-Deepfake Algorithms-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-Deepfake_Algorithms-Demo|Démonstration]]<br />
<br />
== Séance 7 : 11/1 ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : 1, 32, 41, 60, XXXX<br />
<br />
* 16H00 : Rival Gaëtan, Matrix, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H25 : El Jraidi Rim, Peloton, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H50 : Michelard Leila, DevSecOps, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 17H15 : Salmon Alexandre, BFT, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 17H40 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
<br />
== Séance 8 : Asynchrone ==<br />
Enseignants : [[User:Gpbonneau|Georges-Pierre Bonneau]], [[User:Donsez|Didier Donsez]]<br />
<br />
* Sujets : TBC<br />
<br />
* 16H00 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H25 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 16H50 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 17H15 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
* 17H40 : Prénom NOM, XXXXXX, [[VT2020-XXXXXX-Fiche|Fiche]], [[https://screencast|Présentation filmée]], [[File:VT2020-XXXXXX-Presentation.pdf|Présentation]], [[VT2020-XXXXXX-Demo|Démonstration]]<br />
<br />
=Sujets=<br />
# [[Matrix]] : An open network for secure, decentralized communication<br />
# [[Blazor]] (Browser+Razor) : a new web development framework introduced by Microsoft, which allows you to develop browser-based applications using C# and Razor syntax alongside HTML and CSS.<br />
# [[Website Rendering Types]] (Static, Dynamic, Incremetal) : démonstration de [https://nextjs.org/ NextJS]<br />
# [[MemSQL]]<br />
# [[Micronaut]] : Microservice platform ([https://dzone.com/articles/how-to-use-jhipster-to-build-a-secure-micronaut-an démo] avec [https://github.com/jhipster/generator-jhipster-micronaut Micronaut blueprint of JHipster])<br />
# [[OpenAI GPT-3]]<br />
# [[OpenAI Microscope]]<br />
# [[GraalVM]] : Polyglot Virtual Machine<br />
# [[Ballerina]] : open source programming language and platform for cloud-era application programmers to easily write software that just works<br />
# [[Quarkus]] : Supersonic Subatomic Java<br />
# [[Helidon]] : collection of Java libraries for writing microservices.<br />
# [[Flux]] (#fluxlang) new data scripting language to make querying and analyzing time series<br />
# [[Processeurs spécialisés pour l'IA]] : Démonstration avec la carte [https://greenwaves-technologies.com/product/gappoc-a-computer-vision-concept-board/ GAPPoc-A] de GreenWaves. ANNULé<br />
# [[NATS]]: PubSub broker (démonstration avec CampusIoT)<br />
# [[QuestDB]] : time-series database (démostration avec CampusIoT).<br />
# [[Apache Arrow]] : cross-language development platform for in-memory data<br />
# In-memory Distributed Data Grid : démonstration de eCom avec [[Apache Ignite]].<br />
# [[jQAssistant]] : application à eCOM<br />
# [[Apache Pulsar]] Pulsar is a multi-tenant, high-performance solution for server-to-server messaging. Pulsar was originally developed by Yahoo.<br />
# [[Godot Game Engine]]<br />
# [[Apache Pinot]] : realtime distributed OLAP datastore<br />
# [[IoT Dataflow Mashup]] (démo avec [[Eclipse Kura Wires]])<br />
# [[JSONnet]]<br />
# [[Géo-réplication]] : Démo avec [[Apache Kafka MirrorMaker]]<br />
# [[Pulsar]]<br />
# [[Wookey project]] (Demo on a STM32F407 Discovery board) ANNULé<br />
# [[RSocket]]<br />
# [[Nacos]] : open source project by Alibaba for service discovery and service configuration.<br />
# [[NEMU]] : open source hypervisor specifically built and designed to run modern cloud workloads on modern 64-bit Intel and ARM CPUs.<br />
# [[Architecture Serverless]] : démonstration avec le projet https://github.com/serverless/serverless sur votre compte Azure de votre compte GitHub Student Pack ANNULé<br />
# [[Fission]] : open-source serverless function framework for [[Kubernetes]] with a focus on developer productivity and high performance.<br />
# [[Peloton]], a unified resource scheduler<br />
# [[Microclimate]]<br />
# [[AdTech]]<br />
# [[Nearby communications]] (démonstration de [https://ionicframework.com/docs/native/google-nearby/ Nearby Messages API de Google avec Ionic]) --> Réservé Manon Chaix<br />
# [[Conflict-free replicated data type]] (CRDT) RECOMMANDé<br />
# [[Spinnaker]]<br />
# [[WebAssembly]]<br />
# [[Fast Identity Online Alliance]] (FIDO) ANNULé<br />
# [[Apache MXNet]] : Demo avec [[Intel Movidius]] ([https://github.com/tspannhw/rpi-mxnet-movidius-minifi lien]) ANNULé<br />
# [[DevSecOps]] <br />
# [[Apache Beam]] RECOMMANDé<br />
# [[In-Memory Data Grids]] : Démonstration de [[Gigaspaces]] et [[XAP]] Open Source<br />
# Gestionnaires de contenu : démonstration de [[Apache Jackrabbit]] dans le projet [[eCOM]]<br />
# [[Memory-centric virtual distributed storage system]]<br />
# [[ESB]] : démonstration de [[Mule ESB]]<br />
# [[MemCached]]<br />
# [[Low-Power Global Area Network]]s ([[Sat-IoT]])<br />
# [[ Voice-First Development]] : Designing, Developing, and Deploying Conversational Interfaces<br />
# [[Psychométrie]]<br />
# [[WebAssembly]]<br />
# [[DevSecOps]]<br />
# Portails et l'API [[Portlet]] : Démo avec [[Liferay]] ANNULé<br />
# [[Apache Beam]]<br />
# [[plateforme logicielle open source de conduite autonome Apollo 2.0]]<br />
# [[Flogo]] Open Source Framework for IoT Edge Apps & Integration.<br />
# [[Neural Processing Unit]] (NPU) : Demo de la clé [[Intel Movidius]] sur un RPI<br />
# [[Hazelcast]] : Démo avec Spring Boot ([https://dzone.com/storage/assets/6459742-dzone-rc247-gettingstartedwithspringbootandmicrose.pdf lien]) dans un projet [[JHipster]]<br />
# [[In-Memory Data Grids]] : Démonstration de [[Gigaspaces]] et [[XAP]] Open Source<br />
# [[Fautes Byzantines]] : Démonstration de [[BFT-SMaRt]]<br />
# Insport Video<br />
# Gestionnaires de contenu : démonstration de [[Apache Jackrabbit]] dans le projet [[eCOM]]<br />
# [[Memory-centric virtual distributed storage system]]<br />
# [[Performance Monitoring]]<br />
# [[ESB]] : démonstration de [[Mule ESB]] ANNULé<br />
# [[Access Network Query Protocol (ANQP)]]<br />
# [[JCache]] : démonstration avec [[Apache Ignity]]<br />
# [[MemCached]]<br />
# [[Apache Stratos]]<br />
# [[gceasy]] : Universal garbage collection log Analyser<br />
# [[Apache Solr]] : Démonstration avec [http://hortonworks.com/hadoop-tutorial/indexing-and-searching-text-within-images-with-apache-solr/ Tesseract OCR]<br />
# [[Valgrind]]<br />
# [[Content Delivery Network]]s : Démonstration de [[Amazon S3]], Azure, Akamaï ... sur votre projet [[ECOM-RICM|eCOM]]<br />
# [[CMS]] : Demo avec [[Crafter CMS]]<br />
# [[DMS]] (GED) : Demo avec la version Community Edition d'[[Alfresco]] et de son API REST avec [[Swagger]] ANNULé<br />
# [[SIG]] : Démonstration de [[QGIS]]<br />
# [[Apache Airflow]] ANNULé<br />
# [[Cryptojacking]] : démonstration d'un navigateur exécutant [https://github.com/cazala/coin-hive CoinHive] et affichage du coup énergétique de l'opération.<br />
# [[RIOT-OS]] : système d'exploitation pour l'Internet des Objets (Démonstration sur une carte STM32 Nucleo LRWAN1). ANNULé<br />
# [[Zephyr]] : système d'exploitation pour l'Internet des Objets (Démonstration sur une carte [[Intel Quark D2000]]). ANNULé<br />
# [[HTTP/3]] : quoi de neuf ? Démonstration de l'amélioration des performances.<br />
# [[Gyro]] : domain-specific language designed to concisely describe a cloud infrastructure. Démonstration avec votre application eCOM JHipster sur Azure.<br />
# [[Deepfake Algorithms]] et outils.<br />
# [[Amazon Sidewalk]]<br />
# Interfaces Homme-Machine sans contact (sous réserve de démonstrateur)<br />
# Interfaces Homme-Machine haptiques (sous réserve de démonstrateur)<br />
# Algorithmes et systèmes de vote électronique : vices et vertus.<br />
# [[Normes et systèmes de signature électronique]]<br />
# Database as a Microservice : [[HarperDB]]<br />
# [[Web of Things (WoT)]]</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=Projets_2019-2020&diff=48067Projets 2019-20202020-04-30T23:03:43Z<p>Elisa.Beaugrand: /* Affectation */</p>
<hr />
<div><<[[Projets 2018-2019]] | [[Projets]] | [[Projets 2020-2021]]>><br />
=INFO=<br />
==INFO3==<br />
<br />
==INFO4==<br />
===Projet Semestre S8===<br />
<br />
Enseignants responsables : Olivier Richard, Didier Donsez<br />
<br />
* Dates : Lundi après-midi, Mardi après-midi <br />
* Lancement: 20 Janvier 2020 après midi<br />
* Soutenance à mi-parcours: A définir<br />
* Soutenance: A définir<br />
<br />
* '''Evaluation à mi-parcours le lundi/mardi ???''': Format: 10min (5min de présentation 3 slides au plus, 5min de discussion). Cette évaluation sera prise en compte dans la note finale.<br />
<br />
'''Consignes générales:'''<br />
<br />
* '''Vous devez être pro-actifs !!!''': Si des points sont pas ou mals spécifiés, vous le faîtes et vous justifiez vos choix. Pour les problèmes techniques éventuels vous pouvez: creuser la question, contacter l'auteur du code si il y a lieu, écrire un rapport de bug ('''Attention:''' ca se prépare !), soumettre un patch/pull request, contacter l'enseignant ou la personne référente du projet.<br />
<br />
* '''Vous devez maintenir une fiche de suivi de projet''': elle doit être mise à jour chaque semaine, elle rassemble les élements essentiels du projet, elle indique les évolutions du projet et présente sa feuille de route. '''Note:''' le nom de la fiche doit être composé du nom du projet et suffixé par info4_2019_2020. '''Cette fiche compte pour la note finale'''<br />
<br />
* '''Votre code''' pour doit être hébergé sur le gitlab et à l'URL suivante https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20 , vous utiliserez votre compte UGA.<br />
<br />
* Chaque projet doit avoir '''aux moins 2 dépôts git''':<br />
** '''Un pour les documents''' demandés rapport, présentation de pré-soutenante, de soutenance, flyer. '''Il sera appelé documents.'''<br />
** Un ou plusieurs pour le code, les tests, les évaluations, les preuves de concept, la ou les documentations afférentes. <br />
<br />
* Les documents public doivent être rédigés en anglais (README, documentation, commentaires de code, nom de variables et de fonctions). Une bonnification sera accordée si le rapport et les transparents sont en anglais (la soutenance sera en francais).<br />
<br />
* '''La note obtenue''' tiendra compte du '''nombre et de la qualité des commits''' observé dans '''vos dépots git et la branche master''' (or depot documents). La qualité comprend l'intitulé du commit et son contenu. Les notes pourront être différentiées dans un groupe, il n'est pas acceptable de pas avoir de commit dans le(s) dépôt(s) du projet (or dépôt documents).<br />
<br />
* Il est fortement conseillé de suivre un '''développement incrémental''' qui permette d'avoir à tout moment un démonstrateur à présenter, un projet peut être constituer d'une succession de '''démonstrateurs présentables séparément'''.<br />
<br />
* Vous devez faire aussi des '''schémas d'architectures générales et/ou spéficiques, des diagrammes de séquence''', et autre documents de spécification si nécessaire. Ces documents vous serviront de base de discussion/brainstorming interne ainsi que dans vos différents documents (rapport, présentations, documentation). Ces schémas sont avant tout conceptuels et techniques.<br />
<br />
===Propositions de projets===<br />
* 1. [[ThingSat]] : LoRa in the Space, Didier Donsez avec le [https://www.csug.fr/ CSUG] (S)<br />
* 2. [[LoRaRescueBalloon]], Didier Donsez avec le [https://www.csug.fr/ CSUG] et l'[[Institut polaire Paul Emile Victor]]<br />
* Agriculture connectée en partenariat avec les projets collectifs IESE/MAT<br />
** 3. à [[ASAC/AP|Polytech]] : Nicolas Palix<br />
** 4. à [[ASAC/SJC|St Cassien]] : Nicolas Palix<br />
* 5. [[Dataviz de la qualité de l'air et de la pollution sonore]], Didier Donsez, avec Atmo AURA et [https://github.com/CampusIoT/campusiot.github.io CampusIoT] (M)<br />
* 6. [[Testeur radio LoRaWAN en Ionic pour la plateforme CampusIoT]], Didier Donsez (S&M) (Tech Ionic à confirmer)<br />
* 7. Intégration d'Intel [[Movidius]] ou [[MAix BiT]] à [[RobAIR]], Olivier Richard<br />
* 8. [[Application mobile de secours du PGHM]] : Didier Donsez, Olivier Fabre (PGHM)<br />
* 9. [[Application mobile pour la capture de marmottes]] : Didier Donsez, Franck Delbard<br />
* 10. [[Supports pédagogiques open-source pour l'initiation à l’Internet des Objets pour l’enseignement de SNT (Sciences Numériques et Technologie) au lycée]] : Olivier Richard et Didier Donsez<br />
* 11. [[Géolocalisation indoor avec Bluetooth 5.1 Bluetooth Direction Finding: Angle of Arrival (AoA) and Angle of Departure (AoD)]] : Didier DONSEZ, Franck ROUDET (Orange Labs Meylan)<br />
* DatViz pour l'IoT<br />
** 12. [[Amélioration de greffons Grafana]] : Didier Donsez<br />
** 13. [[Tableau de bord et kit de mesure du confort dans les bâtiments de l'UGA]] : Didier Donsez, Fabien Hornebeck (DG DAPAL), Laurence Deligny (DG DAPAL)<br />
** 14. [[Tableau de bord des capteurs LoRaWAN de la Ville de La Mure]] : Didier Donsez, Virginie Gondrand (Ville de La Mure)<br />
** 15. [[Tableau de bord et kit de mesure du confort dans le bâtiment Moonshot Lab]] : Didier Donsez, Jean-François Knoepfli (MoonshotLab), Joris Brémond (MoonshotLab)<br />
* 16. [[Contributions open source au projet EdCampus]] : Didier Donsez, Gérard Pollier (Disrupt Campus), Anthony Geourjon (Disrupt Campus)<br />
* 17. [[VisuGPX : Application mobile pour ski rando]], Didier Donsez, Ye.Ti (M)<br />
* 18. [[Projet d'Auscultation Partagée]] avec IESE4 et TIS5, Olivier Richard, Didier Donsez, Julie Fontecave-Jallon<br />
* 19. [[FPGA et Deep Learnning]] : Olivier Richard<br />
* 20. [[Source Héritage et NIX]] : Olivier Richard<br />
* 21. [[Proxy Cache HTTPS]] : Olivier Richard<br />
* 22. [[Reverse Proxy pour gestionnaire de taches]] : Olivier Richard<br />
* 23. [[Portail pour gestionnaire de taches]] : Olivier Richard<br />
* 24. [[Paquets NIX pour Polytech]] : Olivier Richard<br />
Non prioritaire<br />
* [[Application mobile de calcul de son empreinte carbone]] : Didier Donsez, Anne Delaballe (Disrupt Campus), XX (Café Collapse)<br />
* [[Serious game multi-joueurs pour tables tactiles en réseau]] : Anne-Laure Finkel, Tim Lepage, Didier Donsez. (S&M)<br />
* [[Benchmark de MCU pour l'IoT]] : Didier Donsez<br />
* [[Connecteur InfluxDB pour Cube.js]] : Didier Donsez<br />
* [[SimCity]] avec [[ThreeJS]]<br />
* [[WhereIsMyCar]] : application mobile pour se souvenir de l'endroit où sa voiture est garée. : Didier Donsez<br />
* [[CannonBall de voitures autonomes 2018]]<br />
* [[Covoiturage Solidaire]], Didier Donsez<br />
* [[Intégration d'OpenAM à la génération de JHipster]] : Didier Donsez<br />
* [[Comptage anonymisé de personnes]] : Didier Donsez et Franck Delbart<br />
* Carte de service étudiant avec [[Eclipse Keyple]] : Didier Donsez<br />
* [[Tableau de bord et kit de mesure du confort dans les bâtiments du CROUS]] : Didier Donsez (SOUS RESERVE)<br />
<br />
==== Affectation ====<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets INFO4 2019-2020<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 3<br />
| [[ASAC/AP|Agriculture connectée Polytech]]<br />
| VERNET MAXIME, SAJIDE IDRISS<br />
| PALIX Nicolas <br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/3/docs/-/blob/master/README.md Fiche]<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/3/docs/-/blob/master/Documentation.pdf English documentation with demo] <br />
[https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/3/docs/-/blob/master/Presentation.pdf Presentation en Français]<br />
[https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/3/docs Git doc] <br />
[https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/3/project-v2 Git projet]<br />
|-<br />
!scope="row"| 4<br />
| [[ASAC/ACJC|Agriculture connectée St Cassien]]<br />
| LABBE NICOLAS,RUZAFA REMY<br />
| PALIX Nicolas<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/4/docs/blob/master/README.md Fiche]<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/4/docs/-/blob/master/Projet_INFO4_-_LABBE_RUZAFA.pdf Rapport final] - [[Media:xxx.pdf|Presentation finale FR]] - [[Media:xxx.pdf|Final Presentation EN]] - [[Media:xxx.pdf|Flyer]] - [[Media:xxx.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 6<br />
| [[Testeur radio LoRaWAN en Ionic pour la plateforme CampusIoT]]<br />
| CROCIATI MORGAN,GRAUGNARD TOM<br />
| Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/6/docs/-/blob/master/README.md Fiche]<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/6/docs/-/blob/master/Rapport_Projet_INFO4.pdf Rapport final] - [[Media:xxx.pdf|Presentation finale FR]] - [[Media:xxx.pdf|Final Presentation EN]] - [[Media:xxx.pdf|Flyer]] - [[Media:xxx.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 7<br />
| [[Intégration d'Intel Movidius ou MAix BiT à RobAIR]]<br />
| PALOMO REMY, BOLEAT BAPTISTE<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/7/docs/blob/master/README.md Fiche]<br />
| [[Media:INFO4_Movidius_RobAir-Report.pdf|Rapport final]] - [[Media:Presentation_mi-parcours.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 8<br />
| [[Application mobile de secours du PGHM]]<br />
| CHATON ALEXANDRA,FRION THOMAS<br />
| Didier DONSEZ<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/8/docs/blob/master/fiche_suivi.md Fiche]<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/8/docs/-/blob/master/Presentation/Final%20Report.pdf Rapport final] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/8/docs/-/blob/master/Presentation/Diapo%20mi-parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 9<br />
| [[ Application mobile pour la capture de marmottes ]]<br />
| EL JRAIDI RIM, NELSON WILLIAM<br />
| Didier DONSEZ, Franck DELBARD<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/9/docs/-/blob/master/README.md Fiche]<br />
| [[https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/9/docs/-/blob/master/Rapport_projet_marmottes.pdf Rapport final]] - [[https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/9/docs/-/blob/master/cahier_des_charges_off.pdf Cahier des charges]] - [[https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/9/docs/-/blob/master/PreSoutenance_projet_marmottes.pdf Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 10<br />
| [[Supports pédagogiques open-source pour l'initiation à l’Internet des Objets pour l’enseignement de SNT (Sciences Numériques et Technologie) au lycée]]<br />
| CHAIX MANON,NGUENA ZEMAO GLORIA<br />
| Olivier Richard et Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/10/docs/-/blob/master/README.md Fiche]<br />
| [[Media:Rapport_Projet10.pdf|Rapport final]] - [[Media:xxx.pdf|Presentation finale FR]] - [[Media:xxx.pdf|Final Presentation EN]] - [[Media:xxx.pdf|Flyer]] - [[Media:Soutenance_Mi_Projet.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 11<br />
| [[Géolocalisation indoor avec Bluetooth 5.1 Bluetooth Direction Finding: Angle of Arrival (AoA) and Angle of Departure (AoD)]]<br />
| ARTAUD Adrien,FOUGERE SEBASTIAN<br />
| Didier DONSEZ, Franck ROUDET<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/11/docs/-/blob/master/README.md Fiche]<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/11/docs/-/blob/master/Project%20report.pdf Rapport final] - [[Media:xxx.pdf|Presentation finale FR]] - [[Media:xxx.pdf|Final Presentation EN]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/11/docs/-/blob/master/Soutenance%20project.pdf Présentation de mi-parcours]<br />
|-<br />
!scope="row"| 12<br />
| [[Amélioration de greffons Grafana]]<br />
| MURPHY MICA,VELUT CLAIRE<br />
| Didier DONSEZ<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/12/docs/-/blob/master/Am%C3%A9lioration_plugin_Grafana_info4_2019_2020.md|Fiche]<br />
| [[Media:Rapport-final-EN.pdf|Rapport final EN]] - [[Media:Presentation-mi-parcours amelioration-greffons-grafana-2019-20.pdf|Presentation de mi-parcours EN]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/12 Répertoire GitLab] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/12/docs/-/blob/master/README.md README récapitulatif]<br />
|-<br />
!scope="row"| 13<br />
| [[Tableau de bord et kit de mesure du confort dans les bâtiments de l'UGA]]<br />
| HO NHAT QUANG,MANISSADJIAN GABRIEL<br />
| Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/13/docs/-/blob/master/README.md Fiche]<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/13/docs/-/blob/master/Projet_4A_-_Rapport.pdf Rapport final] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/13/docs/-/blob/master/Pr%C3%A9sentation_mi-parcours.pdf Presentation mi-parcours] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/13 Git]<br />
|-<br />
!scope="row"| 14<br />
| [[Tableau de bord des capteurs LoRaWAN de la Ville de La Mure]]<br />
| BILOUNGA-BI-NDONG ALECK,LOMBARD MYRIAM<br />
| Didier DONSEZ<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/14/docs/-/blob/master/Tableau_De_Bord_Capteurs_LORAWAN_Ville_De_La_Mure_INFO4_2019_2020 Fiche]<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/14/docs/-/blob/master/Compte-Rendu_Projet_14.pdf Rapport final]] - [[Media:xxx.pdf|Presentation finale FR]] - [[Media:xxx.pdf|Final Presentation EN]] - [[Media:xxx.pdf|Flyer]] - [[Media:xxx.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 15<br />
| [[Tableau de bord et kit de mesure du confort dans le bâtiment Moonshot Lab]]<br />
| GUIVARCH ALAN, PAREILLEUX KILLIAN<br />
| Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/15/docs/-/blob/master/README.md Fiche]<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/15/docs/-/blob/master/Project_Report_Guivarch_Pareilleux.pdf Rapport final] - [[Media:xxx.pdf|Presentation finale FR]] - [[Media:xxx.pdf|Final Presentation EN]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/15/docs/-/blob/master/MiProjet_Guivarch_Pareilleux.pptx Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 16<br />
| [[Contribution au logiciel EDCampus]]<br />
| BEAUGRAND ELISA,DE GAUDENZI LOUIS<br />
| Didier Donsez, Anthony Geourjon<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/16/docs/-/blob/master/README.md Fiche]<br />
| [[Media:Final_Report_-_EdCampus_Software_Contribution.pdf|Rapport final EN]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/16/ Git] - [[Media:EdCampus.pdf|Presentation de mi-parcours]] - [https://youtu.be/RekFeGXszyI Vidéo Démonstration]<br />
|-<br />
!scope="row"| 17<br />
| [[VisuGPX : Application mobile pour ski rando]]<br />
| ZERAMDINI OTBA, EL MUFTI ALI, DELBOS ROBIN<br />
| Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/17/docs/-/blob/master/README.md Fiche]<br />
| [https://air.imag.fr/images/3/3b/Rapport_de_projet_LogGPX.pdf Rapport final] - [[Media:xxx.pdf|Presentation finale FR]] - [[Media:xxx.pdf|Final Presentation EN]] - [[Media:xxx.pdf|Flyer]] - [https://air.imag.fr/images/1/13/Log_GPX_Pr%C3%A9sentation_de_mi-Parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 19<br />
| [[FPGA et Deep Learnning]]<br />
| COURTHIAL SAMUEL, LUIS FILIPE VELASCO DA SILVA<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/19/docs/blob/master/README.md Fiche]<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/19/docs/-/blob/master/Rapport%20final.pdf Rapport final] - [[Media:xxx.pdf|Presentation finale FR]] - [[Media:xxx.pdf|Final Presentation EN]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/19/docs/-/blob/master/Presentation%20de%20mi-parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 20<br />
| [[Source Héritage et NIX]]<br />
| PASDELOUP ROMAIN,SALMON ALEXANDRE<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/20/docs/blob/master/CHANGELOG.md Fiche]<br />
| [[Media:Integration of Software Heritage in Nix package manager - PASDELOUP SALMON.pdf|Rapport final]] - [[Media:Fetch-Swh.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 21<br />
| [[Proxy Cache HTTPS]]<br />
| AUDIN RAPHAEL,RIVAL GAETAN<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/21/docs/blob/master/README.md Fiche]<br />
| [[Media:Projet21 AUDIN RIVAL.pdf|Rapport final]] - [[Media:Présentation Orale Proxy Cache HTTPS.pdf|Presentation de mi-parcours]]<br />
|- [[Media: xxx.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 22<br />
| [[Reverse Proxy pour gestionnaire de taches]]<br />
| GUYOT SACHA,EL AJI HOUDA,ASSI DIMA<br />
| TODO<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/22/docs/blob/master/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Presentation finale FR]] - [[Media:xxx.pdf|Final Presentation EN]] - [[Media:xxx.pdf|Flyer]] - [[Media:xxx.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 23<br />
| [[Portail_pour_gestionnaire_de_taches|Portail pour gestionnaire de tâches]]<br />
| ROLLIN ALEXIS,SAGET ANTOINE<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/23/docs/blob/master/README.md Fiche]<br />
| [[Media:Report_oar-dashboard_Alexis-ROLLIN_Antoine-SAGET.pdf|Rapport final]] - [[Media:Mi-parcours_oar-dashboard_Alexis-ROLLIN_Antoine-SAGET.pdf|Presentation de mi-parcours]]<br />
|-<br />
|}<br />
<br />
==INFO5==<br />
===Projet IoT S9===<br />
Enseignants responsables : Bernard Tourancheau<br />
<br />
Calendrier: ??? Septembre à ??? Décembre 2019.<br />
<br />
<br />
===Projet Semestre S10===<br />
<br />
Enseignants responsables : [[user:Donsez | Didier Donsez]]<br />
<br />
Calendrier: 28/01 (13H30) à Fin Mars 2020.<br />
<br />
Séances de Management de projets innovants: 29/01, 06/02, 13/02, 17/02, 18/03.<br />
<br />
Réunion de présentation : 28/01 (13H30) . Faire couler le café.<br />
<br />
Démarrage : 28/01 (13H30) . Faire couler le café.<br />
<br />
Soutenance à mi-parcours : Début Mars, 9H00-11H30 (15 minutes par équipe).<br />
<br />
Soutenance (puis Pot de la fin) : A définir : Semaine 16-20 Mars (probablement Jeudi ou Vendredi).<br />
<br />
14/02: [https://wiki.eclipse.org/Eclipse_IoT_Day_Grenoble_2020 Eclipse IoT Day Grenoble]<br />
<br />
====Propositions de projets S10====<br />
* [[Contributions à Software Heritage]] : : Didier Donsez, Roberto Di Cosmo<br />
* [[Contribution au projet open-souce ChirpStack]] (aka LoRaServer) : Didier Donsez<br />
* [[Contributions open-source au projet JHipster]] : Didier Donsez<br />
* [[Ecrire en gestes]] : Olivier Richard<br />
* [[Kine 2.0]] (suite de [[Rééducation Kiné connecté]] 2019): Sylvain Toru<br />
* [[Contributions open source au projet EdCampus]] : Gérard Pollier (Disrupt Campus), Anthony Geourjon (Disrupt Campus)<br />
* [[Contributions open source au projet SmartRecruiting]] : Gérard Pollier (Disrupt Campus), Anthony Geourjon (Disrupt Campus)<br />
* [[Secours Montagne avec LoRa]] : Bernard Tourancheau avec le PGHM Isère<br />
* [[Monnaies locales et blockchains]] avec Hyperledger, Didier Donsez, XXX (Cairn Grenoble). A CONFIRMER.<br />
* [[IoTChain]] : Didier Donsez<br />
* [[Projet STAPS]] : Didier Donsez<br />
<br />
<br />
Reporté<br />
* [[Analyse du pédalage cycliste sur home trainer via vidéo]] (Anthony Geourjon) en relation avec STAPS et TIS<br />
* Projet IA/Edge: Databox : Olivier Richard<br />
<br />
==== Affectations S10====<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets INFO5 2019-2020<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Documents<br />
|-<br />
<br />
!scope="row"| 1<br />
| [[Projet STAPS : Location de matériel sportif]]<br />
| ANCRENAZ Ariane, SAUTON Tanguy, SIBUE Quentin, VINCENT Mathieu (CP)<br />
| Didier Donsez<br />
| [https://gitlab.com/projet_info5/docs/blob/master/suivi.md Fiche de suivi]<br />
| [https://gitlab.com/projet_info5/docs/-/blob/master/report.md Rapport final] - [https://gitlab.com/projet_info5/docs/-/blob/master/technical-doc.md Rapport technique] - [https://docs.google.com/presentation/d/1XwvzTEflLjh5dl1qmWUroGbLI0u6ZcVMdVR7Nj3m_DQ/edit?usp=sharing Présentation intermédiaire] - [https://drive.google.com/file/d/1_GKpkopV9KaESZh5_YZCDy1_kDLEesv9/view?usp=sharing Présentation Finale (Slides+Notes)] - [https://www.youtube.com/watch?v=gKPdLq6TW0g Présentation finale (Vidéo)] - [https://gitlab.com/projet_info5 GitLab]<br />
|-<br />
!scope="row"| 2<br />
| [[Contributions à Software Heritage]]<br />
| Nathan Dalaine, Joachim Fontfreyde (CP), Léni Gauffier, Yann Gautier<br />
| Didier Donsez, Roberto Di Cosmo<br />
| [https://air.imag.fr/index.php/Softwareheritage-2020 Fiche de suivi]<br />
| [https://air.imag.fr/index.php/Rapport_final_software_heritage Rapport final] ([https://air.imag.fr/images/2/25/Rapport_Software_Heritage_Fontfreyde_Gautier_Dalaine_Gauffier.pdf pdf])- [https://air.imag.fr/images/2/2e/Rapport_Technique_Software_Heritage_Fontfreyde_Dalaine_Gauffier_Gauffier.pdf Rapport technique] - [https://air.imag.fr/images/e/e7/Diapo_Mi-Projet.pdf Présentation intermédiaire] - [https://gitlab.com/TODO/presentation/finale.md Présentation Finale] - [https://drive.google.com/open?id=1kfNjZGD4NIZImE359G937jIq8hJtCwGJ Présentation finale (Vidéo)] - [https://forge.softwareheritage.org/ Forge SH] <br />
|-<br />
!scope="row"| 3<br />
| [https://air.imag.fr/index.php/UGAChain-2020 Blockchain (UGAChain)]<br />
| REYGROBELLET Lucas (CP), BRES Maxence, BETEND Baptiste, DUMENIL Antoine<br />
| 💪🏼💣 Didier DONSEZ 🔥❤️<br />
| [https://air.imag.fr/index.php/UGAChain-2020 Fiche de suivi]<br />
| [https://gitlab.com/ugachain-2020/ugachain-2020/-/blob/master/docs/report.md Rapport final] - [https://air.imag.fr/images/7/78/Blockchain_-_Soutenance_interm%C3%A9diaire.pdf Présentation intermédiaire] - [https://www.youtube.com/watch?v=8kTE_Ez9chU Présentation Finale] - [https://gitlab.com/blockchain-ricm GitLab]<br />
|-<br />
!scope="row"| 4<br />
| [[Contributions open-source au projet JHipster]]<br />
| SALA Ergi, ARNOUX Thibaut, SOLVERY Tom, LORDEY Maxime, CHASSEGUET Corentin, LATTARD Alexis(CP)<br />
| Didier DONSEZ<br />
| [https://github.com/contribution-jhipster-uga/docs/blob/master/fiche_suivie.md Fiche de suivi]<br />
| [https://github.com/contribution-jhipster-uga/docs/blob/master/rapport_final.md Rapport final] - [https://github.com/contribution-jhipster-uga/docs Rapport technique] - [[Media:Contribution_jhipster_soutenance_intermediaire.pdf | Présentation intermédiaire]] - [https://drive.google.com/file/d/1hao-eS72MyCqB9OKdrgMWn5nCnwZOYrC/view?usp=sharing Présentation Finale + Démonstration] - [https://github.com/contribution-jhipster-uga Dépôts Github]<br />
|-<br />
!scope="row"| 5<br />
| [[Contribution au projet open-souce ChirpStack]]<br />
| RAKOTOARIMALALA Mandresy, MASTOURA Iheb, ZHENG Jian, JALMIN Hoël, DUMAX VORZET Mathieu, CORDAT-AUCLAIR Julien<br />
| Didier DONSEZ<br />
| [https://air.imag.fr/index.php/Contribution_ChirpStack Fiche de suivi]<br />
| [https://github.com/campus-iot/Chirpstack-docker/tree/final-report/Final%20report Rapport final] - [https://docs.google.com/presentation/d/1AuEhaHrHMfaVp9BKJF1YRoHDTcAAnk59moazu95j86U/edit?usp=sharing Présentation Finale] - [https://docs.google.com/presentation/d/1jki9UUmdc6g9Ql5Qc31wcFGkKlHdqY66hVSvVdGPKt0/edit?usp=sharing Présentatation intermédiaire] - [https://github.com/campus-iot Dépôts Github]<br />
|-<br />
!scope="row"| 6<br />
| [[Secours Montagne avec LoRa]]<br />
| WYKLAND Damien(SM), BADAT Leya, CUAU Victor, MASSON Jeremy, ZARCOS Paul<br />
| Bernard Tourancheau<br />
| [[PROJET-INFO5 1920 Secours Montagne avec LoRa | Fiche de suivi]]<br />
| [https://air.imag.fr/images/5/5b/SecoursMontagneLoRa1920_RapportTomePrincipal.pdf Rapport - Tome principal] - [https://air.imag.fr/images/a/aa/SecoursMontagneLoRa1920_RapportAnnexes.pdf Rapport - Annexes] - [https://air.imag.fr/images/2/29/SecoursMontagneLoRa1920_RapportMPI.pdf Rapport MPI] - [https://air.imag.fr/images/4/4f/SecoursMontagneLoRa_Soutenance_mi-parcours.pdf Présentation intermédiaire] - [https://air.imag.fr/images/8/8f/SecoursMontagneLoRa1920_SoutenanceFinale.pdf Présentation finale] - [https://drive.google.com/open?id=1cMHI9q-MkXd_WOeKalJQSLAXFzovm0IV Présentation finale screencast] - [https://air.imag.fr/images/2/23/SecoursMontagneLoRa1920_Demo.pdf Démonstration] - [https://gitlab.com/info5_2020_secoursenmontagne GitLab]<br />
|-<br />
!scope="row"| 7<br />
| [[Contributions open source au projet EdCampus]]<br />
| RIVOIRE Antoine, VINCENT Maxence, BONASPETTI Giulia, DECAMPS Marceau <br />
| Anthony GEOURJON - Gérard POLLIER<br />
| [https://air.imag.fr/index.php/Projet_EDCampus#Fiche_de_suivi Fiche de suivi]<br />
| [https://air.imag.fr/index.php/Projet_EDCampus Rapport final] - [https://drive.google.com/file/d/1Z5ib-fY2DHSgYRsREkvxlljJ8vHKQkd-/view?usp=sharing Démonstration] - [[Media:Rapport_Technique_EDCampus.pdf | Rapport technique]] - [[Media:Soutenance_intermediaire_Edcampus.pdf | Présentation intermédiaire]] - [[Media:Soutenance_finale_EdCampus.pdf | Présentation Finale]] - [[Media:Soutenance_finale_+_notes_EdCampus.pdf | Présentation Finale avec commentaires]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/edcampus GitLab]<br />
|-<br />
!scope="row"| 8<br />
| [[Contributions open source au projet SmartRecruiting]]<br />
| LANDI Estelle, REYMOND Estelle, Schanen Loic, VARENNE Rémi <br />
| Anthony GEOURJON - Gérard POLLIER<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/smartrecruiting/2019-2020/doc/-/wikis/Fiche-de-suivi Fiche de suivi]<br />
| [[Media:Rapport_SmartRecruiting.pdf | Rapport final]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/smartrecruiting/2019-2020/doc/-/wikis/Rapport-Polytech Rapport (md)] - [[Media:Rapport_technique_SmartRecruiting.pdf | Rapport technique]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/smartrecruiting/2019-2020/doc/-/wikis/Rapport-technique Rapport technique (md)] - [[Media:Presentation_mi-projet_smartrecruiting.pdf | Presentation intermédiaire]] - [https://docs.google.com/presentation/d/1ZLQYCfqEBoE9lJGzm3ConQi8VrLqG5aLi9m3czs4G_w/edit?usp=sharing Présentation Finale avec démonstration en GIF] - [[Media:Presentation_smartrecruiting_avec_notes.pdf | Presentation avec notes]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/smartrecruiting/2019-2020 GitLab] - [https://youtu.be/_-ffUTy7aHQ Démonstration application]<br />
|-<br />
!scope="row"| 9<br />
| [[Projet Guc Voile App]]<br />
| SOUCHON Loïc, THOMAS Antoine, TRESTOUR Grégory, VANDAL Jade<br />
| Anthony GEOURJON<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/gucvoile/guc-voile-documentation/-/wikis/Fiche-de-suivi Fiche de suivi]<br />
| [[Media:guc_voile_rapport_final.pdf|Rapport Final PDF]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/gucvoile/guc-voile-documentation/-/blob/bda8199bad51ad6c4a4fdb0b31a1d14f460bd773/Rapports/Rapport_final.md Rapport Final MD] - [[Media:guc_voile_rapport_technique.pdf|Rapport Technique PDF]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/gucvoile/guc-voile-documentation/-/blob/bda8199bad51ad6c4a4fdb0b31a1d14f460bd773/Rapports/Rapport_technique.md Rapport Technique MD] - [[Media:Soutenance_Intermediaire_GucVoile.pdf|Presentation intermédiaire]] - [[Media:guc_voile_soutenance_finale.pdf|Présentation finale]] - [[Media:guc_voile_soutenance_finale_commente.pdf|Présentation finale commentée]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/gucvoile GitLab] - [[Media:demo_application_gucvoile.pdf|Démonstration Application Slides]] - [[Media:demo_logiciel_guc-voile.pdf|Démonstration Logiciel Slides]] - [https://www.youtube.com/watch?v=S_4OQx0hotI&feature=youtu.be Démonstration Application Vidéo] - [https://www.youtube.com/watch?v=ipfGFq5QVyo&feature=youtu.be Démonstration Logiciel Vidéo] <br />
|-<br />
!scope="row"| 10<br />
| [[Projet Kine 2.0]]<br />
| BARDOU Eva, DEVOS Xavier, HOUBRON Adrian, JAN Léo, PELISSON Antoine<br />
| Sylvain TORU<br />
| [https://air.imag.fr/index.php/Projet_Kine_2.0#Fiche_de_suivi Fiche de suivi]<br />
| [[Media:Kiné_Connecté_2.0_-_Rapport_final.pdf|Rapport final]] - [[Media:Kiné_Connecté_2.0_-_Rapport_technique.pdf|Rapport technique]] - [[Media:INFO5_Bardou-Devos-Houbron-Jan-Pelisson_Dossier_MPI.pdf|Rapport MPI]] - [[Media:Projet_Kiné2.0_-_Soutenance_de_mi-parcours_03_03_20.pdf|Présentation intermédiaire]] - [[Media:Projet_KinéConnecté2.0_-_Soutenance_finale_27_03_20.pdf|Présentation Finale (Slides)]] - [https://drive.google.com/open?id=1e99UvMczNwKSa3wspA_81SqOU6lBVgw6 Présentation Finale (Screencast)] - [[Media:KC2.0_-_Déroulement_démonstration.pdf|Démonstration (Workflow)]] - [https://drive.google.com/open?id=1K_oK1Hxh6M58O_w4hjmaxrI53G6pb_s_ Démonstration (Screencast)] - [https://gitlab.com/Eva_B/reeducation_kine_connecte GitLab]<br />
|-<br />
!scope="row"| 11<br />
| [[Projet Ecrire en geste]]<br />
| CHABRE Manon, COSCIA Daniel, DENIS Guillaume, DE ARAUJO Bastien et ALACALI Kadir Uraz<br />
| Olivier RICHARD<br />
| [https://github.com/WriteInGesturesProject/docs/blob/master/suivi.md Fiche de suivi]<br />
| [https://github.com/WriteInGesturesProject/docs/blob/master/Rapport%20Final.md Rapport final] - [https://github.com/WriteInGesturesProject/docs/blob/master/Rapport%20Technique.pdf Rapport technique] - [https://github.com/WriteInGesturesProject/docs/blob/master/Pr%C3%A9sentation%20mi%20parcours.pdf Présentation Intermédiaire] - [https://github.com/WriteInGesturesProject/docs/blob/master/Pr%C3%A9sentation%20Finale.pdf Présentation Finale] - [https://github.com/WriteInGesturesProject/ GitLab]<br />
<br />
<br />
|}<br />
<br />
====Instructions pour l'évaluation du projet S10====<br />
La soutenance de projet prévue les 19-20 Mars, est remplacée par:<br />
* soit un screenscast de la présentation (20-25 minutes) et un screencast de la démonstration (10 minutes),<br />
* soit le jeu de transparents de la présentation avec le discours dans les notes de présentation et un screencast de la démonstration (10 minutes).<br />
<br />
* La présentation est constituée des chapitres suivants:<br />
** Rappel du sujet/besoin et cahier des charges<br />
** Technologies employées<br />
** Architecture techniques<br />
** Réalisations techniques<br />
** Gestion de projet (méthode, planning prévisionnel et effectif, gestion des risques, rôles des membres ...)<br />
** Outils (collaboration, CD/CI ...)<br />
** Métriques logiciels : lignes de code, langages, performance, temps ingénieur (d'après vos journaux), la répartition des lignes de code et des commits en pourcentage entre les membres du projet ...)<br />
** Conclusion (Retour d'expérience)<br />
** Transparent expliquant la démonstration<br />
<br />
<br />
* L'ensemble des documents doit être accessible depuis le tableau ci-dessus et dans chaque fiche de suivi.<br />
* Le screencast sera rendu disponible via un partage caché (wetransfer, google drive …) dont le lien sera ajouté dans le devoir idoine sur Moodle et également envoyé par mail à votre tuteur.<br />
<br />
<br />
* Le rapport final contient les mêmes chapitres que la présentation ainsi qu'un glossaire et une bibliographie. Le rapport ne doit pas dépasser 15 pages (schémas et figures compris). Vous pourrez référencer les autres documents que vous avez produits au cours du projet (spécifications détaillées, algorithmes, conception d'écrans ...).<br />
<br />
* Le rapport final est au format Markdown et doit être placé dans un des dépôts Git de votre groupe/organisation.<br />
<br />
* NB: le rapport technique listé dans la colonne Documents contient tout ce qui ne tient pas dans les 15 pages du rapport final : cahier des charges, diagrammes UML, enquêtes utilisateurs design UI, API, technologies employées (détail), plan de tests, term of services, conformance RPGD, audits/diagnostiques sécurité, MTBR, rapport de vulnérabilité, plan de charge, rapports de charge, manuel d'installation … : ça dépend un peu de la nature de votre projet.<br />
<br />
<br />
* '''TOUT Le matériel emprunté au fablab devra être rapporté et restitué au fablab dans un sac cabas une fois l'épisode Covid-19 passé.'''<br />
<br />
<br />
* '''Les documents demandés doivent être disponibles le Vendredi 27 Mars 2020 (fin d'après midi).'''<br />
<br />
= Projets collectifs MAT/IESE =<br />
<br />
== Années 3 et 4 ==<br />
<br />
* [[ASAC/ACJC|Agriculture connectée]] (projets [[ASAC/SJC|Serres connectées]] et [[ASAC/GEJC|Gestion de l'eau]]) @ Jardins du coteau<br />
* [[ASAC/AP|Aquaponie @ Polytech]]<br />
<br />
=[[Projets M2PGI Services Machine-to-Machine et Internet-of-Things]]=<br />
==[[PM2M/2019/TP|PM2M]]==</div>Elisa.Beaugrandhttps://air.imag.fr/index.php?title=Projets_2019-2020&diff=48066Projets 2019-20202020-04-30T23:01:15Z<p>Elisa.Beaugrand: /* Affectation */</p>
<hr />
<div><<[[Projets 2018-2019]] | [[Projets]] | [[Projets 2020-2021]]>><br />
=INFO=<br />
==INFO3==<br />
<br />
==INFO4==<br />
===Projet Semestre S8===<br />
<br />
Enseignants responsables : Olivier Richard, Didier Donsez<br />
<br />
* Dates : Lundi après-midi, Mardi après-midi <br />
* Lancement: 20 Janvier 2020 après midi<br />
* Soutenance à mi-parcours: A définir<br />
* Soutenance: A définir<br />
<br />
* '''Evaluation à mi-parcours le lundi/mardi ???''': Format: 10min (5min de présentation 3 slides au plus, 5min de discussion). Cette évaluation sera prise en compte dans la note finale.<br />
<br />
'''Consignes générales:'''<br />
<br />
* '''Vous devez être pro-actifs !!!''': Si des points sont pas ou mals spécifiés, vous le faîtes et vous justifiez vos choix. Pour les problèmes techniques éventuels vous pouvez: creuser la question, contacter l'auteur du code si il y a lieu, écrire un rapport de bug ('''Attention:''' ca se prépare !), soumettre un patch/pull request, contacter l'enseignant ou la personne référente du projet.<br />
<br />
* '''Vous devez maintenir une fiche de suivi de projet''': elle doit être mise à jour chaque semaine, elle rassemble les élements essentiels du projet, elle indique les évolutions du projet et présente sa feuille de route. '''Note:''' le nom de la fiche doit être composé du nom du projet et suffixé par info4_2019_2020. '''Cette fiche compte pour la note finale'''<br />
<br />
* '''Votre code''' pour doit être hébergé sur le gitlab et à l'URL suivante https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20 , vous utiliserez votre compte UGA.<br />
<br />
* Chaque projet doit avoir '''aux moins 2 dépôts git''':<br />
** '''Un pour les documents''' demandés rapport, présentation de pré-soutenante, de soutenance, flyer. '''Il sera appelé documents.'''<br />
** Un ou plusieurs pour le code, les tests, les évaluations, les preuves de concept, la ou les documentations afférentes. <br />
<br />
* Les documents public doivent être rédigés en anglais (README, documentation, commentaires de code, nom de variables et de fonctions). Une bonnification sera accordée si le rapport et les transparents sont en anglais (la soutenance sera en francais).<br />
<br />
* '''La note obtenue''' tiendra compte du '''nombre et de la qualité des commits''' observé dans '''vos dépots git et la branche master''' (or depot documents). La qualité comprend l'intitulé du commit et son contenu. Les notes pourront être différentiées dans un groupe, il n'est pas acceptable de pas avoir de commit dans le(s) dépôt(s) du projet (or dépôt documents).<br />
<br />
* Il est fortement conseillé de suivre un '''développement incrémental''' qui permette d'avoir à tout moment un démonstrateur à présenter, un projet peut être constituer d'une succession de '''démonstrateurs présentables séparément'''.<br />
<br />
* Vous devez faire aussi des '''schémas d'architectures générales et/ou spéficiques, des diagrammes de séquence''', et autre documents de spécification si nécessaire. Ces documents vous serviront de base de discussion/brainstorming interne ainsi que dans vos différents documents (rapport, présentations, documentation). Ces schémas sont avant tout conceptuels et techniques.<br />
<br />
===Propositions de projets===<br />
* 1. [[ThingSat]] : LoRa in the Space, Didier Donsez avec le [https://www.csug.fr/ CSUG] (S)<br />
* 2. [[LoRaRescueBalloon]], Didier Donsez avec le [https://www.csug.fr/ CSUG] et l'[[Institut polaire Paul Emile Victor]]<br />
* Agriculture connectée en partenariat avec les projets collectifs IESE/MAT<br />
** 3. à [[ASAC/AP|Polytech]] : Nicolas Palix<br />
** 4. à [[ASAC/SJC|St Cassien]] : Nicolas Palix<br />
* 5. [[Dataviz de la qualité de l'air et de la pollution sonore]], Didier Donsez, avec Atmo AURA et [https://github.com/CampusIoT/campusiot.github.io CampusIoT] (M)<br />
* 6. [[Testeur radio LoRaWAN en Ionic pour la plateforme CampusIoT]], Didier Donsez (S&M) (Tech Ionic à confirmer)<br />
* 7. Intégration d'Intel [[Movidius]] ou [[MAix BiT]] à [[RobAIR]], Olivier Richard<br />
* 8. [[Application mobile de secours du PGHM]] : Didier Donsez, Olivier Fabre (PGHM)<br />
* 9. [[Application mobile pour la capture de marmottes]] : Didier Donsez, Franck Delbard<br />
* 10. [[Supports pédagogiques open-source pour l'initiation à l’Internet des Objets pour l’enseignement de SNT (Sciences Numériques et Technologie) au lycée]] : Olivier Richard et Didier Donsez<br />
* 11. [[Géolocalisation indoor avec Bluetooth 5.1 Bluetooth Direction Finding: Angle of Arrival (AoA) and Angle of Departure (AoD)]] : Didier DONSEZ, Franck ROUDET (Orange Labs Meylan)<br />
* DatViz pour l'IoT<br />
** 12. [[Amélioration de greffons Grafana]] : Didier Donsez<br />
** 13. [[Tableau de bord et kit de mesure du confort dans les bâtiments de l'UGA]] : Didier Donsez, Fabien Hornebeck (DG DAPAL), Laurence Deligny (DG DAPAL)<br />
** 14. [[Tableau de bord des capteurs LoRaWAN de la Ville de La Mure]] : Didier Donsez, Virginie Gondrand (Ville de La Mure)<br />
** 15. [[Tableau de bord et kit de mesure du confort dans le bâtiment Moonshot Lab]] : Didier Donsez, Jean-François Knoepfli (MoonshotLab), Joris Brémond (MoonshotLab)<br />
* 16. [[Contributions open source au projet EdCampus]] : Didier Donsez, Gérard Pollier (Disrupt Campus), Anthony Geourjon (Disrupt Campus)<br />
* 17. [[VisuGPX : Application mobile pour ski rando]], Didier Donsez, Ye.Ti (M)<br />
* 18. [[Projet d'Auscultation Partagée]] avec IESE4 et TIS5, Olivier Richard, Didier Donsez, Julie Fontecave-Jallon<br />
* 19. [[FPGA et Deep Learnning]] : Olivier Richard<br />
* 20. [[Source Héritage et NIX]] : Olivier Richard<br />
* 21. [[Proxy Cache HTTPS]] : Olivier Richard<br />
* 22. [[Reverse Proxy pour gestionnaire de taches]] : Olivier Richard<br />
* 23. [[Portail pour gestionnaire de taches]] : Olivier Richard<br />
* 24. [[Paquets NIX pour Polytech]] : Olivier Richard<br />
Non prioritaire<br />
* [[Application mobile de calcul de son empreinte carbone]] : Didier Donsez, Anne Delaballe (Disrupt Campus), XX (Café Collapse)<br />
* [[Serious game multi-joueurs pour tables tactiles en réseau]] : Anne-Laure Finkel, Tim Lepage, Didier Donsez. (S&M)<br />
* [[Benchmark de MCU pour l'IoT]] : Didier Donsez<br />
* [[Connecteur InfluxDB pour Cube.js]] : Didier Donsez<br />
* [[SimCity]] avec [[ThreeJS]]<br />
* [[WhereIsMyCar]] : application mobile pour se souvenir de l'endroit où sa voiture est garée. : Didier Donsez<br />
* [[CannonBall de voitures autonomes 2018]]<br />
* [[Covoiturage Solidaire]], Didier Donsez<br />
* [[Intégration d'OpenAM à la génération de JHipster]] : Didier Donsez<br />
* [[Comptage anonymisé de personnes]] : Didier Donsez et Franck Delbart<br />
* Carte de service étudiant avec [[Eclipse Keyple]] : Didier Donsez<br />
* [[Tableau de bord et kit de mesure du confort dans les bâtiments du CROUS]] : Didier Donsez (SOUS RESERVE)<br />
<br />
==== Affectation ====<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets INFO4 2019-2020<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Documents<br />
|-<br />
!scope="row"| 3<br />
| [[ASAC/AP|Agriculture connectée Polytech]]<br />
| VERNET MAXIME, SAJIDE IDRISS<br />
| PALIX Nicolas <br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/3/docs/-/blob/master/README.md Fiche]<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/3/docs/-/blob/master/Documentation.pdf English documentation with demo] <br />
[https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/3/docs/-/blob/master/Presentation.pdf Presentation en Français]<br />
[https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/3/docs Git doc] <br />
[https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/3/project-v2 Git projet]<br />
|-<br />
!scope="row"| 4<br />
| [[ASAC/ACJC|Agriculture connectée St Cassien]]<br />
| LABBE NICOLAS,RUZAFA REMY<br />
| PALIX Nicolas<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/4/docs/blob/master/README.md Fiche]<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/4/docs/-/blob/master/Projet_INFO4_-_LABBE_RUZAFA.pdf Rapport final] - [[Media:xxx.pdf|Presentation finale FR]] - [[Media:xxx.pdf|Final Presentation EN]] - [[Media:xxx.pdf|Flyer]] - [[Media:xxx.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 6<br />
| [[Testeur radio LoRaWAN en Ionic pour la plateforme CampusIoT]]<br />
| CROCIATI MORGAN,GRAUGNARD TOM<br />
| Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/6/docs/-/blob/master/README.md Fiche]<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/6/docs/-/blob/master/Rapport_Projet_INFO4.pdf Rapport final] - [[Media:xxx.pdf|Presentation finale FR]] - [[Media:xxx.pdf|Final Presentation EN]] - [[Media:xxx.pdf|Flyer]] - [[Media:xxx.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 7<br />
| [[Intégration d'Intel Movidius ou MAix BiT à RobAIR]]<br />
| PALOMO REMY, BOLEAT BAPTISTE<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/7/docs/blob/master/README.md Fiche]<br />
| [[Media:INFO4_Movidius_RobAir-Report.pdf|Rapport final]] - [[Media:Presentation_mi-parcours.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 8<br />
| [[Application mobile de secours du PGHM]]<br />
| CHATON ALEXANDRA,FRION THOMAS<br />
| Didier DONSEZ<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/8/docs/blob/master/fiche_suivi.md Fiche]<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/8/docs/-/blob/master/Presentation/Final%20Report.pdf Rapport final] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/8/docs/-/blob/master/Presentation/Diapo%20mi-parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 9<br />
| [[ Application mobile pour la capture de marmottes ]]<br />
| EL JRAIDI RIM, NELSON WILLIAM<br />
| Didier DONSEZ, Franck DELBARD<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/9/docs/-/blob/master/README.md Fiche]<br />
| [[https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/9/docs/-/blob/master/Rapport_projet_marmottes.pdf Rapport final]] - [[https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/9/docs/-/blob/master/cahier_des_charges_off.pdf Cahier des charges]] - [[https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/9/docs/-/blob/master/PreSoutenance_projet_marmottes.pdf Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 10<br />
| [[Supports pédagogiques open-source pour l'initiation à l’Internet des Objets pour l’enseignement de SNT (Sciences Numériques et Technologie) au lycée]]<br />
| CHAIX MANON,NGUENA ZEMAO GLORIA<br />
| Olivier Richard et Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/10/docs/-/blob/master/README.md Fiche]<br />
| [[Media:Rapport_Projet10.pdf|Rapport final]] - [[Media:xxx.pdf|Presentation finale FR]] - [[Media:xxx.pdf|Final Presentation EN]] - [[Media:xxx.pdf|Flyer]] - [[Media:Soutenance_Mi_Projet.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 11<br />
| [[Géolocalisation indoor avec Bluetooth 5.1 Bluetooth Direction Finding: Angle of Arrival (AoA) and Angle of Departure (AoD)]]<br />
| ARTAUD Adrien,FOUGERE SEBASTIAN<br />
| Didier DONSEZ, Franck ROUDET<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/11/docs/-/blob/master/README.md Fiche]<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/11/docs/-/blob/master/Project%20report.pdf Rapport final] - [[Media:xxx.pdf|Presentation finale FR]] - [[Media:xxx.pdf|Final Presentation EN]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/11/docs/-/blob/master/Soutenance%20project.pdf Présentation de mi-parcours]<br />
|-<br />
!scope="row"| 12<br />
| [[Amélioration de greffons Grafana]]<br />
| MURPHY MICA,VELUT CLAIRE<br />
| Didier DONSEZ<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/12/docs/-/blob/master/Am%C3%A9lioration_plugin_Grafana_info4_2019_2020.md|Fiche]<br />
| [[Media:Rapport-final-EN.pdf|Rapport final EN]] - [[Media:Presentation-mi-parcours amelioration-greffons-grafana-2019-20.pdf|Presentation de mi-parcours EN]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/12 Répertoire GitLab] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/12/docs/-/blob/master/README.md README récapitulatif]<br />
|-<br />
!scope="row"| 13<br />
| [[Tableau de bord et kit de mesure du confort dans les bâtiments de l'UGA]]<br />
| HO NHAT QUANG,MANISSADJIAN GABRIEL<br />
| Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/13/docs/-/blob/master/README.md Fiche]<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/13/docs/-/blob/master/Projet_4A_-_Rapport.pdf Rapport final] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/13/docs/-/blob/master/Pr%C3%A9sentation_mi-parcours.pdf Presentation mi-parcours] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/13 Git]<br />
|-<br />
!scope="row"| 14<br />
| [[Tableau de bord des capteurs LoRaWAN de la Ville de La Mure]]<br />
| BILOUNGA-BI-NDONG ALECK,LOMBARD MYRIAM<br />
| Didier DONSEZ<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/14/docs/-/blob/master/Tableau_De_Bord_Capteurs_LORAWAN_Ville_De_La_Mure_INFO4_2019_2020 Fiche]<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/14/docs/-/blob/master/Compte-Rendu_Projet_14.pdf Rapport final]] - [[Media:xxx.pdf|Presentation finale FR]] - [[Media:xxx.pdf|Final Presentation EN]] - [[Media:xxx.pdf|Flyer]] - [[Media:xxx.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 15<br />
| [[Tableau de bord et kit de mesure du confort dans le bâtiment Moonshot Lab]]<br />
| GUIVARCH ALAN, PAREILLEUX KILLIAN<br />
| Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/15/docs/-/blob/master/README.md Fiche]<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/15/docs/-/blob/master/Project_Report_Guivarch_Pareilleux.pdf Rapport final] - [[Media:xxx.pdf|Presentation finale FR]] - [[Media:xxx.pdf|Final Presentation EN]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/15/docs/-/blob/master/MiProjet_Guivarch_Pareilleux.pptx Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 16<br />
| [[Contribution au logiciel EDCampus]]<br />
| BEAUGRAND ELISA,DE GAUDENZI LOUIS<br />
| Didier Donsez, Anthony Geourjon<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/16/docs/-/blob/master/README.md Fiche]<br />
| [[Media:Final_Report_-_EdCampus_Software_Contribution.pdf|Rapport final EN]] - [[Media:https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/16/docs|Git]] - [[Media:EdCampus.pdf|Presentation de mi-parcours]] - [[Media:https://youtu.be/RekFeGXszyI|Vidéo Démonstration]]<br />
|-<br />
!scope="row"| 17<br />
| [[VisuGPX : Application mobile pour ski rando]]<br />
| ZERAMDINI OTBA, EL MUFTI ALI, DELBOS ROBIN<br />
| Didier Donsez<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/17/docs/-/blob/master/README.md Fiche]<br />
| [https://air.imag.fr/images/3/3b/Rapport_de_projet_LogGPX.pdf Rapport final] - [[Media:xxx.pdf|Presentation finale FR]] - [[Media:xxx.pdf|Final Presentation EN]] - [[Media:xxx.pdf|Flyer]] - [https://air.imag.fr/images/1/13/Log_GPX_Pr%C3%A9sentation_de_mi-Parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 19<br />
| [[FPGA et Deep Learnning]]<br />
| COURTHIAL SAMUEL, LUIS FILIPE VELASCO DA SILVA<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/19/docs/blob/master/README.md Fiche]<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/19/docs/-/blob/master/Rapport%20final.pdf Rapport final] - [[Media:xxx.pdf|Presentation finale FR]] - [[Media:xxx.pdf|Final Presentation EN]] - [[Media:xxx.pdf|Flyer]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/19/docs/-/blob/master/Presentation%20de%20mi-parcours.pdf Presentation de mi-parcours]<br />
|-<br />
!scope="row"| 20<br />
| [[Source Héritage et NIX]]<br />
| PASDELOUP ROMAIN,SALMON ALEXANDRE<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/20/docs/blob/master/CHANGELOG.md Fiche]<br />
| [[Media:Integration of Software Heritage in Nix package manager - PASDELOUP SALMON.pdf|Rapport final]] - [[Media:Fetch-Swh.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 21<br />
| [[Proxy Cache HTTPS]]<br />
| AUDIN RAPHAEL,RIVAL GAETAN<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/21/docs/blob/master/README.md Fiche]<br />
| [[Media:Projet21 AUDIN RIVAL.pdf|Rapport final]] - [[Media:Présentation Orale Proxy Cache HTTPS.pdf|Presentation de mi-parcours]]<br />
|- [[Media: xxx.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 22<br />
| [[Reverse Proxy pour gestionnaire de taches]]<br />
| GUYOT SACHA,EL AJI HOUDA,ASSI DIMA<br />
| TODO<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/22/docs/blob/master/README.md Fiche]<br />
| [[Media:xxx.pdf|Rapport final]] - [[Media:xxx.pdf|Presentation finale FR]] - [[Media:xxx.pdf|Final Presentation EN]] - [[Media:xxx.pdf|Flyer]] - [[Media:xxx.pdf|Presentation de mi-parcours]]<br />
|-<br />
!scope="row"| 23<br />
| [[Portail_pour_gestionnaire_de_taches|Portail pour gestionnaire de tâches]]<br />
| ROLLIN ALEXIS,SAGET ANTOINE<br />
| Olivier Richard<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/Projets-INFO4/19-20/23/docs/blob/master/README.md Fiche]<br />
| [[Media:Report_oar-dashboard_Alexis-ROLLIN_Antoine-SAGET.pdf|Rapport final]] - [[Media:Mi-parcours_oar-dashboard_Alexis-ROLLIN_Antoine-SAGET.pdf|Presentation de mi-parcours]]<br />
|-<br />
|}<br />
<br />
==INFO5==<br />
===Projet IoT S9===<br />
Enseignants responsables : Bernard Tourancheau<br />
<br />
Calendrier: ??? Septembre à ??? Décembre 2019.<br />
<br />
<br />
===Projet Semestre S10===<br />
<br />
Enseignants responsables : [[user:Donsez | Didier Donsez]]<br />
<br />
Calendrier: 28/01 (13H30) à Fin Mars 2020.<br />
<br />
Séances de Management de projets innovants: 29/01, 06/02, 13/02, 17/02, 18/03.<br />
<br />
Réunion de présentation : 28/01 (13H30) . Faire couler le café.<br />
<br />
Démarrage : 28/01 (13H30) . Faire couler le café.<br />
<br />
Soutenance à mi-parcours : Début Mars, 9H00-11H30 (15 minutes par équipe).<br />
<br />
Soutenance (puis Pot de la fin) : A définir : Semaine 16-20 Mars (probablement Jeudi ou Vendredi).<br />
<br />
14/02: [https://wiki.eclipse.org/Eclipse_IoT_Day_Grenoble_2020 Eclipse IoT Day Grenoble]<br />
<br />
====Propositions de projets S10====<br />
* [[Contributions à Software Heritage]] : : Didier Donsez, Roberto Di Cosmo<br />
* [[Contribution au projet open-souce ChirpStack]] (aka LoRaServer) : Didier Donsez<br />
* [[Contributions open-source au projet JHipster]] : Didier Donsez<br />
* [[Ecrire en gestes]] : Olivier Richard<br />
* [[Kine 2.0]] (suite de [[Rééducation Kiné connecté]] 2019): Sylvain Toru<br />
* [[Contributions open source au projet EdCampus]] : Gérard Pollier (Disrupt Campus), Anthony Geourjon (Disrupt Campus)<br />
* [[Contributions open source au projet SmartRecruiting]] : Gérard Pollier (Disrupt Campus), Anthony Geourjon (Disrupt Campus)<br />
* [[Secours Montagne avec LoRa]] : Bernard Tourancheau avec le PGHM Isère<br />
* [[Monnaies locales et blockchains]] avec Hyperledger, Didier Donsez, XXX (Cairn Grenoble). A CONFIRMER.<br />
* [[IoTChain]] : Didier Donsez<br />
* [[Projet STAPS]] : Didier Donsez<br />
<br />
<br />
Reporté<br />
* [[Analyse du pédalage cycliste sur home trainer via vidéo]] (Anthony Geourjon) en relation avec STAPS et TIS<br />
* Projet IA/Edge: Databox : Olivier Richard<br />
<br />
==== Affectations S10====<br />
{|class="wikitable alternance"<br />
|+ Affectation des projets INFO5 2019-2020<br />
|-<br />
|<br />
!scope="col"| Sujet<br />
!scope="col"| Etudiants<br />
!scope="col"| Enseignant(s)<br />
!scope="col"| Fiche de suivi<br />
!scope="col"| Documents<br />
|-<br />
<br />
!scope="row"| 1<br />
| [[Projet STAPS : Location de matériel sportif]]<br />
| ANCRENAZ Ariane, SAUTON Tanguy, SIBUE Quentin, VINCENT Mathieu (CP)<br />
| Didier Donsez<br />
| [https://gitlab.com/projet_info5/docs/blob/master/suivi.md Fiche de suivi]<br />
| [https://gitlab.com/projet_info5/docs/-/blob/master/report.md Rapport final] - [https://gitlab.com/projet_info5/docs/-/blob/master/technical-doc.md Rapport technique] - [https://docs.google.com/presentation/d/1XwvzTEflLjh5dl1qmWUroGbLI0u6ZcVMdVR7Nj3m_DQ/edit?usp=sharing Présentation intermédiaire] - [https://drive.google.com/file/d/1_GKpkopV9KaESZh5_YZCDy1_kDLEesv9/view?usp=sharing Présentation Finale (Slides+Notes)] - [https://www.youtube.com/watch?v=gKPdLq6TW0g Présentation finale (Vidéo)] - [https://gitlab.com/projet_info5 GitLab]<br />
|-<br />
!scope="row"| 2<br />
| [[Contributions à Software Heritage]]<br />
| Nathan Dalaine, Joachim Fontfreyde (CP), Léni Gauffier, Yann Gautier<br />
| Didier Donsez, Roberto Di Cosmo<br />
| [https://air.imag.fr/index.php/Softwareheritage-2020 Fiche de suivi]<br />
| [https://air.imag.fr/index.php/Rapport_final_software_heritage Rapport final] ([https://air.imag.fr/images/2/25/Rapport_Software_Heritage_Fontfreyde_Gautier_Dalaine_Gauffier.pdf pdf])- [https://air.imag.fr/images/2/2e/Rapport_Technique_Software_Heritage_Fontfreyde_Dalaine_Gauffier_Gauffier.pdf Rapport technique] - [https://air.imag.fr/images/e/e7/Diapo_Mi-Projet.pdf Présentation intermédiaire] - [https://gitlab.com/TODO/presentation/finale.md Présentation Finale] - [https://drive.google.com/open?id=1kfNjZGD4NIZImE359G937jIq8hJtCwGJ Présentation finale (Vidéo)] - [https://forge.softwareheritage.org/ Forge SH] <br />
|-<br />
!scope="row"| 3<br />
| [https://air.imag.fr/index.php/UGAChain-2020 Blockchain (UGAChain)]<br />
| REYGROBELLET Lucas (CP), BRES Maxence, BETEND Baptiste, DUMENIL Antoine<br />
| 💪🏼💣 Didier DONSEZ 🔥❤️<br />
| [https://air.imag.fr/index.php/UGAChain-2020 Fiche de suivi]<br />
| [https://gitlab.com/ugachain-2020/ugachain-2020/-/blob/master/docs/report.md Rapport final] - [https://air.imag.fr/images/7/78/Blockchain_-_Soutenance_interm%C3%A9diaire.pdf Présentation intermédiaire] - [https://www.youtube.com/watch?v=8kTE_Ez9chU Présentation Finale] - [https://gitlab.com/blockchain-ricm GitLab]<br />
|-<br />
!scope="row"| 4<br />
| [[Contributions open-source au projet JHipster]]<br />
| SALA Ergi, ARNOUX Thibaut, SOLVERY Tom, LORDEY Maxime, CHASSEGUET Corentin, LATTARD Alexis(CP)<br />
| Didier DONSEZ<br />
| [https://github.com/contribution-jhipster-uga/docs/blob/master/fiche_suivie.md Fiche de suivi]<br />
| [https://github.com/contribution-jhipster-uga/docs/blob/master/rapport_final.md Rapport final] - [https://github.com/contribution-jhipster-uga/docs Rapport technique] - [[Media:Contribution_jhipster_soutenance_intermediaire.pdf | Présentation intermédiaire]] - [https://drive.google.com/file/d/1hao-eS72MyCqB9OKdrgMWn5nCnwZOYrC/view?usp=sharing Présentation Finale + Démonstration] - [https://github.com/contribution-jhipster-uga Dépôts Github]<br />
|-<br />
!scope="row"| 5<br />
| [[Contribution au projet open-souce ChirpStack]]<br />
| RAKOTOARIMALALA Mandresy, MASTOURA Iheb, ZHENG Jian, JALMIN Hoël, DUMAX VORZET Mathieu, CORDAT-AUCLAIR Julien<br />
| Didier DONSEZ<br />
| [https://air.imag.fr/index.php/Contribution_ChirpStack Fiche de suivi]<br />
| [https://github.com/campus-iot/Chirpstack-docker/tree/final-report/Final%20report Rapport final] - [https://docs.google.com/presentation/d/1AuEhaHrHMfaVp9BKJF1YRoHDTcAAnk59moazu95j86U/edit?usp=sharing Présentation Finale] - [https://docs.google.com/presentation/d/1jki9UUmdc6g9Ql5Qc31wcFGkKlHdqY66hVSvVdGPKt0/edit?usp=sharing Présentatation intermédiaire] - [https://github.com/campus-iot Dépôts Github]<br />
|-<br />
!scope="row"| 6<br />
| [[Secours Montagne avec LoRa]]<br />
| WYKLAND Damien(SM), BADAT Leya, CUAU Victor, MASSON Jeremy, ZARCOS Paul<br />
| Bernard Tourancheau<br />
| [[PROJET-INFO5 1920 Secours Montagne avec LoRa | Fiche de suivi]]<br />
| [https://air.imag.fr/images/5/5b/SecoursMontagneLoRa1920_RapportTomePrincipal.pdf Rapport - Tome principal] - [https://air.imag.fr/images/a/aa/SecoursMontagneLoRa1920_RapportAnnexes.pdf Rapport - Annexes] - [https://air.imag.fr/images/2/29/SecoursMontagneLoRa1920_RapportMPI.pdf Rapport MPI] - [https://air.imag.fr/images/4/4f/SecoursMontagneLoRa_Soutenance_mi-parcours.pdf Présentation intermédiaire] - [https://air.imag.fr/images/8/8f/SecoursMontagneLoRa1920_SoutenanceFinale.pdf Présentation finale] - [https://drive.google.com/open?id=1cMHI9q-MkXd_WOeKalJQSLAXFzovm0IV Présentation finale screencast] - [https://air.imag.fr/images/2/23/SecoursMontagneLoRa1920_Demo.pdf Démonstration] - [https://gitlab.com/info5_2020_secoursenmontagne GitLab]<br />
|-<br />
!scope="row"| 7<br />
| [[Contributions open source au projet EdCampus]]<br />
| RIVOIRE Antoine, VINCENT Maxence, BONASPETTI Giulia, DECAMPS Marceau <br />
| Anthony GEOURJON - Gérard POLLIER<br />
| [https://air.imag.fr/index.php/Projet_EDCampus#Fiche_de_suivi Fiche de suivi]<br />
| [https://air.imag.fr/index.php/Projet_EDCampus Rapport final] - [https://drive.google.com/file/d/1Z5ib-fY2DHSgYRsREkvxlljJ8vHKQkd-/view?usp=sharing Démonstration] - [[Media:Rapport_Technique_EDCampus.pdf | Rapport technique]] - [[Media:Soutenance_intermediaire_Edcampus.pdf | Présentation intermédiaire]] - [[Media:Soutenance_finale_EdCampus.pdf | Présentation Finale]] - [[Media:Soutenance_finale_+_notes_EdCampus.pdf | Présentation Finale avec commentaires]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/edcampus GitLab]<br />
|-<br />
!scope="row"| 8<br />
| [[Contributions open source au projet SmartRecruiting]]<br />
| LANDI Estelle, REYMOND Estelle, Schanen Loic, VARENNE Rémi <br />
| Anthony GEOURJON - Gérard POLLIER<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/smartrecruiting/2019-2020/doc/-/wikis/Fiche-de-suivi Fiche de suivi]<br />
| [[Media:Rapport_SmartRecruiting.pdf | Rapport final]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/smartrecruiting/2019-2020/doc/-/wikis/Rapport-Polytech Rapport (md)] - [[Media:Rapport_technique_SmartRecruiting.pdf | Rapport technique]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/smartrecruiting/2019-2020/doc/-/wikis/Rapport-technique Rapport technique (md)] - [[Media:Presentation_mi-projet_smartrecruiting.pdf | Presentation intermédiaire]] - [https://docs.google.com/presentation/d/1ZLQYCfqEBoE9lJGzm3ConQi8VrLqG5aLi9m3czs4G_w/edit?usp=sharing Présentation Finale avec démonstration en GIF] - [[Media:Presentation_smartrecruiting_avec_notes.pdf | Presentation avec notes]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/smartrecruiting/2019-2020 GitLab] - [https://youtu.be/_-ffUTy7aHQ Démonstration application]<br />
|-<br />
!scope="row"| 9<br />
| [[Projet Guc Voile App]]<br />
| SOUCHON Loïc, THOMAS Antoine, TRESTOUR Grégory, VANDAL Jade<br />
| Anthony GEOURJON<br />
| [https://gricad-gitlab.univ-grenoble-alpes.fr/gucvoile/guc-voile-documentation/-/wikis/Fiche-de-suivi Fiche de suivi]<br />
| [[Media:guc_voile_rapport_final.pdf|Rapport Final PDF]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/gucvoile/guc-voile-documentation/-/blob/bda8199bad51ad6c4a4fdb0b31a1d14f460bd773/Rapports/Rapport_final.md Rapport Final MD] - [[Media:guc_voile_rapport_technique.pdf|Rapport Technique PDF]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/gucvoile/guc-voile-documentation/-/blob/bda8199bad51ad6c4a4fdb0b31a1d14f460bd773/Rapports/Rapport_technique.md Rapport Technique MD] - [[Media:Soutenance_Intermediaire_GucVoile.pdf|Presentation intermédiaire]] - [[Media:guc_voile_soutenance_finale.pdf|Présentation finale]] - [[Media:guc_voile_soutenance_finale_commente.pdf|Présentation finale commentée]] - [https://gricad-gitlab.univ-grenoble-alpes.fr/gucvoile GitLab] - [[Media:demo_application_gucvoile.pdf|Démonstration Application Slides]] - [[Media:demo_logiciel_guc-voile.pdf|Démonstration Logiciel Slides]] - [https://www.youtube.com/watch?v=S_4OQx0hotI&feature=youtu.be Démonstration Application Vidéo] - [https://www.youtube.com/watch?v=ipfGFq5QVyo&feature=youtu.be Démonstration Logiciel Vidéo] <br />
|-<br />
!scope="row"| 10<br />
| [[Projet Kine 2.0]]<br />
| BARDOU Eva, DEVOS Xavier, HOUBRON Adrian, JAN Léo, PELISSON Antoine<br />
| Sylvain TORU<br />
| [https://air.imag.fr/index.php/Projet_Kine_2.0#Fiche_de_suivi Fiche de suivi]<br />
| [[Media:Kiné_Connecté_2.0_-_Rapport_final.pdf|Rapport final]] - [[Media:Kiné_Connecté_2.0_-_Rapport_technique.pdf|Rapport technique]] - [[Media:INFO5_Bardou-Devos-Houbron-Jan-Pelisson_Dossier_MPI.pdf|Rapport MPI]] - [[Media:Projet_Kiné2.0_-_Soutenance_de_mi-parcours_03_03_20.pdf|Présentation intermédiaire]] - [[Media:Projet_KinéConnecté2.0_-_Soutenance_finale_27_03_20.pdf|Présentation Finale (Slides)]] - [https://drive.google.com/open?id=1e99UvMczNwKSa3wspA_81SqOU6lBVgw6 Présentation Finale (Screencast)] - [[Media:KC2.0_-_Déroulement_démonstration.pdf|Démonstration (Workflow)]] - [https://drive.google.com/open?id=1K_oK1Hxh6M58O_w4hjmaxrI53G6pb_s_ Démonstration (Screencast)] - [https://gitlab.com/Eva_B/reeducation_kine_connecte GitLab]<br />
|-<br />
!scope="row"| 11<br />
| [[Projet Ecrire en geste]]<br />
| CHABRE Manon, COSCIA Daniel, DENIS Guillaume, DE ARAUJO Bastien et ALACALI Kadir Uraz<br />
| Olivier RICHARD<br />
| [https://github.com/WriteInGesturesProject/docs/blob/master/suivi.md Fiche de suivi]<br />
| [https://github.com/WriteInGesturesProject/docs/blob/master/Rapport%20Final.md Rapport final] - [https://github.com/WriteInGesturesProject/docs/blob/master/Rapport%20Technique.pdf Rapport technique] - [https://github.com/WriteInGesturesProject/docs/blob/master/Pr%C3%A9sentation%20mi%20parcours.pdf Présentation Intermédiaire] - [https://github.com/WriteInGesturesProject/docs/blob/master/Pr%C3%A9sentation%20Finale.pdf Présentation Finale] - [https://github.com/WriteInGesturesProject/ GitLab]<br />
<br />
<br />
|}<br />
<br />
====Instructions pour l'évaluation du projet S10====<br />
La soutenance de projet prévue les 19-20 Mars, est remplacée par:<br />
* soit un screenscast de la présentation (20-25 minutes) et un screencast de la démonstration (10 minutes),<br />
* soit le jeu de transparents de la présentation avec le discours dans les notes de présentation et un screencast de la démonstration (10 minutes).<br />
<br />
* La présentation est constituée des chapitres suivants:<br />
** Rappel du sujet/besoin et cahier des charges<br />
** Technologies employées<br />
** Architecture techniques<br />
** Réalisations techniques<br />
** Gestion de projet (méthode, planning prévisionnel et effectif, gestion des risques, rôles des membres ...)<br />
** Outils (collaboration, CD/CI ...)<br />
** Métriques logiciels : lignes de code, langages, performance, temps ingénieur (d'après vos journaux), la répartition des lignes de code et des commits en pourcentage entre les membres du projet ...)<br />
** Conclusion (Retour d'expérience)<br />
** Transparent expliquant la démonstration<br />
<br />
<br />
* L'ensemble des documents doit être accessible depuis le tableau ci-dessus et dans chaque fiche de suivi.<br />
* Le screencast sera rendu disponible via un partage caché (wetransfer, google drive …) dont le lien sera ajouté dans le devoir idoine sur Moodle et également envoyé par mail à votre tuteur.<br />
<br />
<br />
* Le rapport final contient les mêmes chapitres que la présentation ainsi qu'un glossaire et une bibliographie. Le rapport ne doit pas dépasser 15 pages (schémas et figures compris). Vous pourrez référencer les autres documents que vous avez produits au cours du projet (spécifications détaillées, algorithmes, conception d'écrans ...).<br />
<br />
* Le rapport final est au format Markdown et doit être placé dans un des dépôts Git de votre groupe/organisation.<br />
<br />
* NB: le rapport technique listé dans la colonne Documents contient tout ce qui ne tient pas dans les 15 pages du rapport final : cahier des charges, diagrammes UML, enquêtes utilisateurs design UI, API, technologies employées (détail), plan de tests, term of services, conformance RPGD, audits/diagnostiques sécurité, MTBR, rapport de vulnérabilité, plan de charge, rapports de charge, manuel d'installation … : ça dépend un peu de la nature de votre projet.<br />
<br />
<br />
* '''TOUT Le matériel emprunté au fablab devra être rapporté et restitué au fablab dans un sac cabas une fois l'épisode Covid-19 passé.'''<br />
<br />
<br />
* '''Les documents demandés doivent être disponibles le Vendredi 27 Mars 2020 (fin d'après midi).'''<br />
<br />
= Projets collectifs MAT/IESE =<br />
<br />
== Années 3 et 4 ==<br />
<br />
* [[ASAC/ACJC|Agriculture connectée]] (projets [[ASAC/SJC|Serres connectées]] et [[ASAC/GEJC|Gestion de l'eau]]) @ Jardins du coteau<br />
* [[ASAC/AP|Aquaponie @ Polytech]]<br />
<br />
=[[Projets M2PGI Services Machine-to-Machine et Internet-of-Things]]=<br />
==[[PM2M/2019/TP|PM2M]]==</div>Elisa.Beaugrand