Projets-2015-2016-Streaming-Stereoscopie: Difference between revisions
Jump to navigation
Jump to search
No edit summary |
Zilong.Zhao (talk | contribs) |
||
(29 intermediate revisions by 3 users not shown) | |||
Line 1: | Line 1: | ||
'''Subject: ''' [[ |
'''Subject: ''' [[Streaming en stéréoscopie|Streaming en stéréoscopie''']] |
||
''' Supervisors: ''' |
''' Supervisors: ''' |
||
Line 10: | Line 10: | ||
=Objectif= |
=Objectif= |
||
⚫ | |||
== Semaine 1 (11 Janvier - 17 Janvier) == |
|||
=Les contraintes technologigues = |
|||
=== Travail effectué === |
|||
* WebRTC |
|||
* Prise en main de la technologie WebRTC |
|||
⚫ | |||
[[Proj-2015-2016-Streaming_en_stéréoscopie | '''Journal de bord''']] |
|||
== Semaine 2 (18 Janvier - 24 Janvier) == |
|||
=Exigences= |
|||
[[Proj-2015-2016-Int%C3%A9gration_de_cam%C3%A9ra_de_surveillance_UPnP_%C3%A0_Openhab/SRS| '''SRS''']] |
|||
=== Travail effectué === |
|||
* Création d'une interface qui détecte toutes les caméras connectées. |
|||
== Semaine 3 (25 Janvier - 31 Janvier) == |
|||
=== Travail effectué === |
|||
* Ajout d'une option pour sélectionner et afficher 2 caméras côté client (robot) |
|||
* Mise en place du serveur à l'aide des WebSockets |
|||
* Envoie d'un flux vidéo d'une page web à une autre |
|||
== Semaine 4 (1 Février - 7 Février) == |
|||
=== Travail effectué === |
|||
* Récupérer Oculus. |
|||
* Debugger interface utilisateur |
|||
* Fusionner deux dans un seul flux |
|||
=== Problème rencontré === |
|||
* Comment composer deux videos streaming en un, maintenant on peut avoir deux streaming en même temps, mais si on envoie ces deux streaming l'un |
|||
par l'autre, ils vont avoir un délai entre deux streaming, le délai nous dérange beaucoup pour un effet 3D |
|||
== Semaine 5 (8 Février - 15 Février) == |
|||
=== Travail effectué === |
|||
* Configurer Oculus |
|||
* Rajuster les positions de vidéos |
|||
== Semaine 6 (16 Février - 23 Février) == |
|||
=== Travail effectué === |
|||
* Améliorer les affiches sur navigateur |
|||
* Fabriquer un outil pour fixer des deux cameras |
|||
* Apprendre pour récupérer des données quand on tourne ou déplace Oculus |
|||
== Semaine 7 (24 Février - 3 Mars) == |
|||
=== Travail effectué === |
|||
* Apprendre utiliser Unity pour récupérer les données de gyroscope |
|||
* Apprendre le native code de Oculus |
|||
=== Problème rencontré === |
|||
* Pour utiliser Oculus piloter notre moteur dans l'autre coté, il faut récupérer les informations de rotation de Oculus, mais si on utilise logiciel comme Unity, ils ont déjà incrusté l'application de récupérer les données de gyroscope dedans, on ne peut pas voir les vrais données, donc si on veut accéder les informations de rotation de Oculus, il faut apprendre le native code de Oculus en C, ce qui est vraiment difficile et très peu de document |
|||
== Semaine 8 (4 Mars - 11 Mars) == |
|||
=== Travail effectué === |
|||
* Apprendre utiliser Unity pour récupérer les données de gyroscope |
|||
* Essayer de synchroniser deux videos pour un mieux 3D effect |
|||
== Semaine 9 (12 Mars - 19 Mars) == |
|||
=== Travail effectué === |
|||
* Réussir à récupérer les rotations de Oculus |
|||
* Essayer d'envoyer les données par internet |
|||
* Ajouter une fonction pour avoir un audio en stéréophonie |
|||
== Semaine 10 (20 Mars - 27 Mars) == |
|||
=Diagramme UML= |
|||
=== Travail effectué === |
|||
Diagramme de cas d'utilisation : |
|||
* Réussir d'envoyer les données par webrtc (data channel) |
|||
* Apprendre coder dans Arduino pour contrôler les cameras |
|||
* Fabriquer un moteur pour contrôler les cameras |
|||
== Semaine 11 (27 Mars - 3 Avril) == |
|||
[[File:Zhao_Hammouti_Use_Case.jpg]] |
|||
=== Travail effectué === |
|||
Diagramme d'activité : |
|||
* Avec Arduino, on ne peut pas utiliser webrtc (data channel) pour envoyer les données, Arduino ne supporte que socket.io, donc intégrer les codes avant dans socket.io |
|||
* Apprendre utiliser Arduino pour contrôler servo |
|||
* Utiliser socket.io pour récupérer les données, puis utiliser Arduino pour contrôler servos, Réussir de utiliser Oculus pour contrôler les deux cameras. |
|||
== Semaine 12 (4 Avril - 11 Avril) == |
|||
[[File:Zhao_Hammouti_Activity.jpg]] |
|||
=== Travail effectué === |
|||
=Synthèse du projet= |
|||
* Préparer la présentation |
|||
==Contexte== |
|||
* Lien Youtube: https://www.youtube.com/watch?v=LneAnyqop7w |
|||
==Matériel== |
|||
==Logiciels (utilisés)== |
|||
==Logiciels (réalisés)== |
|||
=== Emploi du temps et NFC === |
|||
=== Kinect et Reveals.js === |
|||
=Ressources= |
Latest revision as of 14:32, 14 April 2016
Subject: Streaming en stéréoscopie
Supervisors:
- Jérome Maisonnasse
Students:
- Zilong Zhao
- Guillaume Hammouti
Objectif
Journal de bord
Semaine 1 (11 Janvier - 17 Janvier)
Travail effectué
- Prise en main de la technologie WebRTC
Semaine 2 (18 Janvier - 24 Janvier)
Travail effectué
- Création d'une interface qui détecte toutes les caméras connectées.
Semaine 3 (25 Janvier - 31 Janvier)
Travail effectué
- Ajout d'une option pour sélectionner et afficher 2 caméras côté client (robot)
- Mise en place du serveur à l'aide des WebSockets
- Envoie d'un flux vidéo d'une page web à une autre
Semaine 4 (1 Février - 7 Février)
Travail effectué
- Récupérer Oculus.
- Debugger interface utilisateur
- Fusionner deux dans un seul flux
Problème rencontré
- Comment composer deux videos streaming en un, maintenant on peut avoir deux streaming en même temps, mais si on envoie ces deux streaming l'un
par l'autre, ils vont avoir un délai entre deux streaming, le délai nous dérange beaucoup pour un effet 3D
Semaine 5 (8 Février - 15 Février)
Travail effectué
- Configurer Oculus
- Rajuster les positions de vidéos
Semaine 6 (16 Février - 23 Février)
Travail effectué
- Améliorer les affiches sur navigateur
- Fabriquer un outil pour fixer des deux cameras
- Apprendre pour récupérer des données quand on tourne ou déplace Oculus
Semaine 7 (24 Février - 3 Mars)
Travail effectué
- Apprendre utiliser Unity pour récupérer les données de gyroscope
- Apprendre le native code de Oculus
Problème rencontré
- Pour utiliser Oculus piloter notre moteur dans l'autre coté, il faut récupérer les informations de rotation de Oculus, mais si on utilise logiciel comme Unity, ils ont déjà incrusté l'application de récupérer les données de gyroscope dedans, on ne peut pas voir les vrais données, donc si on veut accéder les informations de rotation de Oculus, il faut apprendre le native code de Oculus en C, ce qui est vraiment difficile et très peu de document
Semaine 8 (4 Mars - 11 Mars)
Travail effectué
- Apprendre utiliser Unity pour récupérer les données de gyroscope
- Essayer de synchroniser deux videos pour un mieux 3D effect
Semaine 9 (12 Mars - 19 Mars)
Travail effectué
- Réussir à récupérer les rotations de Oculus
- Essayer d'envoyer les données par internet
- Ajouter une fonction pour avoir un audio en stéréophonie
Semaine 10 (20 Mars - 27 Mars)
Travail effectué
- Réussir d'envoyer les données par webrtc (data channel)
- Apprendre coder dans Arduino pour contrôler les cameras
- Fabriquer un moteur pour contrôler les cameras
Semaine 11 (27 Mars - 3 Avril)
Travail effectué
- Avec Arduino, on ne peut pas utiliser webrtc (data channel) pour envoyer les données, Arduino ne supporte que socket.io, donc intégrer les codes avant dans socket.io
- Apprendre utiliser Arduino pour contrôler servo
- Utiliser socket.io pour récupérer les données, puis utiliser Arduino pour contrôler servos, Réussir de utiliser Oculus pour contrôler les deux cameras.
Semaine 12 (4 Avril - 11 Avril)
Travail effectué
- Préparer la présentation
- Lien Youtube: https://www.youtube.com/watch?v=LneAnyqop7w