Projets-2015-2016-Streaming-Stereoscopie: Difference between revisions
Jump to navigation
Jump to search
Zilong.Zhao (talk | contribs) |
|||
(12 intermediate revisions by 2 users not shown) | |||
Line 11: | Line 11: | ||
=Journal de bord= |
=Journal de bord= |
||
== Semaine 1 (11 Janvier - 17 Janvier) == |
|||
=== Travail effectué === |
|||
* Prise en main de la technologie WebRTC |
|||
== Semaine 2 (18 Janvier - 24 Janvier) == |
== Semaine 2 (18 Janvier - 24 Janvier) == |
||
Line 22: | Line 27: | ||
* Ajout d'une option pour sélectionner et afficher 2 caméras côté client (robot) |
* Ajout d'une option pour sélectionner et afficher 2 caméras côté client (robot) |
||
* Mise en place du serveur à l'aide des WebSockets |
* Mise en place du serveur à l'aide des WebSockets |
||
* Envoie d'un flux vidéo d'une page web à une autre |
|||
== Semaine 4 (1 Février - 7 Février) == |
|||
=Diagramme UML= |
|||
=== Travail effectué === |
|||
Diagramme de cas d'utilisation : |
|||
* Récupérer Oculus. |
|||
* Debugger interface utilisateur |
|||
* Fusionner deux dans un seul flux |
|||
=== Problème rencontré === |
|||
[[File:Zhao_Hammouti_Use_Case.jpg]] |
|||
* Comment composer deux videos streaming en un, maintenant on peut avoir deux streaming en même temps, mais si on envoie ces deux streaming l'un |
|||
par l'autre, ils vont avoir un délai entre deux streaming, le délai nous dérange beaucoup pour un effet 3D |
|||
Diagramme d'activité : |
|||
== Semaine 5 (8 Février - 15 Février) == |
|||
[[File:Zhao_Hammouti_Activity.jpg]] |
|||
=== Travail effectué === |
|||
* Configurer Oculus |
|||
* Rajuster les positions de vidéos |
|||
== Semaine 6 (16 Février - 23 Février) == |
|||
=== Travail effectué === |
|||
* Améliorer les affiches sur navigateur |
|||
* Fabriquer un outil pour fixer des deux cameras |
|||
* Apprendre pour récupérer des données quand on tourne ou déplace Oculus |
|||
== Semaine 7 (24 Février - 3 Mars) == |
|||
=== Travail effectué === |
|||
* Apprendre utiliser Unity pour récupérer les données de gyroscope |
|||
* Apprendre le native code de Oculus |
|||
=== Problème rencontré === |
|||
* Pour utiliser Oculus piloter notre moteur dans l'autre coté, il faut récupérer les informations de rotation de Oculus, mais si on utilise logiciel comme Unity, ils ont déjà incrusté l'application de récupérer les données de gyroscope dedans, on ne peut pas voir les vrais données, donc si on veut accéder les informations de rotation de Oculus, il faut apprendre le native code de Oculus en C, ce qui est vraiment difficile et très peu de document |
|||
== Semaine 8 (4 Mars - 11 Mars) == |
|||
=== Travail effectué === |
|||
* Apprendre utiliser Unity pour récupérer les données de gyroscope |
|||
* Essayer de synchroniser deux videos pour un mieux 3D effect |
|||
== Semaine 9 (12 Mars - 19 Mars) == |
|||
=== Travail effectué === |
|||
* Réussir à récupérer les rotations de Oculus |
|||
* Essayer d'envoyer les données par internet |
|||
* Ajouter une fonction pour avoir un audio en stéréophonie |
|||
== Semaine 10 (20 Mars - 27 Mars) == |
|||
=== Travail effectué === |
|||
* Réussir d'envoyer les données par webrtc (data channel) |
|||
* Apprendre coder dans Arduino pour contrôler les cameras |
|||
* Fabriquer un moteur pour contrôler les cameras |
|||
== Semaine 11 (27 Mars - 3 Avril) == |
|||
=== Travail effectué === |
|||
* Avec Arduino, on ne peut pas utiliser webrtc (data channel) pour envoyer les données, Arduino ne supporte que socket.io, donc intégrer les codes avant dans socket.io |
|||
* Apprendre utiliser Arduino pour contrôler servo |
|||
* Utiliser socket.io pour récupérer les données, puis utiliser Arduino pour contrôler servos, Réussir de utiliser Oculus pour contrôler les deux cameras. |
|||
== Semaine 12 (4 Avril - 11 Avril) == |
|||
=== Travail effectué === |
|||
* Préparer la présentation |
|||
* Lien Youtube: https://www.youtube.com/watch?v=LneAnyqop7w |
Latest revision as of 14:32, 14 April 2016
Subject: Streaming en stéréoscopie
Supervisors:
- Jérome Maisonnasse
Students:
- Zilong Zhao
- Guillaume Hammouti
Objectif
Journal de bord
Semaine 1 (11 Janvier - 17 Janvier)
Travail effectué
- Prise en main de la technologie WebRTC
Semaine 2 (18 Janvier - 24 Janvier)
Travail effectué
- Création d'une interface qui détecte toutes les caméras connectées.
Semaine 3 (25 Janvier - 31 Janvier)
Travail effectué
- Ajout d'une option pour sélectionner et afficher 2 caméras côté client (robot)
- Mise en place du serveur à l'aide des WebSockets
- Envoie d'un flux vidéo d'une page web à une autre
Semaine 4 (1 Février - 7 Février)
Travail effectué
- Récupérer Oculus.
- Debugger interface utilisateur
- Fusionner deux dans un seul flux
Problème rencontré
- Comment composer deux videos streaming en un, maintenant on peut avoir deux streaming en même temps, mais si on envoie ces deux streaming l'un
par l'autre, ils vont avoir un délai entre deux streaming, le délai nous dérange beaucoup pour un effet 3D
Semaine 5 (8 Février - 15 Février)
Travail effectué
- Configurer Oculus
- Rajuster les positions de vidéos
Semaine 6 (16 Février - 23 Février)
Travail effectué
- Améliorer les affiches sur navigateur
- Fabriquer un outil pour fixer des deux cameras
- Apprendre pour récupérer des données quand on tourne ou déplace Oculus
Semaine 7 (24 Février - 3 Mars)
Travail effectué
- Apprendre utiliser Unity pour récupérer les données de gyroscope
- Apprendre le native code de Oculus
Problème rencontré
- Pour utiliser Oculus piloter notre moteur dans l'autre coté, il faut récupérer les informations de rotation de Oculus, mais si on utilise logiciel comme Unity, ils ont déjà incrusté l'application de récupérer les données de gyroscope dedans, on ne peut pas voir les vrais données, donc si on veut accéder les informations de rotation de Oculus, il faut apprendre le native code de Oculus en C, ce qui est vraiment difficile et très peu de document
Semaine 8 (4 Mars - 11 Mars)
Travail effectué
- Apprendre utiliser Unity pour récupérer les données de gyroscope
- Essayer de synchroniser deux videos pour un mieux 3D effect
Semaine 9 (12 Mars - 19 Mars)
Travail effectué
- Réussir à récupérer les rotations de Oculus
- Essayer d'envoyer les données par internet
- Ajouter une fonction pour avoir un audio en stéréophonie
Semaine 10 (20 Mars - 27 Mars)
Travail effectué
- Réussir d'envoyer les données par webrtc (data channel)
- Apprendre coder dans Arduino pour contrôler les cameras
- Fabriquer un moteur pour contrôler les cameras
Semaine 11 (27 Mars - 3 Avril)
Travail effectué
- Avec Arduino, on ne peut pas utiliser webrtc (data channel) pour envoyer les données, Arduino ne supporte que socket.io, donc intégrer les codes avant dans socket.io
- Apprendre utiliser Arduino pour contrôler servo
- Utiliser socket.io pour récupérer les données, puis utiliser Arduino pour contrôler servos, Réussir de utiliser Oculus pour contrôler les deux cameras.
Semaine 12 (4 Avril - 11 Avril)
Travail effectué
- Préparer la présentation
- Lien Youtube: https://www.youtube.com/watch?v=LneAnyqop7w