Difference between revisions of "Projets-2015-2016-Streaming-Stereoscopie"

From air
Jump to navigation Jump to search
 
(14 intermediate revisions by 2 users not shown)
Line 9: Line 9:
   
 
=Objectif=
 
=Objectif=
  +
[[http://images.google.fr/imgres?imgurl=http%3A%2F%2Fwww.antiq-photo.com%2Flocal%2Fcache-vignettes%2FL800xH423%2FDSC_0075-41aa6.jpg&imgrefurl=http%3A%2F%2Fwww.antiq-photo.com%2Fspip.php%3Farticle605&h=423&w=800&tbnid=sVaQRDaL03_F5M%3A&docid=bJvHLRAKg8k5dM&ei=RT6vVuW4E8e4Ud-zjrAC&tbm=isch&iact=rc&uact=3&dur=486&page=4&start=49&ndsp=19&ved=0ahUKEwil77T_t9bKAhVHXBQKHd-ZAyYQrQMI9QEwPw|'''Projet''']]
 
 
=Journal de bord=
 
=Journal de bord=
   
 
== Semaine 1 (11 Janvier - 17 Janvier) ==
 
== Semaine 1 (11 Janvier - 17 Janvier) ==
  +
=== Travail effectué ===
  +
* Prise en main de la technologie WebRTC
  +
  +
  +
== Semaine 2 (18 Janvier - 24 Janvier) ==
   
 
=== Travail effectué ===
 
=== Travail effectué ===
 
* Création d'une interface qui détecte toutes les caméras connectées.
 
* Création d'une interface qui détecte toutes les caméras connectées.
   
== Semaine 2 (18 Janvier - 24 Janvier) ==
+
== Semaine 3 (25 Janvier - 31 Janvier) ==
   
 
=== Travail effectué ===
 
=== Travail effectué ===
 
* Ajout d'une option pour sélectionner et afficher 2 caméras côté client (robot)
 
* Ajout d'une option pour sélectionner et afficher 2 caméras côté client (robot)
 
* Mise en place du serveur à l'aide des WebSockets
 
* Mise en place du serveur à l'aide des WebSockets
  +
* Envoie d'un flux vidéo d'une page web à une autre
   
  +
== Semaine 4 (1 Février - 7 Février) ==
=Diagramme UML=
 
   
  +
=== Travail effectué ===
Diagramme de cas d'utilisation :
 
  +
* Récupérer Oculus.
  +
* Debugger interface utilisateur
  +
* Fusionner deux dans un seul flux
   
  +
=== Problème rencontré ===
[[File:Zhao_Hammouti_Use_Case.jpg]]
 
  +
* Comment composer deux videos streaming en un, maintenant on peut avoir deux streaming en même temps, mais si on envoie ces deux streaming l'un
  +
par l'autre, ils vont avoir un délai entre deux streaming, le délai nous dérange beaucoup pour un effet 3D
   
Diagramme d'activité :
 
   
  +
== Semaine 5 (8 Février - 15 Février) ==
[[File:Zhao_Hammouti_Activity.jpg]]
 
  +
  +
=== Travail effectué ===
  +
* Configurer Oculus
  +
* Rajuster les positions de vidéos
  +
  +
== Semaine 6 (16 Février - 23 Février) ==
  +
  +
=== Travail effectué ===
  +
* Améliorer les affiches sur navigateur
  +
* Fabriquer un outil pour fixer des deux cameras
  +
* Apprendre pour récupérer des données quand on tourne ou déplace Oculus
  +
  +
== Semaine 7 (24 Février - 3 Mars) ==
  +
  +
=== Travail effectué ===
  +
* Apprendre utiliser Unity pour récupérer les données de gyroscope
  +
* Apprendre le native code de Oculus
  +
=== Problème rencontré ===
  +
* Pour utiliser Oculus piloter notre moteur dans l'autre coté, il faut récupérer les informations de rotation de Oculus, mais si on utilise logiciel comme Unity, ils ont déjà incrusté l'application de récupérer les données de gyroscope dedans, on ne peut pas voir les vrais données, donc si on veut accéder les informations de rotation de Oculus, il faut apprendre le native code de Oculus en C, ce qui est vraiment difficile et très peu de document
  +
  +
== Semaine 8 (4 Mars - 11 Mars) ==
  +
  +
=== Travail effectué ===
  +
* Apprendre utiliser Unity pour récupérer les données de gyroscope
  +
* Essayer de synchroniser deux videos pour un mieux 3D effect
  +
  +
== Semaine 9 (12 Mars - 19 Mars) ==
  +
  +
=== Travail effectué ===
  +
* Réussir à récupérer les rotations de Oculus
  +
* Essayer d'envoyer les données par internet
  +
* Ajouter une fonction pour avoir un audio en stéréophonie
  +
  +
== Semaine 10 (20 Mars - 27 Mars) ==
  +
  +
=== Travail effectué ===
  +
* Réussir d'envoyer les données par webrtc (data channel)
  +
* Apprendre coder dans Arduino pour contrôler les cameras
  +
* Fabriquer un moteur pour contrôler les cameras
  +
  +
== Semaine 11 (27 Mars - 3 Avril) ==
  +
  +
=== Travail effectué ===
  +
* Avec Arduino, on ne peut pas utiliser webrtc (data channel) pour envoyer les données, Arduino ne supporte que socket.io, donc intégrer les codes avant dans socket.io
  +
* Apprendre utiliser Arduino pour contrôler servo
  +
* Utiliser socket.io pour récupérer les données, puis utiliser Arduino pour contrôler servos, Réussir de utiliser Oculus pour contrôler les deux cameras.
  +
  +
== Semaine 12 (4 Avril - 11 Avril) ==
  +
  +
=== Travail effectué ===
  +
* Préparer la présentation
  +
* Lien Youtube: https://www.youtube.com/watch?v=LneAnyqop7w

Latest revision as of 16:32, 14 April 2016

Subject: Streaming en stéréoscopie

Supervisors:

  • Jérome Maisonnasse

Students:

  • Zilong Zhao
  • Guillaume Hammouti

Objectif

Journal de bord

Semaine 1 (11 Janvier - 17 Janvier)

Travail effectué

  • Prise en main de la technologie WebRTC


Semaine 2 (18 Janvier - 24 Janvier)

Travail effectué

  • Création d'une interface qui détecte toutes les caméras connectées.

Semaine 3 (25 Janvier - 31 Janvier)

Travail effectué

  • Ajout d'une option pour sélectionner et afficher 2 caméras côté client (robot)
  • Mise en place du serveur à l'aide des WebSockets
  • Envoie d'un flux vidéo d'une page web à une autre

Semaine 4 (1 Février - 7 Février)

Travail effectué

  • Récupérer Oculus.
  • Debugger interface utilisateur
  • Fusionner deux dans un seul flux

Problème rencontré

  • Comment composer deux videos streaming en un, maintenant on peut avoir deux streaming en même temps, mais si on envoie ces deux streaming l'un

par l'autre, ils vont avoir un délai entre deux streaming, le délai nous dérange beaucoup pour un effet 3D


Semaine 5 (8 Février - 15 Février)

Travail effectué

  • Configurer Oculus
  • Rajuster les positions de vidéos

Semaine 6 (16 Février - 23 Février)

Travail effectué

  • Améliorer les affiches sur navigateur
  • Fabriquer un outil pour fixer des deux cameras
  • Apprendre pour récupérer des données quand on tourne ou déplace Oculus

Semaine 7 (24 Février - 3 Mars)

Travail effectué

  • Apprendre utiliser Unity pour récupérer les données de gyroscope
  • Apprendre le native code de Oculus

Problème rencontré

  • Pour utiliser Oculus piloter notre moteur dans l'autre coté, il faut récupérer les informations de rotation de Oculus, mais si on utilise logiciel comme Unity, ils ont déjà incrusté l'application de récupérer les données de gyroscope dedans, on ne peut pas voir les vrais données, donc si on veut accéder les informations de rotation de Oculus, il faut apprendre le native code de Oculus en C, ce qui est vraiment difficile et très peu de document

Semaine 8 (4 Mars - 11 Mars)

Travail effectué

  • Apprendre utiliser Unity pour récupérer les données de gyroscope
  • Essayer de synchroniser deux videos pour un mieux 3D effect

Semaine 9 (12 Mars - 19 Mars)

Travail effectué

  • Réussir à récupérer les rotations de Oculus
  • Essayer d'envoyer les données par internet
  • Ajouter une fonction pour avoir un audio en stéréophonie

Semaine 10 (20 Mars - 27 Mars)

Travail effectué

  • Réussir d'envoyer les données par webrtc (data channel)
  • Apprendre coder dans Arduino pour contrôler les cameras
  • Fabriquer un moteur pour contrôler les cameras

Semaine 11 (27 Mars - 3 Avril)

Travail effectué

  • Avec Arduino, on ne peut pas utiliser webrtc (data channel) pour envoyer les données, Arduino ne supporte que socket.io, donc intégrer les codes avant dans socket.io
  • Apprendre utiliser Arduino pour contrôler servo
  • Utiliser socket.io pour récupérer les données, puis utiliser Arduino pour contrôler servos, Réussir de utiliser Oculus pour contrôler les deux cameras.

Semaine 12 (4 Avril - 11 Avril)

Travail effectué