Projets-2015-2016-Streaming-Stereoscopie

From air
Revision as of 14:32, 14 April 2016 by Zilong.Zhao (talk | contribs) (→‎Travail effectué)
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)
Jump to navigation Jump to search

Subject: Streaming en stéréoscopie

Supervisors:

  • Jérome Maisonnasse

Students:

  • Zilong Zhao
  • Guillaume Hammouti

Objectif

Journal de bord

Semaine 1 (11 Janvier - 17 Janvier)

Travail effectué

  • Prise en main de la technologie WebRTC


Semaine 2 (18 Janvier - 24 Janvier)

Travail effectué

  • Création d'une interface qui détecte toutes les caméras connectées.

Semaine 3 (25 Janvier - 31 Janvier)

Travail effectué

  • Ajout d'une option pour sélectionner et afficher 2 caméras côté client (robot)
  • Mise en place du serveur à l'aide des WebSockets
  • Envoie d'un flux vidéo d'une page web à une autre

Semaine 4 (1 Février - 7 Février)

Travail effectué

  • Récupérer Oculus.
  • Debugger interface utilisateur
  • Fusionner deux dans un seul flux

Problème rencontré

  • Comment composer deux videos streaming en un, maintenant on peut avoir deux streaming en même temps, mais si on envoie ces deux streaming l'un

par l'autre, ils vont avoir un délai entre deux streaming, le délai nous dérange beaucoup pour un effet 3D


Semaine 5 (8 Février - 15 Février)

Travail effectué

  • Configurer Oculus
  • Rajuster les positions de vidéos

Semaine 6 (16 Février - 23 Février)

Travail effectué

  • Améliorer les affiches sur navigateur
  • Fabriquer un outil pour fixer des deux cameras
  • Apprendre pour récupérer des données quand on tourne ou déplace Oculus

Semaine 7 (24 Février - 3 Mars)

Travail effectué

  • Apprendre utiliser Unity pour récupérer les données de gyroscope
  • Apprendre le native code de Oculus

Problème rencontré

  • Pour utiliser Oculus piloter notre moteur dans l'autre coté, il faut récupérer les informations de rotation de Oculus, mais si on utilise logiciel comme Unity, ils ont déjà incrusté l'application de récupérer les données de gyroscope dedans, on ne peut pas voir les vrais données, donc si on veut accéder les informations de rotation de Oculus, il faut apprendre le native code de Oculus en C, ce qui est vraiment difficile et très peu de document

Semaine 8 (4 Mars - 11 Mars)

Travail effectué

  • Apprendre utiliser Unity pour récupérer les données de gyroscope
  • Essayer de synchroniser deux videos pour un mieux 3D effect

Semaine 9 (12 Mars - 19 Mars)

Travail effectué

  • Réussir à récupérer les rotations de Oculus
  • Essayer d'envoyer les données par internet
  • Ajouter une fonction pour avoir un audio en stéréophonie

Semaine 10 (20 Mars - 27 Mars)

Travail effectué

  • Réussir d'envoyer les données par webrtc (data channel)
  • Apprendre coder dans Arduino pour contrôler les cameras
  • Fabriquer un moteur pour contrôler les cameras

Semaine 11 (27 Mars - 3 Avril)

Travail effectué

  • Avec Arduino, on ne peut pas utiliser webrtc (data channel) pour envoyer les données, Arduino ne supporte que socket.io, donc intégrer les codes avant dans socket.io
  • Apprendre utiliser Arduino pour contrôler servo
  • Utiliser socket.io pour récupérer les données, puis utiliser Arduino pour contrôler servos, Réussir de utiliser Oculus pour contrôler les deux cameras.

Semaine 12 (4 Avril - 11 Avril)

Travail effectué