Projets-2015-2016-Streaming-Stereoscopie: Difference between revisions

From air
Jump to navigation Jump to search
(Created page with "'''Subject: ''' '''Intégration des caméras UPnP dans OpenHab''' ''' Supervisors: ''' * Didier Donsez & Jérome Maisonnasse ''' Students: ''' * Bruel ...")
 
 
(30 intermediate revisions by 3 users not shown)
Line 1: Line 1:
'''Subject: ''' [[UPnPOpenHAB2016|'''Intégration des caméras UPnP dans OpenHab''']]
'''Subject: ''' [[Streaming en stéréoscopie|Streaming en stéréoscopie''']]


''' Supervisors: '''
''' Supervisors: '''
* Didier Donsez & Jérome Maisonnasse
* Jérome Maisonnasse


''' Students: '''
''' Students: '''
* Bruel Anna
* Zilong Zhao
* Guillaume Hammouti
* Ndiaye Yacine
*Medewou Cenyo


=Objectif=
=Objectif=


=Journal de bord=
Avec l'interface OpenHab, les caméras UPnP présentes sur le réseau locale sont détectées automatiquement. Les caméras détectées sont listées dans l'interface OpenHab ou sont mises sous forme de mosaïque. En sélectionnant la caméras dans la liste ou dans la mosaïque, la vidéo de la caméra s'affiche. Si les caméras sont équipées de zoom/tilt/pan, on doit le contrôler à distance depuis OpenHab. Enfin, à la prochaine connection, les caméras sont précédemment enregistrées sont déjà présentes dans la liste.


== Semaine 1 (11 Janvier - 17 Janvier) ==
=Les contraintes technologigues =
=== Travail effectué ===
* interface OpenHab : faire un bindings dans OpenHab qui permets d'intégrer les caméras UPnP
* Prise en main de la technologie WebRTC
* caméras UPnP


=Journal de bord=
[[Proj-2015-2016-Int%C3%A9gration_de_cam%C3%A9ra_de_surveillance_UPnP_%C3%A0_Openhab | '''Journal de bord''']]


== Semaine 2 (18 Janvier - 24 Janvier) ==
=Exigences=

[[Proj-2015-2016-Int%C3%A9gration_de_cam%C3%A9ra_de_surveillance_UPnP_%C3%A0_Openhab/SRS| '''SRS''']]
=== Travail effectué ===
* Création d'une interface qui détecte toutes les caméras connectées.

== Semaine 3 (25 Janvier - 31 Janvier) ==

=== Travail effectué ===
* Ajout d'une option pour sélectionner et afficher 2 caméras côté client (robot)
* Mise en place du serveur à l'aide des WebSockets
* Envoie d'un flux vidéo d'une page web à une autre

== Semaine 4 (1 Février - 7 Février) ==

=== Travail effectué ===
* Récupérer Oculus.
* Debugger interface utilisateur
* Fusionner deux dans un seul flux

=== Problème rencontré ===
* Comment composer deux videos streaming en un, maintenant on peut avoir deux streaming en même temps, mais si on envoie ces deux streaming l'un
par l'autre, ils vont avoir un délai entre deux streaming, le délai nous dérange beaucoup pour un effet 3D


== Semaine 5 (8 Février - 15 Février) ==

=== Travail effectué ===
* Configurer Oculus
* Rajuster les positions de vidéos

== Semaine 6 (16 Février - 23 Février) ==

=== Travail effectué ===
* Améliorer les affiches sur navigateur
* Fabriquer un outil pour fixer des deux cameras
* Apprendre pour récupérer des données quand on tourne ou déplace Oculus

== Semaine 7 (24 Février - 3 Mars) ==

=== Travail effectué ===
* Apprendre utiliser Unity pour récupérer les données de gyroscope
* Apprendre le native code de Oculus
=== Problème rencontré ===
* Pour utiliser Oculus piloter notre moteur dans l'autre coté, il faut récupérer les informations de rotation de Oculus, mais si on utilise logiciel comme Unity, ils ont déjà incrusté l'application de récupérer les données de gyroscope dedans, on ne peut pas voir les vrais données, donc si on veut accéder les informations de rotation de Oculus, il faut apprendre le native code de Oculus en C, ce qui est vraiment difficile et très peu de document

== Semaine 8 (4 Mars - 11 Mars) ==

=== Travail effectué ===
* Apprendre utiliser Unity pour récupérer les données de gyroscope
* Essayer de synchroniser deux videos pour un mieux 3D effect

== Semaine 9 (12 Mars - 19 Mars) ==

=== Travail effectué ===
* Réussir à récupérer les rotations de Oculus
* Essayer d'envoyer les données par internet
* Ajouter une fonction pour avoir un audio en stéréophonie


== Semaine 10 (20 Mars - 27 Mars) ==
=Diagramme UML=


=== Travail effectué ===
Diagramme de cas d'utilisation :
* Réussir d'envoyer les données par webrtc (data channel)
* Apprendre coder dans Arduino pour contrôler les cameras
* Fabriquer un moteur pour contrôler les cameras


== Semaine 11 (27 Mars - 3 Avril) ==
[[File:Diagram1.jpg]]


=== Travail effectué ===
Diagramme d'activité :
* Avec Arduino, on ne peut pas utiliser webrtc (data channel) pour envoyer les données, Arduino ne supporte que socket.io, donc intégrer les codes avant dans socket.io
* Apprendre utiliser Arduino pour contrôler servo
* Utiliser socket.io pour récupérer les données, puis utiliser Arduino pour contrôler servos, Réussir de utiliser Oculus pour contrôler les deux cameras.


== Semaine 12 (4 Avril - 11 Avril) ==
[[File:Diagram2.jpg]]


=== Travail effectué ===
=Synthèse du projet=
* Préparer la présentation
==Contexte==
* Lien Youtube: https://www.youtube.com/watch?v=LneAnyqop7w
==Matériel==
==Logiciels (utilisés)==
==Logiciels (réalisés)==
=== Emploi du temps et NFC ===
=== Kinect et Reveals.js ===
=Ressources=

Latest revision as of 14:32, 14 April 2016

Subject: Streaming en stéréoscopie

Supervisors:

  • Jérome Maisonnasse

Students:

  • Zilong Zhao
  • Guillaume Hammouti

Objectif

Journal de bord

Semaine 1 (11 Janvier - 17 Janvier)

Travail effectué

  • Prise en main de la technologie WebRTC


Semaine 2 (18 Janvier - 24 Janvier)

Travail effectué

  • Création d'une interface qui détecte toutes les caméras connectées.

Semaine 3 (25 Janvier - 31 Janvier)

Travail effectué

  • Ajout d'une option pour sélectionner et afficher 2 caméras côté client (robot)
  • Mise en place du serveur à l'aide des WebSockets
  • Envoie d'un flux vidéo d'une page web à une autre

Semaine 4 (1 Février - 7 Février)

Travail effectué

  • Récupérer Oculus.
  • Debugger interface utilisateur
  • Fusionner deux dans un seul flux

Problème rencontré

  • Comment composer deux videos streaming en un, maintenant on peut avoir deux streaming en même temps, mais si on envoie ces deux streaming l'un

par l'autre, ils vont avoir un délai entre deux streaming, le délai nous dérange beaucoup pour un effet 3D


Semaine 5 (8 Février - 15 Février)

Travail effectué

  • Configurer Oculus
  • Rajuster les positions de vidéos

Semaine 6 (16 Février - 23 Février)

Travail effectué

  • Améliorer les affiches sur navigateur
  • Fabriquer un outil pour fixer des deux cameras
  • Apprendre pour récupérer des données quand on tourne ou déplace Oculus

Semaine 7 (24 Février - 3 Mars)

Travail effectué

  • Apprendre utiliser Unity pour récupérer les données de gyroscope
  • Apprendre le native code de Oculus

Problème rencontré

  • Pour utiliser Oculus piloter notre moteur dans l'autre coté, il faut récupérer les informations de rotation de Oculus, mais si on utilise logiciel comme Unity, ils ont déjà incrusté l'application de récupérer les données de gyroscope dedans, on ne peut pas voir les vrais données, donc si on veut accéder les informations de rotation de Oculus, il faut apprendre le native code de Oculus en C, ce qui est vraiment difficile et très peu de document

Semaine 8 (4 Mars - 11 Mars)

Travail effectué

  • Apprendre utiliser Unity pour récupérer les données de gyroscope
  • Essayer de synchroniser deux videos pour un mieux 3D effect

Semaine 9 (12 Mars - 19 Mars)

Travail effectué

  • Réussir à récupérer les rotations de Oculus
  • Essayer d'envoyer les données par internet
  • Ajouter une fonction pour avoir un audio en stéréophonie

Semaine 10 (20 Mars - 27 Mars)

Travail effectué

  • Réussir d'envoyer les données par webrtc (data channel)
  • Apprendre coder dans Arduino pour contrôler les cameras
  • Fabriquer un moteur pour contrôler les cameras

Semaine 11 (27 Mars - 3 Avril)

Travail effectué

  • Avec Arduino, on ne peut pas utiliser webrtc (data channel) pour envoyer les données, Arduino ne supporte que socket.io, donc intégrer les codes avant dans socket.io
  • Apprendre utiliser Arduino pour contrôler servo
  • Utiliser socket.io pour récupérer les données, puis utiliser Arduino pour contrôler servos, Réussir de utiliser Oculus pour contrôler les deux cameras.

Semaine 12 (4 Avril - 11 Avril)

Travail effectué