Développer l’intelligence artificielle pour le suivi de la fréquentation dans les espaces naturels du Parc national des Écrins.

From air
Jump to navigation Jump to search

Titre du projet : Développer l’intelligence artificielle pour le suivi de la fréquentation dans les espaces naturels du Parc national des Écrins

Porteurs et encadrants (Prénom, Nom, Institution, Adresse email)

Pierrick Navizet Chef du service Accueil-Communication Pilote de la thématique de la connaissance de la fréquentation Parc national des Ecrins (PNE) pierrick.navizet ecrins-parcnational fr

Camille Monchicourt Responsable du pole Système d’information Parc national des Ecrins camille.monchicourt ecrins-parcnational fr

Théo Léchémia Développeur WEB et bases de données  Parc national des Ecrins theo.lechemia ecrins-parcnational fr

Mathieu Garel Chercheur Office Français de la Biodiversité mathieu.garel ofb gouv fr

Entreprise/laboratoire/organisme (nom, adresse)

Parc national des Ecrins Domaine de Charance 05 000 Gap

Description du contexte (10 lignes minimun)

Les parcs nationaux et les gestionnaires d’espaces protégés ont besoin de connaître leur fréquentation par les visiteurs et usagers afin d’assurer au mieux leurs missions de protection, de connaissance, ainsi que d’accueil du public.

Les données de flux physiques (ecocompteurs, enquêtes…) collectés avec des méthodes traditionnelles demandent a être consolidées en terme d’analyse et confrontés avec des solutions innovantes en devenir (big data, informations géographiques, IA...).

En 2022, dans le contexte de hausse de la fréquentation post covid le Parc national des Ecrins a redéfini ses objectifs en matière de suivi des flux de visiteurs.

Cela a amené le Parc national des Ecrins à collaborer avec l’OFB à l’été 2023 pour expérimenter et consolider une solution de suivi innovante par l’utilisation de l’Intelligence artificielle associée à des capteurs photos. Solution mise au point par Mathieu Garel, chercheur à l’OFB, et qui a été testée (robustesse, sur 4 sites de terrain), comparée à d’autres solutions (Deepfaune...) et qui a fait l’objet de développements pour la consolider et l’intégrer dans une chaîne de travail propre au PNE. La chaîne de travail testée en 2023 va de la collecte de terrain, en passant par le floutage des visages, la détection, la classification, la bancarisation et la visualisation des données dans l’application Ist SOS.

A noter que le cœur du projet repose sur un script de détection automatique d'objets (ici les "humains") dans des images, basé sur le modèle YOLOv4 entraîné sur le jeu de données COCO. Ce script utilise le modèle de réseau de neurones yolov4 pour détecter des objets dans des images provenant d'un serveur FTP ou d'un répertoire local. Il permet ainsi de compter automatiquement, sans visualisation par l'utilisateur, le nombre de personnes présentes sur des images, notamment dans le cadre de suivis de la fréquentation réalisés avec des pièges photos à déclenchement automatique. Le script compte le nombre maximum d'humains au sein de chaque séquence, retenu comme taille de groupe. Le travail d’expérimentation et de consolidation a été mené dans le cadre du stage d’Aurélien Coste, 4ème année à Polytech Grenoble de mai à août 2023. En complément, voir le rapport de stage d'Aurélien Coste qui a travaillé en 2023 sur la version 0.2.0, ainsi que son support de restitution.

Les usages des données de fréquentation sont diverses : - alimenter les indicateurs de données socio-économiques pour évaluer le poids de la randonnée dans les espaces naturels, - suivi des flux à des fins d’observation, - travaux de recherche appliquée pour étudier les interactions faune / pratiques récréatives (cas de l’OFB dans les massifs de Belledonne et des Bauges par ex.).

La solution de suivi de la fréquentation par capteurs photos associé à de l’IA permet de répondre à des besoins des gestionnaires d’espaces protégés et à des projets de recherche appliquée en espaces naturels. Le projet que nous proposons pour les 5ème année (S10) présente un fort potentiel d’utilisation par d’autres structures que le PNE et l’OFB. A l’issue de cette nouvelle phase de R&D, l’essaimage de l’usage de cette solution pourrait se faire à court-moyen terme dans le cadre de réseaux constitués (Parcs nationaux, conservatoires d’espaces naturels, réserves naturelles, organismes de recherche...).

Ressources disponibles :

Dépôt Github de la solution expérimentée : https://github.com/PnEcrins/yolov4-attendance

Outils de floutage utilisé : https://github.com/ORB-HD/deface/pull/45

Présentation des derniers tests et avancées : https://hal.science/hal-04315119

Serveurs de test du PNE

Sets de données images (fichiers OFB + PNE)

Objectif(s) du projet

Le Parc national des Ecrins et l’OFB souhaitent approfondir l’expérimentation menée en 2023 et poursuivre la consolidation de l’outil mis au point par Mathieu Garel en intégrant notamment les derniers développements (floutage des cadres de détection plutôt que les visages – en lien avec les développements aussi menés par d’autres solutions qui reposent sur l’IA).

Il s’agira de mener un travail exploratoire afin de : - renforcer et tester la fiabilité de la solution, - de développer l’outil (sens de passage, upgradage de briques, etc.), - de tester l’utilisation de l’outil dans un contexte d’étude précis à partir de jeu de données fournies et d’explorer de nouvelles pistes d’utilisation de la donnée (modèle mathématique/cartographique, data visualisation...), - et de proposer des scénarios d’évolution tel que l’utilisation de l’IA embarquée et l’IoT.

Travail attendu (5 lignes minimum)

A partir de l’existant et d’un travail de prospective le PNE et l’OFB ont identifié des pistes de travail qu’il conviendra de préciser lors du lancement et de la phase de définition de la roadmap. Le Parc national souhaiterait que le projet se déroule en méthode Agile.

Périmètre du projet proposé en première intention :

  • Réaliser une analyse de l'outil développé en mode prototype à l'été 2023 (résultats, analyse "critique" du processus et recommandations d'améliorations) + ré investiguer les outils équivalents, y compris commerciaux
  • Analyser, critiquer et redéfinir au besoin l’architecture globale du système et de la chaîne de travail (objets, script d'IA, floutage des images, serveurs, data visualisation...),
  • Identifier les obligations en matière de respect de la vie privée du service (RGPD) et du droits à l'image (risques d’atteinte au respect de la vie privée ou à d'autres aspects réglementaires...)
  • Étudier et définir la sécurité du projet
  • Approfondir la faisabilité de développer la reconnaissance des sens de passage des piétons par l'IA- Réaliser les développements pour la détection des sens de passage : modélisation de l'évolution du modèle IA, réalisation de codes, tests de classification, tests de fiabilité, développement des API en V2, développement de l'outil Ist SOS pour la visualisation double sens…
  • Analyser la pertinence et le cas échéant upgrader vers yolov8 pour monter en capacité (rapidité)
  • Réaliser les tests de la solution développée à partir de sets de données fournies
  • Continuer la calibration des modèles utilisés sur d’autres éléments que le simple comptage des humains avec notamment la caractérisation de la pratique (randonnée, ski de randonnée, VTT, présence ou non de chien)
  • Documenter les développements sur le dépôt Github du projet.
  • Analyser la faisabilité et élaboration d'un modèle mathématique/cartographique pour essayer d'analyser les flux d'un site avec une logique de maillage d'itinéraires. Cas d’étude du site du Lauvitel en Oisans.
  • Exploiter les données connexes (niveaux d'équipements des piétons, chiens, faune...) et les rendre visualisables dans l'outil IST SOS.
  • Prospective et recommandations sur l'évolution de la chaîne de travail à moyen terme : remplacement des capteurs photos par IA embarquée, serveurs, …
  • Volet prospectif :
** Prospecter et estimer le coût d'objectif d'un scénario à moyen terme de remplacement des capteurs photos par le développement d'une solution d'IA embarquée avec transmission LoRaWAN pour 50 objets (développement du capteur intégrant l'IA et déploiement d’un mode de transmission à distance).
** Prospecter pour la réalisation d'une solution de dénombrements de tentes de bivouac sur photos (set de donnée disponible au besoin).

Techniques, outils, technologies, langages et canevas à mettre en œuvre.

Capteurs photos Browning – Elite HP4 SPEC OPS Full HD vidéo et autres modèles

YoloV4

Coco dataset

Python

(Deepfaune)

Ist SOS

Déplacement à prévoir (en dehors de l’école) : oui / non

Le travail se déroulera à distance et en visioconférence y compris les temps de cadrage et d’échanges sur l’avancement et les difficultés rencontrés. L’OFB peut aussi recevoir les étudiants pour le cadrage ou des points d’étapes dans ses locaux de Gières (à 500 m du site de Polytech). A priori, il n’y aurait pas de composante terrain en espace naturel (en particulier en raison de la saison hivernale), ni dans les locaux du Parc national à Gap.