Contexte
L'identification individuelle joue un rôle clé dans la conservation des espèces et l'étude des réseaux sociaux animaux. Notre équipe a développé avec succès un premier modèle de reconnaissance faciale des macaques japonais (Macaca fuscata) de l'île de Kōjima (Japon) basé sur YOLO (Paulet et al., 2024, Primates). Ce modèle a atteint une précision de 82,2% pour la détection faciale et 91% pour l'identification individuelle de 42 individus. Ce stage vise à améliorer significativement ces performances en réentraînant les modèles avec de nouvelles données et en optimisant les hyperparamètres, afin de permettre une génération automatique et fiable de réseaux sociaux à partir de vidéos de terrain.
Missions
1. Enrichissement et annotation de la base de données
• Extraire de nouveaux frames à partir du répertoire vidéo existant de Kōjima
• Annoter les visages des macaques sur Roboflow (détection et identification individuelle)
• Équilibrer le dataset pour améliorer la représentativité de tous les individus
• Appliquer des techniques d'augmentation de données adaptées
2. Réentraînement et optimisation des modèles YOLO
• Réentraîner le détecteur de visages (YOLOv8) avec le dataset enrichi
• Réentraîner le classificateur individuel avec les nouvelles annotations
• Explorer différents hyperparamètres (batch size, learning rate, epochs) pour optimiser les performances
• Tester différentes versions de YOLO (v8 Nano, Small, Medium) selon les ressources disponibles
3. Évaluation comparative des performances
• Mesurer la précision, l'IoU (Intersection over Union) et produire des matrices de confusion
• Comparer les résultats avec le modèle initial (Paulet et al., 2024)
• Analyser les erreurs de classification (faux positifs/négatifs) et proposer des améliorations
4. Documentation et valorisation
• Documenter le pipeline de traitement et les choix méthodologiques
• Préparer un rapport technique détaillé avec recommandations
• Contribution potentielle à une publication scientifique
Profil Recherché
Formation :
• Étudiant(e) en Master 1 ou Master 2 en informatique, IA, mathématiques appliquées ou vision par ordinateur
Compétences techniques requises :
• Expérience en deep learning et vision par ordinateur
• Maîtrise d'un framework de deep learning (PyTorch ou TensorFlow)
• Connaissance de YOLO (YOLOv5/v8) et d'Ultralytics
• Expérience avec Roboflow ou outils d'annotation similaires (LabelImg, CVAT)
• Programmation Python (OpenCV, pandas, numpy)
Compétences appréciées :
• Connaissance des métriques d'évaluation en computer vision
• Expérience avec Google Colab ou environnements GPU cloud
• Intérêt pour l'éthologie et la biologie comportementale
Qualités personnelles :
• Rigueur dans l'annotation des données
• Autonomie et capacité à tester différentes approches
• Sens de la documentation et de la reproductibilité scientifique
Conditions du Stage
• Durée : Moins de 2 mois (8 semaines maximum)
• Gratification : Non rémunéré (stage < 2 mois)
• Période : Libre
• Lieu : Institut Pluridisciplinaire Hubert Curien (IPHC), Université de Strasbourg-
CNRS, Strasbourg
• Type : Stage de License, de Master 1 obligatoire ou stage volontaire
• Ressources techniques :
o Accès à Google Colab Pro (GPU A100)
o Dataset vidéo existant de Kōjima (+ de 5985 frames annotés)
o Code source GitHub disponible (https://github.com/AxelCodaeMolina/AI-Saru)
Encadrement
• Cédric Sueur – Professeur à l'Université de Strasbourg (directeur de stage)
• Julien Paulet – Doctorant à l'Université de Strasbourg (encadrant principal, premier
auteur de l'article)
• Collaboration scientifique :
o Benoit Naegel (Professeur, expert en traitement d'images)
o Jérôme Pansanel (Ingénieur de recherche CNRS)
o Takafumi Suzumura et Shinya Yamamoto (Wildlife Research Center, Kyoto University)
Atouts du Stage
✅ Travail concret : Suite directe d'une publication scientifique récente (Primates, 2024)
✅ Impact visible : Amélioration mesurable d'un système déjà fonctionnel
✅ Données réelles : Dataset unique de primates sauvages étudiés depuis 60 ans
✅ Valorisation : Possibilité de co-signature sur une future publication
✅ Compétences IA : Expérience pratique en deep learning appliqué à la conservation
✅ Collaboration internationale : Lien avec le Wildlife Research Center de Kyoto University
Candidature
Envoyer à cedric.sueur@iphc.cnrs.fr :
• CV détaillé (mentionner vos expériences en deep learning et computer vision)
• Lettre de motivation (expliquer votre intérêt pour ce projet spécifique)
• Exemples de projets en vision par ordinateur (GitHub, rapports, etc.) si disponibles
Vous venez de réussir votre master 2 éthologie, écologie, and coe, ce blog est le vôtre! Il vous permet de retrouver différentes offres de PhD, emplois, stages, et même post doc pour les "anciens"... Outil de mise en réseau des informations, ce blog offre à chacun de la liberté de participer et ainsi permettre à tous de trouver au plus vite sa prochaine étape professionnelle. Si vous avez une offre à poster, transmettez la à : marine.grandgeorge@univ-rennes1.fr