Les ressources

Outils et bases de données images

Téléchargement des bases de données d’images générées pendant le challenge : les 4 équipes participantes au challenge et le consortium opérationnel sont fiers de partager avec vous l’ensemble des bases de données images générées pendant le challenge. Renseigner le formulaire pour accéder au téléchargement.

Suite logicielle LNE-MATICS : suite logicielle gratuite et open-source conçue pour l’exploration de données et l’évaluation de systèmes. Elle s’adresse originellement à l’évaluation des systèmes de Traitement Automatique de la Langue, et visera à terme l’évaluation d’une plus large gamme de systèmes d’intelligence artificielle. Le LNE assure aussi une session de formation à la suite logicielle.

Actes de colloque / publications scientifiques (actions consortium/équipes participantes)

Par l’équipe PEAD :

Autonomous Vision-Based Navigation and Control for Intra-Row Weeding – Avilès, J., Soto, D., Stéphant, J., Labbani-I., O., 2022 IEEE 18th International Conference on Automation Science and Engineering (CASE) (proceedings très prochainement)

Une proposition a été soumise à IEEE ICRA 2023 (international conference on Robotics and Automation) https://www.icra2023.org/ : YoCo v1: Real-time Crop Instance Segmentation –  Jesus Franco-Robles, Jorge E. Avilès-Mejia et Ouiddad Labbani-Igbida

Par l’équipe BIPBIP :

Lac L., Keresztes B., Louargant M., Donias M., Da Costa J.-P. (2022). An annotated image dataset of vegetable crops at an early stage of growth for proximal sensing applications. Data in Brief, Volume 42, 108035. https://doi.org/10.1016/j.dib.2022.108035

Lac L., Da Costa J.-P., Donias M., Keresztes B., Bardet A. (2022). Crop stem detection and tracking for precision hoeing using deep learning. Computers and Electronics in Agriculture, Volume 192, 106606, ISSN 0168-1699, https://doi.org/10.1016/j.compag.2021.106606.

Louargant M., Lac L., Da Costa J.-P., Donias M., Keresztes B., Gimbert H., N’Guyen, Labriffe E., Bondu L., Kaçar F. (2022). BIPBIP: a mechanical and automated intra-row weeding solution. Accepted at the Int. Symposium on Mechanization, Precision Horticulture and Robotics: Precision and Digital Horticulture in Field Environment. International Horticultural Congress, Angers, France, August 2022.

Lac L., Da Costa J.-P., Donias M., Keresztes B., Louargant M. (2021). SDNet: Unconstrained Object Structure Detector Network for In-Field Real-Time Crop Part Location And Phenotyping. British Machine Vision Conference, United Kingdom. Online presentation.

Lac L., Gréteau G., Keresztes B., Rançon F., Bardet A., Da Costa J.P. (2019). Embedded vision system and algorithms for early weed vs. crop discrimination within the row. Proceedings of ECPA 2019, Montpellier, France.

Autres actions BIPBIP

Par l’équipe WeedElec :

Julien Champ, Adan Mora‐Fallas, Hervé Goëau, Erick Mata‐Montero, Pierre Bonnet, Alexis Joly. (2020) Applications in plant sciences (Vol 8 – Issue 7): Instance segmentation for the fine detection of crop and weed plants by precision agricultural robots

Champ, JulienMora-Fallas, AdanGoëau, HervéMata-Montero, ErickBonnet, PierreJoly, Alexis. (2020) An annotated visual dataset for Automatic weed detection and identification – doi 10.5281/zenodo.3906501 

Par l’équipe ROSEAU :

Hassan NEHME – Thèse CIFRE Sitia/Irseem : « Perception de l’environnement de navigation pour un robot autonome en milieu agricole » Soutenue en Juin 2022

  • Nehme, Hassan, Clément Aubry, Thomas Solatges, Xavier Savatier, Romain Rossi, and Rémi Boutteau. “LiDAR-based Structure Tracking for Agricultural Robots: Application to Autonomous Navigation in Vineyards.” Journal of Intelligent & Robotic Systems 103, no. 4 (2021): 1-16
  • Nehme, Hassan, Clément Aubry, Romain Rossi, and Rémi Boutteau. “An Anomaly Detection Approach to Monitor the Structured-Based Navigation in Agricultural Robotics.” In 2021 IEEE 17th International Conference on Automation Science and Engineering (CASE), pp. 1111-1117. IEEE, 2021
  • Nehme Hassan “Détection de nouveauté et d’anomalie pour le suivi de structure autonome”. dans le webinaire “IA et robotique agricole” de l’association RobAgri. 2020

Jehan-Antoine VAYSSADE – Thèse UMR Agroécologie Dijon : « Approche multicritère pour la caractérisation des adventices par imagerie » Soutenue en mars 2022

  • Vayssade, Jehan-Antoine, Gawain Jones, Christelle Gée, and Jean-Noël Paoli. “Pixelwise instance segmentation of leaves in dense foliage.” Computers and Electronics in Agriculture 195 (2022): 106797
  • Vayssade, Jehan-Antoine, Jean-Noël Paoli, Christelle Gée, and Gawain Jones. “DeepIndices: Remote Sensing Indices Based on Approximation of Functions through Deep-Learning, Application to Uncalibrated Vegetation Images.” Remote Sensing 13, no. 12 (2021): 2261
  • Vayssade, Jehan-Antoine, Gawain Jones, Jean-Noël Paoli, and Christelle Gée. “Two-step Multi-spectral Registration Via Key-point Detector and Gradient Similarity: Application to Agronomic Scenes for Proxy-sensing.” In VISIGRAPP (4: VISAPP), pp. 103-110. 2020
  • Vayssade, Jehan-Antoine, Jean-Noël Paoli, Christelle Gée, and Gawain Jones. “DeepIndices: Une nouvelle approche des indices de télédétection basée sur l’optimisation et l’approximation de fonctions par DeepLearning. Application aux indices de végétation sur des données non calibrées.” In Conference: RJCIA: Rencontres des Jeunes Chercheur· ses en Intelligence Artificielle. 2021

Articles

Le Challenge ROSE choisi comme exemple d’application pour l’évaluation robotique dans l’étude Deep Learning et Agriculture de la Chaire AgroTIC :  télécharger l’étude

On en a parlé ...

A l’occasion de la 29ème édition de la Fête de la Science organisée du 2 au 12 octobre 2020 – Emission quotidienne Science en Direct animée par l’Esprit Sorcier dans la séquence “L’avenir fertile des sols”. Cliquez ici pour voir le replay de l’émission. (Le passage sur le challenge ROSE commence à environ 1h25.)

Sur France 3 ARA, le mardi 9 octobre 2019 – sujet de 5 minutes. Cliquez ici pour voir le replay de l’émission.

Dans l’Actu’DGER – Le mensuel de la Direction Générale de l’Enseignement et de la Recherche n°3 de novembre 2020 : cliquez ici.

Co-financé par

Organisé par