Le Big Data appliqué à l'Agritech

Agritech : comment intègre-t-on le Big Data pour prédire le rendement et la qualité des cultures ?

Cyrille COQUERET, Directeur technique, JEMS DATAFACTORY
Patrick VINCENTI, Architecte Logiciel Expert Data, SMAG (FILIALE INVIVO)


Avec le salon de l’agriculture fraichement terminé, l’agriculture et ses enjeux sont de plus en plus mis sur le devant de la scène.

Aujourd’hui la préoccupation majeure du secteur est de trouver un juste équilibre entre le rendement et la qualité. La solution ? L’Agritech, c’est-à-dire toutes les technologies mises au service de l’agriculture et de ses métiers.

SMAG (filiale du groupe Invivo) et JEMS datafactory nous présentent l’architecture de leur solution Big Data Agro et son application.

Big Data Agro repose sur une plateforme conçue pour accueillir de gros volumes de données provenant de différentes sources (ex : satellites, prédictions météo, données parcellaires, objets connectés) et est en même temps une plateforme évolutive de test et développement de nouvelles capacités d’analyses. 5 couches forment la solide architecture de Big Data Agro :

  • Une couche Raw data, qui historise toutes les données possibles sans les trier
  • Une couche de référentiels métier provenant d’experts agronomes, comme les caractéristiques des variétés de blés, des sols etc
  • Une couche de catégories afin de cartographier les données et commencer à les catégoriser
  • Une couche Dataview, qui ressence l’algorithme et les calculs de prévision de rendement
  • Une couche Datalab, plus dédiée aux data scientists

Cette architecture robuste permet de répondre aux besoins clients qui sont le requêtage, reporting et l’analyse (data discovery).

La solution Big Data Agro a servi au projet Datacrop, qui permet de prédire les rendements de blés en France avec un taux de précision de 96%

Pour conclure, le succès de votre solution et la gestion de votre Datalake repose sur 5 bonnes pratiques :

  1. Amener le calcul aux données et non les données au calcul
  2. Organiser le datalake en couche pour séparer l’ingestion de la consommation
  3. Dénormaliser le modèle de données
  4. Mettre en place un outil de data management
  5. Anticiper le plus possible la mise en production au début du projet

Ready for the next generation of analytics?

Try HyperCube and experience its unrivaled range of features and ease of use Get started