Cet article vous explique les avantages de l’approche « data lake » : référentiel central de données, qui permet de faciliter la continuité numérique, l’arrivée de nouvelles technologies et l’exploitation des données par l’IA.
Le but du « data lake » est de mettre la donnée au centre de l’usine, de la « libérer » des solutions propriétaires, pour que l’ensemble des systèmes et équipements puissent en profiter.
L’objectif ici n’est pas de remplacer les bases de données des systèmes existants, ce ne serait pas réaliste.
L’idée est que ces systèmes « legacy » partagent leurs données en les déversant dans le data lake.
La mise en place peut se faire progressivement en utilisant le data lake pour remplacer les messages (Json, XML, CSV…) des flux d’interface entre les systèmes.
Au lieu d’avoir une approche classique d’envoi de message (1 expéditeur vers 1 destinataire), on est sur une logique de publication de données (1 expéditeur vers plusieurs destinataires abonnés à cette donnée).
Puis faire grandir ce lac régulièrement, en l’alimentant avec des nouvelles données pour des nouveaux besoins.
Ok, très bien, mais à quoi va servir ce data lake ?
→ Il va fortement faciliter la continuité numérique dans l’usine : centraliser les données permet de réduire fortement le nombre de flux d’interface entre les systèmes et les équipements.
→ Il va favoriser l’arrivée de nouvelles technologies : solutions applicatives disruptives (low code et/ou SaaS), objets connectés, machines autonomes…
Toutes ces technologies demandent d’avoir des données, elles pourront alors les puiser dans le lac, et déverser les leurs en retour.
→ Il va faciliter grandement l’exploitation des données par des solutions d’intelligence artificielle (IA), grâce au volume et à la variété des sources d’informations.
Personnellement, je ne pense pas que cette nouvelle approche de centralisation de la donnée va faire disparaître les grandes solutions applicatives traditionnelles (ERP, MES, SCADA, WMS…).
Ces solutions permettent de bien gérer les grands flux d’information (article, gamme, OF…), avec des partages clairs sur les responsabilités des données.
Ces règles, qui définissent qui est maître de la donnée, doivent bien être maintenues au sein du lac de données.
L’idée avec le data lake est d’augmenter la « biodiversité » : permettre à des petites de solutions d’apparaître, pour qu’elles se déploient rapidement et apportent leur valeur ajoutée en complément des grandes solutions legacy.
Data Lake : exemple d’un flux de planification OF
Ce schéma montre les acteurs traditionnels du flux de planification des ordres de fabrication : l’ERP et le MES.
Il présente également des solutions Saas complémentaires qui vont apporter leur valeur ajoutée dans ce flux.
L’ERP est souvent le maître des articles (achetés ou fabriqués), il gère leur création, leur codification et leurs propriétés principales (famille, gestion au lot, unité de gestion, valorisation…).
En complément de l’article, l’ERP définit sa gamme de fabrication et sa nomenclature.
Ces notions fondamentales ont naturellement une place centrale dans le Data Lake.
Le MES va compléter ces données pour son besoin de pilotage de l’exécution de la fabrication :
– En apportant des propriétés articles supplémentaires utiles à leur utilisation dans les ateliers de fabrication (unité de manipulation, mode de consommation…)
– En complétant la gamme de l’ERP, qui est souvent assez simple, par une granularité plus fine permettant de bien suivre chaque étape du process.
On peut dire que l’ERP fournit un squelette de gamme, et le MES apporte le reste.
L’OF est créé dans l’ERP, il résulte d’une demande de fabrication (client ou stock interne).
Après être associé à une gamme de fabrication, il est planifié : cette fonctionnalité d’ordonnancement des OFs est souvent apportée par une solution spécifique capable de modéliser les contraintes métiers.
L’approche Data Lake permet de faciliter l’utilisation de nouvelles solutions SaaS, proposant une intelligence avancée et une ergonomie moderne.
Le lac lui fournit toutes les données nécessaires : les OFs à planifier, les disponibilités des matières, les plannings des équipes…
Un autre avantage du Data Lake est d’aider à remplacer les fichiers Excel périphériques.
Ici, l’exemple utilisé concerne le planning équipe habituellement édité « à la main » par le chef d’équipe.
Une solution de RH opérationnelle, rapide à déployer (SaaS), apporte un gain de temps pour les chefs d’équipe, et ses données de plannings équipes sont déversées dans le lac pour pouvoir être exploitées par les autres applications.
Data Lake : exemple d’un flux d’exécution OF
Ce schéma n’est pas exhaustif, et pourtant il montre déjà la complexité / le volume des flux de communication entre les systèmes.
Le data lake ouvre la possibilité d’avoir une approche modulaire : répartition du périmètre MES sur plusieurs applications.
Par exemple, le suivi de performance TRS est géré par une application « pure player » et innovante (ergonomie très bonne, connexion machine facilitée…)
Autre exemple, la gestion des non-conformités est suivie par une application « no code » qui permet aux équipes opérationnelles d’être autonomes pour construire et faire évoluer leurs workflows.
Je vois quand même un point de vigilance sur cette approche modulaire : il faut que cela reste un ensemble cohérent pour les utilisateurs.
Notamment, il ne faut multiplier les écrans pour les opérateurs de fabrication, ils doivent pouvoir naviguer entre les applications comme s’il n’y en avait qu’une seule.
L’idée est d’avoir des données semi-structurées, ne pas chercher à avoir un modèle de données parfait. C’est-à-dire d’avoir une coexistence de données brutes et de données structurées.
L’objectif est de trouver un équilibre entre la bonne structuration des données, la performance des applications et la simplicité de déploiement de nouvelles solutions / technologies.
Par exemple : un capteur IoT déverse ses données brutes dans le data lake, et un traitement complémentaire vient contextualiser et agglomérer ces données pour les stocker de façon plus structurée.
Les données structurées sont exploitées par les applications métiers.
Les données brutes sont exploitées par des solutions de big data et d’IA.
En conclusion, je dirais que l’approche Data Lake est très intéressante, elle est dans le sens de l’histoire : collecter et valoriser la donnée.
Néanmoins, pour des PME/ETI industrielles, cette approche présente plus de complexité : contrairement au simple achat de progiciels, elle lui demande de développer une vision « data » et d’acquérir des compétences pour gérer ses données.
Je pense que l’enjeu est déjà de comprendre cette nouvelle approche et d’évoluer progressivement dans ce sens.
En profitant des différents projets sur son système d’information pour remplir petit à petit son Data Lake.
Si vous souhaitez en savoir plus, vous pouvez accéder à ma formation en ligne « Savoir parler MES ».
Voici le lien vers ma vidéo de présentation.
Cette formation est accessible à tous, quel que soit votre niveau de connaissance en MES.
Mon approche est basée sur une pédagogie par l’exemple et l’utilisation de visuels.
Pour vous permettre de comprendre les concepts MES de manière concrète et intuitive.