Les industriels européens et français disposent d’un très grand nombre de données fortement sous-exploitées. Or, Intel s’investit de plus en plus dans la gestion et la valorisation des données afin d’apporter de la valeur ajoutée aux métiers de l’entreprise.
Les équipements industriels produisent un très grand volume de données précieuses sur leur état de fonctionnement : température, pression, temps de disponibilité, nombre d’incidents…
L’analyse en temps réel de ces grands volumes de données contribue à améliorer la disponibilité des équipements, fluidifier la production et donc augmenter le rendement. Étape ultime : une maintenance prédictive peut être mise en place pour optimiser les interventions et anticiper les pannes avant qu’elles ne se produisent. La production peut alors devenir plus réactive et faire entrer l’entreprise devenue agile dans l’Industrie du Futur.
Connecter à tout prix et véhiculer l’information
Sur les équipements anciens encore en place, ces données ne proviennent pas toujours de capteurs communicants. En outre, ces machines ont une durée de vie de 20 à 30 ans ! Pourtant des solutions existent, malgré ce taux de renouvellement pour capter ces informations autrement.
L’approche “Connect the Unconnected” d’Intel consiste, par exemple, à remplacer un manomètre par son équivalent électronique. Ainsi, une caméra vidéo peut enregistrer une image et “numériser le manomètre” via un logiciel basique de reconnaissance d’images.
Alors, la première étape de génération de la donnée peut être réalisée, via les capteurs des équipements modernes, ou grâce à ces approches de substitution.
Certes, Intel ne fabrique pas de capteurs. Néanmoins, nous souhaitons utiliser ces informations générées par les équipements (ou leur surveillance automatisée) pour donner un sens à ces précieuses informations afin d’améliorer la production.
Une fois produites, ces données doivent être véhiculées de la machine ou de la chaîne de fabrication vers un équipement assurant leur collecte à des fins de traitement ou d’analyse. Déjà, des installations simples permettent à des caméras de compter les produits ou de vérifier leur qualité en sortie de chaîne grâce à la reconnaissance de paternes par exemple. Il suffit de connecter une caméra sans fil en 5G ou en gigabit Wi-FI pour permettre le transfert des données.
Le cloud facilement accessible et extensible…
Une fois ces données collectées, elles sont envoyées vers une solution assurant les traitements nécessaires : analyses en temps réel ou en différé, nettoyage et corrélation des données entre elles ou avec des données externes, etc. Pour traiter ces informations, plusieurs approches sont possibles.
Le Cloud est aujourd’hui en mesure d’absorber d’importants volumes d’information. L’élasticité de l’infrastructure permet de répondre simplement aux besoins en matériel, sans nécessiter l’intervention de spécialistes.
Intel déploie justement ses processeurs hyper-performants chez les fournisseurs de Cloud. Cependant, pour respecter d’éventuelles règles de conformité ou le choix de l’entreprise, il est possible de travailler sur des Clouds privés (dans un datacenter par exemple) ou sur des environnements hybrides. Indépendamment des choix d’infrastructure, toutes ces données restent disponibles pour un travail supplémentaire par les data-analystes de l’entreprise.
… à proximité des capteurs…
Quel que soit l’environnement cloud choisi (public, privé, hybride), le temps de latence entre la génération des données et leurs traitements sur un Cloud public ou privé distant peut poser des problèmes de réactivité.
Afin de réduire au minimum ces délais, il convient de placer de la puissance de calcul à proximité des capteurs ou des équipements concernés. On parle alors d’“Edge Computing”, qui consiste à installer des serveurs à proximité des capteurs et de la donnée générée, afin de traiter plus rapidement des volumes d’information moins importants.
Ces traitements de proximité peuvent filtrer la donnée, réaliser des analyses très rapides en temps réel. L’ensemble ou une partie de ces informations peut ensuite être envoyé au Cloud ou vers les datacenters de l’entreprise pour un traitement différé, nécessitant la corrélation de multiples sources de données sur de très gros volumes.
… ou directement dans le capteur.
Un troisième niveau de traitement, plus critique encore et concernant les délais, peut s’effectuer directement dans le capteur. Par exemple, une caméra sur la chaîne de production pourrait simplement envoyer ces informations à un serveur Edge. Toutefois, les caméras intègrent aussi des processeurs qui effectuent immédiatement le traitement adéquat : comptage, détection de formes, analyses de modèles d’images… Autant d’éléments qui favorisent le respect des exigences de qualité, grâce à l’identification du taux de rejet ou d’incident au plus tôt dans la chaîne de fabrication. En outre, la corrélation de ces données avec des informations provenant de capteurs à différents endroits de la chaîne, il devient possible d’identifier au plus vite la source d’un incident ou d’un problème de qualité.
Un moteur “SAP Inside”
L’orchestration de toutes ces évolutions technologiques nécessite une dynamique logicielle et une forte connaissance des processus d’entreprise. C’est pourquoi Intel travaille avec SAP, qui fournit le moteur et l’ensemble des outils pour l’analyse des données. Intel propose la puissance de calcul et SAP l’approvisionne avec un ‘fioul’ très performant.
La base de données SAP HANA sait traiter de très grands volumes de données directement en mémoire, avec des performances optimales. C’est d’ailleurs la référence sur ce marché. Sans oublier tout l’outillage proposé, comme le socle SAP Cloud Platform, le moteur de transformation numérique SAP Leonardo, des outils d’analyse, des algorithmes de traitement d’images, du Machine Learning, etc.
Intel-SAP : une collaboration complémentaire et bien orchestrée pour favoriser l’évolution des entreprises vers l’usine de demain.