En associant Big Data et Machine Learning, de nouveaux scénarios se dessinent pour les entreprises. À condition d’utiliser la data comme moteur de transformation des processus métiers. Et de faire redescendre l’intelligence jusqu’aux objets eux-mêmes, grâce au Edge Computing.
En 2018, 37 % des entreprises ont déployé des outils mettant en œuvre l’Intelligence Artificielle, contre seulement 10 % il y a quatre ans, révèle Gartner dans son CIO Survey 2019. Le cabinet d’études estime que les entreprises basculent maintenant dans un monde « d’intelligence augmentée », où les tâches et décisions sont boostées par l’intelligence Artificielle et l’apprentissage machine (Machine Learning).
Beaucoup se demandent pourtant encore que faire des immenses volumes d’informations issus du Big Data. L’objectif est de se connecter à ces diverses sources de données, pour les relier entre elles, les analyser, prédire des comportements et agir en conséquence. Le traitement holistique et intelligent des informations permet d’adopter un modèle à la fois data centric et data driven, où la donnée pilote les processus de l’entreprise : les processus génèrent des données, qui – une fois analysées – permettront de redéfinir les processus eux-mêmes. La donnée est donc au centre de la révolution menant à l’Entreprise Intelligente. Avec, pour leviers technologiques clés, le Big Data et le Machine Learning.
SAP Data Hub se charge de centraliser la collecte et le nettoyage des données, avant de les livrer à la SAP Cloud Platform et ses multiples services : base de données In-Memory ; analytique avancée et moteur prédictif ; Machine Learning autour du traitement vidéo, image et texte ; services de Blockchain et de geofencing (géorepérage)… Le tout appuyé par des technologies de RPA (Robotic Process Automation) et des chatbots. Des domaines récemment renforcés par le rachat de deux pépites françaises : Contextor et Recast.AI.
L’un des cas d’usage classiques du Machine Learning réside dans l’aide à la décision. En analysant plusieurs dizaines de paramètres, il est possible de calculer un score représentant la probabilité de voir un client signer un contrat. Ou encore de déterminer quels leviers d’action permettront d’augmenter les chances de succès. L’analytique avancé et l’apprentissage machine peuvent aller encore plus loin en passant du décisionnel… au décisif. Par exemple, en excluant les clients pour lesquels la possibilité de réaliser une affaire est nulle ou peu rentable.
Trenitalia : prévoir pour réduire les coûts de maintenance
Le cas de Trenitalia est un bon exemple de l’utilisation du Big Data et du Machine Learning, dans le cadre de la mise en place d’un système de maintenance prédictive cette fois. L’opérateur ferroviaire italien a commencé par poser des capteurs sur les portes et les systèmes de freinage de ses trains. Deux éléments qui sont la cause d’une partie significative des pannes. Les données issues de ces capteurs sont collectées puis analysées. Elles entrainent un modèle prédictif capable de prévoir la probabilité d’une panne imminente. Ce qui permet de programmer le passage en atelier du train, ainsi que de prévoir les pièces nécessaires et les tâches à accomplir pour réparer l’élément (bientôt) défectueux. Ce modèle a rapidement été étendu, chaque rame faisant aujourd’hui remonter 5000 signaux par seconde au système prédictif.
En évitant les pannes, Trenitalia améliore l’expérience client des 2 millions de passagers empruntant quotidiennement l’un de ses 7000 trains. Grâce au passage d’une maintenance réactive à une maintenance prédictive, la société a pu également réduire le temps d’immobilisation de ses trains et diminuer ses coûts de maintenance de 8 %.
De l’importance de placer l’intelligence au cœur des objets
Trenitalia ne peut toutefois pas uniquement s’appuyer sur un traitement centralisé des données. Tout d’abord pour des raisons de sécurité : le capteur d’une porte doit être en mesure de stopper le train en cas d’ouverture subite. Mais également pour des raisons de volumétrie de données. Chez l’opérateur ferroviaire, 700 To d’informations sont en effet générés chaque année par les capteurs.
La seconde étape du projet consiste donc à placer l’intelligence au plus près du matériel. L’adoption de l’Edge Computing permet de déployer des systèmes analytiques et prédictifs dans la rame elle-même. Voire au niveau des capteurs à proprement parler. L’intelligence est alors directement embarquée dans les processus métiers.
Suralimenter les datacenters en données n’est donc pas toujours nécessaire. Ni souhaitable dans les cas où le temps de réaction s’avère crucial : analyse du comportement d’un chauffeur routier pour repérer un endormissement ; détection de l’exposition d’un ouvrier au monoxyde de carbone ; appel des pompiers lors de la découverte d’un départ de feu par un drone, etc.
Stara : des machines agricoles intelligentes
Le constructeur brésilien de machines agricoles Stara est un autre exemple d’utilisation du Big Data. Il exploite de multiples types de données : météo, informations sur la parcelle, topologie du terrain, richesse de la terre… Le tout permet de piloter avec précision les semoirs et épandeurs, afin d’éviter de semer sur une bordure de champ trop en pente ou d’arroser d’engrais une partie du terrain déjà suffisamment fertile.
Ces machines agricoles intelligentes, s’appuyant sur des capteurs et l’Edge Computing, permettent de réduire les coûts en semences et en fertilisants de respectivement 15 % et 19 %. Le tout sans rogner sur les niveaux de production. Il est d’ores et déjà possible d’envisager des outils encore plus novateurs. Par exemple des drones capables de détecter les parties d’un champ à traiter par simple survol.
Dans chacun de ces cas, l’intelligence est directement intégrée au matériel. Les informations issues des capteurs serviront également à entrainer un modèle de Machine Learning, qui permettra d’améliorer en continu ces différents processus.
Costco : des viennoiseries toujours chaudes
Le monde de la grande distribution emploie déjà massivement le décisionnel : l’analyse des tickets de caisse sert ainsi à déterminer les modes de consommation des clients. Le Big Data permet toutefois d’aller beaucoup plus loin en intégrant d’autres sources de données à ce modèle.
C’est ce que fait Costco pour planifier la cuisson de ses pains et viennoiseries. Le géant américain n’étudie pas seulement les allées et venues dans ses magasins (entrées, sorties, déambulations dans les rayons) ; il prend aussi en compte la température extérieure (actuelle et prévue par la météo), ainsi que la tenue éventuelle d’évènements à proximité (par exemple un match de foot dans un stade voisin). L’agrégation de toutes ces informations permet de prédire les afflux de clients et d’ajuster en temps réel les plans de cuisson. Rien de mieux en effet que de trouver une viennoiserie chaude à la sortie du stade !
Encore une fois, les processus sont directement pilotés par des données exploitées en temps réel grâce aux technologies Big Data.
Basculer vers un business model basé sur l’usage ?
Les capteurs peuvent mesurer le niveau d’utilisation des produits, ce qui permet de déterminer le degré d’usure de ces derniers. Idéal pour de la maintenance prédictive, mais aussi pour envisager un business model non plus axé sur le produit, mais sur son utilisation. Cette approche est adoptée par certains constructeurs, comme Hilti, qui vend ses perforateurs en fonction du nombre moyen de trous qu’ils seront capables de réaliser.
Dernier exemple avec la société autrichienne de matériel sanitaire Hagleitner. Dans les toilettes des stades de sport, l’installation de tourniquets connectés et de capteurs sur les toilettes et distributeurs de savon permet de mesurer la fréquentation et d’aider à programmer les tournées de nettoyage. Forte de ces mesures, la société ne vend plus aujourd’hui ses équipements en fonction de la taille du stade, mais selon le nombre d’entrées réelles dans les toilettes. Un business model basé sur l’usage.
