Comment le Machine Learning contribue-t-il à améliorer les processus critiques ?

Dans certaines situations, la machine surpasse l’homme. Ainsi, la voiture Tesla munie de son Intelligence Artificielle et de ses capteurs freine plus vite et mieux qu’un humain pour éviter un obstacle.

Toutefois, cette approche présente quelques limites. Par exemple, pour qu’un objet devienne réellement intelligent, il faut qu’il subisse un processus d’apprentissage via des algorithmes de Machine Learning. Associant différentes disciplines (dont les mathématiques), le Machine Learning permet à un objet intelligent d’évoluer lui-même avec une relative autonomie.

Quand l’humain doit assister l’IA

En reprenant l’exemple de Tesla, on constate malgré tout certains problèmes. Ainsi, un accident peut résulter d’une mauvaise utilisation de la technologie disponible : le véhicule alerte sur l’imminence d’une panne, et l’utilisateur ne voyant rien se produire l’ignore. Autre cas possible : le véhicule se trompe, car une situation qu’il ne connait pas ou qu’il ne maîtrise pas survient. Une Tesla a ainsi eu un accident avec un camion de pompier, ne connaissant pas suffisamment les situations « d’objets stationnaires ». D’où la nécessité d’un apprentissage continu en mode assisté.

Il en va de même pour les processus d’entreprise. La plupart du temps, l’Intelligence Artificielle ou le Machine Learning ne peut apporter qu’une aide à la décision avec un taux de confiance plus ou moins élevé. Lorsqu’il s’agit de processus simples ou totalement maîtrisés, l’automatisation à 100% est possible. Dans d’autres situations, une automatisation à 80% ou 90% du travail est possible, mais une intervention humaine reste indispensable.

A chacun son accès au Machine Learning

SAP utilise ces technologies à trois niveaux complémentaires sur sa plateforme technologique.

Au cœur de ses applications critiques (ERP, CRM, SCM…), le Machine Learning intervient pour simplifier le travail des utilisateurs au quotidien. Toutefois, tout n’est pas forcément automatisé. Ainsi, dans SAP CRM, une opportunité peut afficher un score de confiance limité à 60%, car le client/prospect et ses habitudes ne sont pas assez connues, avec peu de fiabilité ou tout simplement parce que les chances de gagner sont faibles. Cependant, les algorithmes permettent de comprendre le niveau de score d’une opportunité en ajoutant les facteurs influants et donc fournissent des pistes d’explication.
Autre exemple : SAP SuccessFactors sait détecter les profils à haut potentiel de l’entreprise présentant un risque de départ. Enfin, S4/HANA repère des anomalies éventuelles lors du rapprochement entre factures et paiements.

Au sein de la plateforme, des algorithmes de Machine Learning pré-packagés peuvent être utilisés par des développeurs (non data-scientists) ou des partenaires pour créer de nouveaux services, soit sur la plateforme, soit en lien avec des applications SAP.

Destinées aux data-scientists, des librairies de fonctions de Machine Learning peuvent être utilisées via des langages comme R ou des frameworks comme TensorFlow (open source Apache, développé par Google). Cette population dispose ainsi de nombreux algorithmes et moteurs d’analyse : réseaux neuronaux, analyse d’images, analyse de texte, reconnaissance de formes, reconnaissance vocale, SIG…

Quel rapport avec le Big Data ?

La diversité des sources de données (SIG, texte, vocal, capteurs, images…) en grand volume s’impose pour favoriser un apprentissage générant par la suite des résultats plus pertinents. Cette variété traduit la complexité des situations, obligeant à combiner ces différents moteurs d’analyse (texte, vocal, SIG, etc.). Plus l’apprentissage est riche et varié, plus la solution sera efficace.

Ainsi, une Tesla qui aura enregistré les diverses combinaisons et modalités de la situation d’urgence des véhicules des pompiers saura comment réagir.

Dans le cas de la compagnie ferroviaire Trenitalia, on évoque la maintenance prédictive. Mais il ne s’agit pas exactement de maintenance prédictive, car les trains tombent finalement peu en panne. L’objectif consistait surtout à limiter les nombreuses interventions de vérification planifiées et onéreuses dans le cadre d’une maintenance préventive. Si la solution détermine qu’il y a un score de 100% de bonne santé des équipements, la prochaine intervention préventive peut être évitée. En dessous, elle est maintenue. Un exercice qui a permis d’économiser environ 10% sur plus d’un milliard d’euros de dépense.

Un retour sur investissement record face au temps passé à travailler sur de tels algorithmes !