Regards croisés entre Christophe Boggero, Presales Technology Manager chez SAP France et Julien Laval, Business & IOT Marketing Manager Western Europe chez Intel
Comment percevez-vous le partenariat entre SAP et Intel sur le Big Data ?
Julien Laval, Business & IOT Marketing Manager Western Europe chez Intel
Le partenariat avec SAP existe depuis des années. L’objectif consiste à tirer le meilleur parti possible de la donnée générée à un moment T dans l’entreprise pour déclencher une action ou une décision. Et ce, quel que soit le métier concerné : direction opérationnelle, comité exécutif, atelier, ressources humaines, R&D…
D’ailleurs, la société Intel s’est elle-même transformée depuis plusieurs années. Cette mutation digitale place la donnée au rang d’actif stratégique de l’entreprise, au même titre que le silicium.
Le déploiement de ces évolutions concerne deux pôles : la partie industrielle incluant les postes clients, les objets connectés ou les robots ; et l’entité Datacenter-Cloud permettant de traiter l’analytique, les data Lake, etc. Bien entendu, ces deux pôles entrent en interaction continue : une fois que le datacenter a tout mis en œuvre pour traiter la donnée via SAP HANA, il envoie le résultat sous forme d’actions.
Depuis deux ans, Intel a fortement investi non seulement dans le stockage distribué de type Hadoop, mais également dans les nouvelles technologies de SSD comme Intel Optane (mémoire non volatile combinant de façon inégalée la vitesse, l’endurance et la densité).
Autres investissements notables : le rachat d’Altera dont les composants reprogrammables serviront par exemple au Deep Learning, celui de Saffron apportant l’auto-apprentissage en fonction de l’exploration des données, ou encore de Nirvana pour l’intelligence artificielle. Autant de technologies qui seront utilisées dans des secteurs économiques aussi divers que l’industrie, les villes intelligentes, la distribution, l’automobile, etc, mais aussi par les différents métiers de l’entreprise ou dans les fonctions horizontales.
Christophe Boggero, Presales Technology Manager chez SAP France
Nous percevons ce partenariat entre SAP et Intel sous deux aspects fortement liés. Tout d’abord, la collecte des données (IoT ; processeurs des téléphones, tablettes, PC, hybride…) est au cœur de la stratégie d’Intel. Notre alliance nous permet donc de réfléchir à des scenarios métier innovants en la matière. Mais le point central de notre partenariat réside dans la valorisation des données ainsi accumulées, qui deviennent alors un actif essentiel de l’entreprise.
En effet, la puissance de plus en plus élevée et les fonctions de toujours plus haut niveau embarquées dans les processeurs d’Intel, conjuguées à la puissance de traitement des solutions SAP apportent aux entreprises une valeur ajoutée sans précédent, d’autant plus qu’elles mettent en corrélation des informations qui n’étaient pas forcément exploitées auparavant (IoT, réseaux sociaux, e-commerce…).
Pourquoi SAP HANA pour le Big Data alors que l’on dispose déjà d’Hadoop ?
Julien Laval
Selon différentes études, l’explosion des volumes de données va se poursuivre pour un volume qui dépassera bientôt les 44 zettaoctets d’informations générées. Si une partie se révèle sans intérêt, l’autre reste en revanche très utile. Néanmoins, cela nécessite des corrélations et des analyses poussées avec des outils comme SAP HANA. Et la possibilité de manipuler de si gros volumes apporte plus de pertinence et donc de valeur à l’information.
Le Big Data n’est qu’un sous-ensemble des technologies analytiques. Certes, Hadoop permet de stocker de très gros volumes de données. Toutefois, collecter les informations afin de les stocker ne suffit pas. Il est nécessaire d’y appliquer des traitements analytiques via des processeurs de type Intel Xeon que SAP sait exploiter pour en tirer le maximum de potentiel.
Christophe Boggero
On sous-estime parfois les différences de volume dont il est question. Pour le Big Data, il est question de rapport de 1 jusqu’à 10 000. Pour ma part, j’estime plutôt que toutes les données sont a priori utiles, puisque l’on ne sait pas à priori la valeur que l’on va y trouver. Les données inutiles sont souvent des données dont on ne sait pas encore tirer parti, pour des raisons d’infrastructure, d’algorithmes, de puissance…
Grâce à la puissance des processeurs Intel assumant une partie des traitements, les algorithmes de niveau supérieur deviennent plus efficaces, plus pertinents, et contribuent à une valorisation supplémentaire de l’information.
Si Hadoop est utile pour stocker toutes ces données dans un Data Lake, cela reste insuffisant pour en tirer toute la valeur. HANA apporte des fonctions analytiques évoluées et un requêtage In Memory à hautes performances. En outre, la technologie HANA Vora joue le rôle de passerelle entre les Data Lakes Hadoop et les données transactionnelles du système d’information dans HANA. Cette exploitation corrélée des deux mondes permet d’obtenir des résultats inédits et plus pertinents, intégrant des informations inexploitées jusqu’alors.
Quel rôle joue l’alliance Intel/SAP sur les évolutions continues du Big Data ?
Julien Laval
Le partenariat de co-développement avec SAP dure depuis 20 ans. L’alliance de deux leaders sur leurs marchés respectifs est à même de faire évoluer positivement ces environnements. En effet, aujourd’hui, aucun acteur ne peut à lui seul faire avancer les choses.
Dès sa conception, SAP HANA a été optimisée sur les plates-formes x86 et sur les processeurs Xeon, qui savaient déjà gérer une capacité de mémoire importante, nécessaire à la technologie In Memory. En réalisant ces traitements au plus près des processeurs, les machines obtiennent des performances inédites. Et les technologies de type Optane pour les nouvelles générations de SSD portent les performances In Memory à un stade encore supérieur.
HANA et les plates-formes x86 sont les solutions les plus efficaces pour le Big Data, donnant naissance à une forme de standardisation. Intel apporte la plate-forme matérielle, tandis que SAP assure l’interopérabilité entre toutes les informations. Ensemble, ces deux expertises dynamisent aussi les discussions au sein de grands consortiums, comme dans le cadre de l’IoT. Une association qui devient un catalyseur dans cette transformation digitale.
Christophe Boggero
Grâce aux solutions Intel, SAP enregistre des performances inégalées pour les traitements In Memory de HANA. Pour développer ce type de moteur applicatif, HANA doit s’appuyer sur les processeurs et les composants mémoire les plus évolués. Son rôle consiste non seulement à tirer le meilleur parti du matériel, aussi bien au niveau du stockage que de la mémoire, mais aussi à exploiter pleinement la puissance des processeurs pour y exécuter les traitements analytiques. D’ailleurs, on trouve de plus en plus de fonctions haut niveau dans les processeurs, ce qui explique les performances toujours plus élevées, et l’opportunité pour HANA d’exploiter pleinement ce potentiel. Par exemple, l’analyse prédictive peut maintenant être enrichie via HANA Vora qui peut exploiter à la fois les données Hadoop et les informations transactionnelles, permettant ainsi d’obtenir des tableaux de bord toujours plus pertinents.
Les données du Big Data viennent aussi du grand public, via les réseaux sociaux ou l’IoT, ce qui constitue une vraie richesse à l’ère de la digitalisation des entreprises. D’où la nécessaire convergence entre Hadoop et les technologies HANA pour valoriser ces données, ce qui permet d’apporter une valeur ajoutée supplémentaire accentuée par de meilleures performances et un stockage adapté.
Qu’en est-il de l’intelligence artificielle, du Machine Learning et de ce genre de technologies ?
Julien Laval
Toutes les directions de l’entreprise n’ont pas forcément besoin du même niveau de fonctionnalités pour toutes ces technologies.
Pour l’automobile connectée, une partie de l’analyse ne s’effectuera pas forcément dans le cloud, mais plutôt à proximité. Ce qui engendre un besoin de processeurs embarqués intégrant de l’analyse intelligente et de l’auto-apprentissage.
Lorsque l’on sait que l’automobile autonome génère jusqu’à 4000 Go de données par jour, on comprend mieux le partenariat SAP/Intel. Il faut en effet disposer de fonctions de type Deep Learning, de calcul optimal intégrant l’apprentissage progressif des comportements et des habitudes du conducteur, etc. De son côté, Intel poursuit ses acquisitions dans le Machine Learning pour faire évoluer ses processeurs et son matériel vers le stade supérieur. Et SAP fournit la même qualité logicielle, avec des modèles d’usages de plus en plus évolués et adaptés à chaque entreprise. C’est pourquoi nous menons ces réflexions ensemble depuis plusieurs années, aussi bien sur l’analytique que sur le Machine Learning, ou sur toute nouvelle technologie dans le domaine.
Christophe Boggero
Toutes ces technologies contribuent à mieux cibler chaque client et à mieux orienter l’évolution des produits, réduisant ainsi les cycles des décisions et accélérant le Time-to-Market.
Dans l’industrie, une usine de fabrication recueille un grand nombre d’informations qui sont interprétées et corrélées afin d’optimiser la production, les stocks, la logistique, etc., y compris en mode prédictif. Autant d’opérations qui génèrent des économies et favorisent l’augmentation des marges et du chiffre d’affaires.
Toute la pertinence d’un métier (ou d’une fonction transversale dans l’entreprise) est dans la donnée qu’il est en mesure d’exploiter. Réciproquement, les données ne peuvent être valorisées que par la connaissance des métiers : analyse des logs sur un site de recrutement, analyse des parcours des clients sur un site d’e-commerce, données tendancielles ou analyse de sentiment, etc…, autant de traitements qui font souvent appel à de très nombreuses données non structurées : tweets, réseaux sociaux, flux… ; d’où l’impérieuse nécessité du Big Data dans la transformation digitale des entreprises.