Accélérer et améliorer la prise de décision sont des enjeux importants dans un secteur public en pleine transformation. Pour y parvenir, celui-ci dispose d’une richesse encore peu exploitée : ses données. Grâce aux techniques d’analyse prédictive, de simulation et d’exploration visuelle, de Machine Learning, celles-ci peuvent être utilisées pour nourrir la prise de décision.
Dans le secteur public, peut-être plus encore que dans le privé, la prise de décision est un processus complexe, multifactoriel, nécessitant de croiser de nombreuses sources de données différentes, avec potentiellement un impact sur plusieurs aspects de la vie des citoyens. Faciliter, éclairer et accélérer ce processus est donc un enjeu important dans le cadre de la transformation numérique de la fonction publique.
Administrations centrales, ministères, collectivités ou organismes d’intérêt public : tous possèdent énormément de données. Néanmoins, beaucoup reste à faire pour exploiter ces dernières dans des processus d’aide à la décision, comme le montre l’étude « Vers l’agent augmenté » réalisée par PAC-CXP Group pour SAP.
Pour l’Etat, comme pour la plupart des entités publiques, c’est une vraie nécessité que de pouvoir regrouper, croiser et visualiser l’information en temps réel, afin d’améliorer la prise de décision. Qu’il s’agisse de mesurer l’impact d’une politique, de simuler ou de prédire les conséquences d’un choix, voire d’identifier de nouvelles pistes de solutions, l’exploitation des données tient une place centrale.
Sur ces sujets, SAP s’est engagé dans un processus de réflexion et d’études avec l’Etat français.
Explorer un cas d’usage concret
Nous avons également choisi d’investiguer ce type de cas d’usage de manière concrète. Pour cela, nous avons utilisé la Digital BoardRoom, notre solution de pilotage intégrée, sur un domaine précis : le marché de l’emploi. Nous avons travaillé sur une branche que nous connaissons bien, celle des technologies de l’information. Les données utilisées venaient pour partie de Pole Emploi, pour partie des offreurs, ces dernières étant récupérées via notre plateforme Multiposting.
Sur le périmètre étudié, nous avons pu analyser la quantité d’offres disponibles, leur typologie, leur attractivité, les types de contrats proposés et recherchés par les candidats… Ces explorations ont permis de remonter des faits bien connus, comme la tension existante sur le métier de data scientist, mais aussi d’autres éléments qui n’étaient pas forcément visibles sans analyse. Nous avons, par exemple, identifié une forte demande d’apprentissage et de stages autour des métiers liés à la data science. Nous avons également pu visualiser des métiers en perte de vitesse, et d’autres sur lesquels se développe une forte offre en freelance.
Révéler des faits nouveaux
Parfois, les analyses révèlent de vraies surprises ou font ressortir des éléments auxquels on n’aurait pas pensé. L’outil peut par exemple mettre en lumière des informations qui viennent infirmer les hypothèses initiales. C’est là que le prédictif devient véritablement intéressant, dès lors qu’il permet de découvrir des faits auparavant ignorés.
Prendre en compte davantage d’options
La rationalisation des indicateurs permet également d’apporter une vraie valeur au secteur public. Ses représentants sont en effet fréquemment amenés à prendre des décisions qui impliquent un grand nombre de paramètres. Or, en tant qu’humains, nos capacités cognitives ont des limites, ce que l’économiste et sociologue Herbert A. Simon appelle le principe de la rationalité limitée. Dès lors que le nombre d’options à examiner grimpe, l’être humain a tout intérêt à se faire aider par les technologies de Machine Learning pour identifier les meilleurs choix.
L’objectif de notre cockpit analytique, in fine, est justement d’accompagner les utilisateurs dans leurs prises de décision avec l’appui de ce type de technologies. La solution englobe les quatre familles d’applications analytiques décrites par Gartner. Elle permet de faire un état des lieux d’un domaine (BI descriptive), d’établir des diagnostics poussés pour comprendre les causes d’une situation (BI diagnostic) et de prédire une évolution future (BI prédictive). Et nous pouvons également simuler l’impact de différentes décisions grâce au Machine Learning : c’est la fameuse analyse prescriptive, point culminant de la trajectoire proposée par Gartner.
Faciliter l’exploitation des données
Un autre aspect intéressant de cet outil pour le secteur public réside dans la facilité d’utilisation. Les techniques d’analyses ne sont pas nouvelles. Ce qui est nouveau, c’est d’intégrer les algorithmes dans un outil qui les rend accessibles et intuitifs. Dès lors qu’on souhaite développer une culture de la donnée au sein des organisations, c’est l’expérience utilisateur qui fait la différence.
Avant de lancer une analyse, il faut toujours s’assurer de la validité des données ainsi que de la pertinence de l’échantillon par rapport aux analyses envisagées. Auparavant, ces vérifications représentaient une part importante du travail des statisticiens. La technologie embarquée dans la solution permet de s’affranchir de ces contraintes préalables. Elle est en mesure d’orienter l’utilisateur vers les algorithmes pertinents pour tel ou tel jeu de données. Tout l’intérêt d’une solution comme la Digital BoardRoom est de mettre des algorithmes complexes à la portée des collaborateurs de la fonction publique. Pour ces derniers, l’enjeu n’est plus technologique, il est davantage organisationnel : il faut ouvrir les données, les décloisonner.