Du gør klogt i at lade data blive i driftsystemerne – til gengæld bør du åbne døren

Artikel

Mens data-revolutionen forandrer drift-orienterede it-systemer ganske radikalt, står ledelsesinformationen stadig lidt i stampe. Symptomet er, at virksomheder til en vis grad håndbygger KPI-rapporteringer, Business Intelligence-systemer og data analytics-miljøer. Det sker, selv om fællesmængden med naboen er oppe på 80-90 pct.

Kun 34 pct af ledere har høj tillid virksomhedens data og dens analytiske kapacitet. 56 pct nærer moderat tillid og 11 pct har lav tillid.

Spørger man til virksomhedernes udfordringer på vejen mod præcise, kontekst-relevante og transparente data, placerer 55 pct af lederne datakvalitet og datakonsistens som største udfordring.

Problemer med at integrere data fra forskellige forretningsapplikationer ligger på andenpladsen med omkring 48 pct. Til sammenligning peger kun omkring 29 pct på mangel på dataspecialister.

Fravær af data og fravær af analytiske værktøjer ligger lavest nede på listen over udfordringer og opleves blot af omkring 20 pct.

Klumpet rå-olie

Alle disse tal kommer fra en international undersøgelse blandt 1200 ledere og CIO’er gennemført af SAP i slutningen af 2024 med titlen ”The trust factor: Data, resilience, and innovation”.

I en tid, hvor data er den nye olie, har mange virksomheder altså problemer med ledelsens tillid til pålideligheden af deres data. For at blive i metaforen er der meget stor forskel på klumpet rå-olie og raffineret højoktan benzin. Kæden fra rå data til ledelsesmæssig indsigt og handlemulighed er altså ikke alle steder lige velsmurt.

Hvis jeg kigger ud over det danske landskab, så tror jeg egentlig, at tilliden til ledelsesinformationen er noget højere. Men jeg ser også, at mange virksomheder har en hær af data scientists, data stewards, analytikere og controllere til at opbygge rapporteringer og ledelsesinformation.

Potentiale for rationalisering

Samtidig er der et overlap på op til 80-90 pct af den opbyggede funktionalitet. Alle ønsker jo at styre efter et sæt af KPI’er, og hvis de kommer fra et ERP-, Supply Chain Management-, Finans- eller HR-system, så er der altså en meget stor fællesmængde, som alle ønsker at have styr på.

Her ligger et rationaliseringspotentiale og venter på os gennem standardisering. Det er ikke nødvendigt, at hver virksomhed for sig bygger de samme modeller. I stedet bør de systemer, hvor data fødes og lever, være i stand til at levere færdige ”dataprodukter” til analytiske formål.

Altså gøre det nemt at komme fra rå driftsdata og til aggregeret overblik og kritisk KPI-styring. Sådan et ”dataprodukt” kan måske dække 80 pct af alle virksomheders behov, og så kan in-house dataspecialister fokusere på at klargøre data til de sidste 20 pct. Samme rationale ligger bag, at ingen virksomheder i dag egenudvikler ERP-systemer.

Værditab i kopiering

Selv om data skal bruges til analytiske formål bør de bevare deres oprindelige semantik, historik og forretningsmæssige kontekst. Vi skal gøre op med fortidens værditab i forbindelse med eksporten fra driftsmiljøet via ETL-processen til en data lake et data warehouse eller andre analytiske sandkasser.

Men så er der problemet med data fra flere kilder.

Vi har en meget lang tradition for rent faktisk at kopiere data væk af deres oprindelige system og lægge dem et andet sted af hensyn til et analytisk formål. Her kan de så joines med data fra andre systemer og sød musik i form af klog indsigt kan opstå.

Forplumrede data lakes

Brugen af data lakes er ofte en ”hjemmebygget” vej fra data til færdigt resultat. Derfor sidder der mange ressourcer internt eller hos konsulentfirmaer og gennemløber de samme ti trin for at bygge næsten de samme beregninger på 1000 forskellige måder (ESG-rapportering er et aktuelt  område, hvor vi ser dette dobbeltarbejde).

Udover at data lakes kan blive noget forurenede, forældede og forplumrede, så vil det næsten altid være langsommelige processer, og data vil tabe nogle af sine attributter i kopieringsprocessen.

Det er et problem i en AI-tid, fordi vi gerne vil automatisere effekten af den analytiske indsigt i konkret handling. Det vil sige at det analytiske output, skal skabe handling i drift-systemerne og derfor skal outputtet alligevel sendes retur til kildesystemet.

Glasdør på dit lakehouse

Mit bud er, at vi gør klogt i at lade data blive i driftsystemerne, men vi skal have en fuldstændig transparent og åben ”glasdør” fra vores lakehouse til vores driftsystemer. Det skal være lige så nemt for data scientists at arbejde med data i eksempelvis HR- eller ERP- eller CRM-systemet, som hvis de lå i en data lake. De ligger bare i en ”udestue”.

En AI-agent skal have et interface til alle data, og det kan være i form af en knowledge graph, som sprogmodellen kan spørge. Driftsystemet skal altså være født med et ”API” til AI-agenter.

I mine 17 år i SAP har jeg aldrig oplevet en så massiv og pludselig interesse på et specifikt tema.  Og jeg var ellers med ved lanceringen af HANA in-memory databasen og S/4HANA ERP-løsningen. En stor række SAP-kunder (det er jo tilfældigvis dem jeg er eksponeret for) efterspørger muligheden for at kombinere ERP-procesdata med øvrige datakilder – især når de planlægger at bruge AI og ML.

Interessen går især på at få adgang til data uden at skulle kopiere og genskabe forretningskonteksten. Kalenderen er fuld de næste to måneder, og på vandrørene hører jeg det samme i andre dele af verdenen.

Fordelene ved denne ”nul-kopiering”-strategi for analytisk indsigt er hastighed og anvendelighed. Det analytiske output vil meget hurtigere kunne skabe værdi, når det fødes direkte via komplette data og tæt integreret i kernesystemerne.

Og bare rolig: Der er ingen data scientists der bliver brødløse i de næste årtier!

Af Thomas Madsen, Enterprise Architect og Technology Explorer hos SAP Danmark 

Oprindelig publiceret i Computerworld den 7. april 2025.