Dataetik kommer ikke på dåse. Alverdens algoritmer er i sig selv hverken gode eller onde

Avanceret analytics og kunstig intelligens er afhængig af datagrundlaget og måden vi bruger softwaren på. Men low-code tilbyder stadig genveje – både teknisk og etisk.

Jeg har på denne plads tidligere slået til lyd for, at leverandørsiden kan hjælpe med at standardisere, pakketere og simplificere virksomheders brug af AI og analytics.

Det kan hjælpe mange virksomheder, som tænker på at komme ud af hullerne i forhold til kunstig intelligens, men som ikke er kommet op i fart.

Standardiseringen kan gøre det muligt for virksomhedens ”low-code” og ”no-code” analytikere (og andre medarbejdergrupper) at skabe værdi med virksomhedens data. Det kan bidrage til datamæsssig ”maker-spirit” og til forretningsmæssigt gåpåmod langt uden for it-afdelingen.

Den dataetiske barriere

En af barriererne er givetvis, hvordan man kan bruge AI etisk og let forklarligt. Verden har som bekendt tømmermænd og døjer med konsekvenserne af tech-giganternes algoritmiske overherredømme på navnlig persondata-området.

Historien har efterhånden leveret flere eksempler på at algoritmer kan komme med skæve, forkerte eller diskriminerende anbefalinger. Derfor ser vi også hurtig vækst i metoder til – og principper for – at håndtere den kraftfulde software etisk forsvarligt. Og det må stå klart, at det kræver et samlet overblik og ledelsesmæssig opmærksomhed at gøre det rigtigt.

Fyr den af med industrielle data

Men der er enorme forskelle på anvendelsesområderne. Selvfølgelig kan man bruge avanceret analytics og machine learning på at automatisere og optimere ved hjælp af industrielle data i IoT-sammenhæng uden overhovedet at komme i nærheden af personfølsomhed.

På andre områder, hvor der kan være personfølsomhed, er virksomheden nødt til at vurdere den samlede løsning med en etisk målestok: Er der bias i data? Leverer datamodellen fair resultater i forhold til køn, geografi, produkt, kundetype?

Her er kontrol med data helt afgørende. Hvor ligger data, hvem har adgang, og til hvilke dele af datasættet? Er der mulighed for at maskere data, at sikre mod afsløring af enkeltindivider og samtidig give analytisk værdi? Hvis man skal give low-code-folket en chance skal denne del være på plads.

Low-code er en genvej

Der findes en række metoder til at udjævne, reducere eller supplere data for at få modellen til at opføre sig optimalt. Og en SAP Partner som itelligence har her i Danmark f.eks. arbejdet med metoden ”counter factual fairness”. Outputtet fra ML-løsningen sammenholdes her med, hvad vi ellers ville have gjort, og vurderes ud fra fairness.

Ændrer det noget, hvis en virksomhed vælger at købe en genvej i form af et værktøj, hvor flere analytikere kan arbejde med data, fordi det er low-code? Nej, etik kommer ikke på dåse. Du er nødt til at sikre løsningen ud fra en etisk målestok: Har leverandøren synlige etiske principper? Er værktøjet ”explainable” og uden en uigennemskuelig black box?

Men virksomheden har stadig skudt en genvej, og dele af det etiske eftersyn af AI-løsningen er outsourcet til en leverandør, som af oplagte omdømme-årsager nødvendigvis må være skarp på etiske guidelines og have opbygget erfaring med data-etisk ansvarlighed.

SAP har eksempelvis en styrekomité, som etablerer etiske guidelines for resten af organisationen. Industrieksperter, forskere og politiske rådgivere er trukket ind som eksternt panel. Kernen er syv hovedprincipper under overskrifter som værdier, transparens, individer, kvalitet. Der er sikkert andre gode måder at gribe opgaven an på. Men den skal prioriteres.

Flinteøksen og det etiske valg

God governance i en AI-løsning minder om det, vi kender fra alt, hvad vi ellers laver: Er det lovligt? Skaber det forretningsmæssig værdi? Er der særlige person-hensyn og samfundsmæssige hensyn vi skal have med i vores vurdering?

Husk lige, vi taler om data og software. Det magiske tryllestøv fra al hype om ”kunstig intelligens” ændrer ikke på, at teknologien i sig selv hverken er ond eller god. Det hele handler om, hvordan vi bruger den. Og sådan har det været, siden mennesket opfandt flinteøksen og stod med et valg: Skal jeg bruge den til at slå min nabo i hovedet, eller skal jeg bruge den til at skaffe mad?

Og hvis du vælger en anden til at svinge øksen, så husk at checke hvilke principper hun bruger når hun svinger den. Akkurat som du checker, om din økseleverandør tog behørigt hensyn til naturen omkring stenbruddet, da øksen blev produceret.

Af Thomas Madsen, Head of SAP Data Lab Copenhagen i SAP Experience Center Copenhagen

Oprindelig publiceret i Computerworld den 29. marts 2021.