Gennemsigtighed i beslutninger truffet med hjælp fra kunstig intelligens

Skrevet af
Globeteam
Nyhed

Del indlæg

Kan man dokumentere de beslutninger som statistiske og algoritmiske modeller træffer?

Afhængigt af brugsscenariet og kompleksiteten af en algoritme kan det være vigtigt, at man som virksomhed kan forklare, hvordan kunstig intelligens har truffet en given beslutning. Gennemsigtighed og sporbarhed i beslutningskronologien kan være nødvendig for at efterprøve resultaterne og kan være med til at øge tilliden til brugen af AI.  

Kunstig intelligens er et vidt begreb, der i flæng med deep learning og machine learning efterhånden dækker over mange ting. Men helt basalt er kunstig intelligens statistiske og matematiske formler og metoder.

Oftest bruges kunstig intelligens til at beskrive avancerede statistiske metoder, som bruges til at bygge statistiske modeller med mange variable – og typisk langt flere, end vi mennesker kan finde sammenhæng i. Desværre fravælger mange virksomheder disse metoder, fordi de anses for at være uforklarlige og ugennemsigtige. Men i langt de fleste tilfælde kan man forklare dem ganske godt.

Traditionelle statistiske metoder giver typisk modeller, der er begrænsede ved antallet af variable, hvilket resulterer i mindre præcise modeller, end man kan få ved brug af kunstig intelligens – machine learning. Til gengæld kan de traditionelle metoder uden videre forklares, og man kan få en præcis indikation af grundlaget for modellens beslutninger.

At være i stand til at forklare en model kan være nødvendigt i mange forretningskritiske processer. Man skelner mellem global og lokal forklaringsevne.

Global og lokal forklaringsevne

En global forklaringsevne betyder, at en models prædiktioner kan forklares ud fra den matematiske formel, der genereres af den statistiske metode, hvorfor mange traditionelle metoder kan forklares globalt. Lokal forklaringsevne betyder, at en prædiktion kan forklares isoleret ud fra modellen, men at man ikke kan udlede af en given prædiktion, hvordan modellens andre prædiktioner generelt forklares.

Et eksempel på en statistisk modeltype, som har en global forklaringsevne, er et beslutningstræ. I denne type model, kan alle lokale prædiktioner bestemmes ved at kigge på modellens sammensætning.

Det er endnu ikke muligt at skabe en global forklaring af de mere avancerede statistiske modeller, som eksempelvis neurale netværk. Dette skyldes, at den store mængde variable, som gør modellen mere præcis, samtidig giver ekstremt mange mulige udfald. Derfor anses disse modeller for at være black-boxes, hvilket imidlertid ikke er en korrekt antagelse, da det er muligt at skabe lokale forklaringer.

Det vil sige, at man kan opnå en approksimeret forklaring på, hvilke variable der har spillet ind for en given prædiktion, hvilket er en vigtig egenskab i forhold til at forstå – og have tillid til – sin model. Forklaringsevne kan således være et nødvendigt værktøj i mange regulatoriske sammenhænge, hvor det er påkrævet at kunne dokumentere sin model – og forklare hvordan den tager beslutninger. Det er muligt at få indblik i enkeltstående beslutninger – og dette kan bruges til at tilnærme sig den globale forklaringsevne, ved at samle en række lokale forklaringer og på den måde give et generelt indblik i modellens udfaldsgivende faktorer.

Således er lokale forklaringer i høj grad værdifulde, og bør ikke forbigås. Virksomheder vil nemlig i mange tilfælde kunne bruge dem som værktøj til at forstå deres models domæne, fordi de lokale forklaringer kan danne baggrund for forståelse af enkelte prædiktioner og dermed også grupper af prædiktioner. Dermed kan man identificere tendenser i data, herunder etisk diskrimination i modellen eller indsatsområder for at optimere sin model – og dermed også minimere forretningsproblemet.

Andre læste også
19. februar 2024
Deltag i sikkerhedsseminar d. 12. marts kl. 9-12
I samarbejde med Microsoft og BlueVoyant inviterer Globeteam til sikkerhedsseminar. Deltag og bliv klogere på, hvorfor komplekse trusler kræver holistisk beskyttelse.
29. november 2023
Webinar: Microsoft 365 Copilot – skab en sikker & bæredygtig implementering
Se med, når vores eksperter giver gode råd til, hvordan I forbereder den tekniske og organisatoriske implementering af Microsofts nye AI-assistent. 
2. november 2023
SAP S/4HANA – få styr på roadmap og migreringsstrategi
Realiser det fulde forretningspotentiale af SAP S/4HANA med en målrettet køreplan & strategi for migreringen. I denne artikel deler SAP ekspert Aamir Bilal Chaudhry sine erfaringer omkring roadmap og valg af migreringsstrategi

Nyhedsbrev

Få vores nyhedsbrev

Hold dig opdateret på din virksomheds digitale muligheder med cases og faglige artikler