Asta oppslag

Slik ble KI-systemet Asta presentert da det ble tatt i bruk i 2019. Screengrab: vtp.dk

Ubrukelig kunstig intelligens

Saksbehandlere unngikk å bruke kunstig intelligens fordi anbefalingene fra systemet ikke kunne forstås eller begrunnes. Dette sentrale problemet med KI kan vise seg å bli en betydelig hindring for å ta i bruk den nye teknologien i offentlig sektor

06.09.2023 – sist oppdatert 07.09.2023

I et forskningsprosjekt gjennomført av tre danske forskere ved Syddansk Universitet ble saksbehandlere i den danske versjonen av NAV observert og intervjuet om sine erfaringer med bruk av et system for kunstig intelligens.

Flere danske Jobcentre har gjort forsøk med KI-systemet ASTA som vurderer risikoen for langtids arbeidsledighet blant personer som nylig er blitt arbeidsledige. Systemet bruker 50 ulike vriable for å vurdere risikoen for langtidsledighet.

Variablene var vidt forskjellige og omfattet blant alder, helse og hvorvidt den arbeidsledige hadde sagt ja til å motta SMS`er fra jobbsenteret. På basis av disse variablene leverte systemet en trafikklys-vurdering av størrelsen på risikoen for langtidsarbeidsledighet: grønn, gul eller rød. Konsekvensene av en rød vurdering, som altså betyr høy risiko, kunne være sterkere tiltak og strammere betingelser i avgjørelsen fra jobbsenteret.

Begrunnelsesplikten

En sentral forutsetning i dansk forvaltning (og i norsk) er at avgjørelser skal begrunnes. Spesielt skal de begrunnes hvis ikke brukeren ikke får fult gjennomslag for sine ønsker. Dette kravet om begrunnelse viste seg å være hovedårsaken til at saksbehandlerne på de danske Jobcentrene etterhvert endte opp med å ikke bruke Asta i sin saksbehandling. Og systemet som helhet ble også etterhvert lagt bort. 

Asta- systemet kunne ikke gi saksbehandlerne en god nok begrunnelse for hvorfor risikoen for langtidsledighet var slik systemet mente den var. Ofte var saksbehandlerne uenige i risikovurderingene, men hovedproblemet var at de ikke forsto vurderingene. Asta-systemet kunne ta i bruk 50 variabler for å gjøre sine risikovurderinger. Det er vanlig i forskningen å gå utifra at menneskers korttidshukommelse kan klare å håndtere 4 variabler samtidig.

En lukket svart boks

Denne konflikten mellom en risikovurdering basert på 4 variabler som er forståelig for mennesker, oppimot en vurdering som er baset på 50 er selve kjernen i det som kalles black-box-paradox. Den svarte boksen i systemet som gjør beregningene er i praksis utilgjengelig for mennesker.

Vi kan ikke forstå beregningene som systemet bruker. Og når vi ikke forstår det, er fristelsen til å unngå det, ganske stor. I tillegg kommer altså det juridiske aspektet, med at vedtak skal begrunnes. Og når begrunnelsen blir uforståelig vil den være vanskelig å bruke.

En innvendig mot et slikt resonnement kan være at det brukes mange matematiske modeller i offentlig forvaltning som ikke er forståelige for den vanlige saksbehandler og for publikum. F.eks. modeller for nasjonalregnskap og værmelding. De brukes jo likevel, og med stort hell.

Ayo Næsborg-Andersen, Jøren Ullits og Ole Hammerslev: Beslutningsunderstøttende algoritmer i det offentlige: påvirkningen af sagsbehandlerens skøn og begrundelse. politica, 55. årg., nr. 3 2023,