Forskere på Københavns Universitet vil nu udvikle en algoritme, som skal hjælpe sagsbehandlere på jobcentrene og samtidigt sikre, at den arbejdsløse får et så godt og kort forløb i beskæftigelsessystemet som muligt.
Initiativet kommer som svar på omfattende kritik af de algoritmer, som jobcentre i dag anvender til beregning af ‘ny-lediges risiko for langtidsledighed.’
To professorer og en adjunkt, nemlig Thomas Hildebrandt, Irina Shklovski og Naja Holten Møller, arbejder alle ved Datalogisk Institut på Københavns Universitet. De har undersøgt kvaliteten af eksisterende algoritmer, som bruges på jobcentrene rundt om i kommunerne.
Forskernes undersøgelse peger blandt andet på, at en række af de algoritmer, der i dag anvendes på landets jobcentre, har et for entydigt fokus på at måle den arbejdsløses chance for at komme i job og derfor ikke fanger kompleksiteten i sagerne:
– Hvis politikernes mål for en ledig primært er at komme hurtigt i job, er det jo besnærende at opfinde en algoritme, der fokuserer på det. Men problemet er, at man risikerer at stå med et værktøj, der forsimpler borgernes ofte komplekse problemstillinger, og som jobkonsulenterne i sidste ende vælger ikke at benytte, fordi andre forhold bør afklares først, siger Naja Holten Møller.
Hvis en sag trækker ud, og borgeren får en følelse af at ‘sidde fast’ i systemet, så kan det have alvorlige konsekvenser.
Naja Holten Møller, adjunkt på Københans Universitet
Hun forklarer, at det er jobkonsulenternes erfaring, at et ledighedsforløb kan gå frem og tilbage. For nogle borgere er et job ikke et mål i sig selv, men derimod en afklaring af, hvad der egentlig er bedst for ham eller hende. De ved, at livet nogle gange består af kriser – som for eksempel dødsfald, skilsmisse og sygdom. Kriser kan spille ind på mulighederne for at vende tilbage til arbejdsmarkedet. Samtidigt er der forskel på, hvordan mennesker tackler den udfordring, det er at stå uden job.
Naja Holten Møller stiller også spørgsmålstegn ved, at det skulle give mening, at individuel profilering af ledige skal baseres på andre borgeres mønstre. Hun understreger, at det først og fremmest er vigtigt at afklare, hvilke data algoritmerne skal trænes på, og hvad grænserne er for deres brug.
De jobkonsulenter, som forskerne har talt med, er ikke imponerede over de eksisterende algoritmer. Forskergruppen fra Københavns Universitet har derfor valgt at give et bud på en bedre algoritme end den eksisterende. De arbejder med at lave en algoritme, som kan opfattes som legitim og etisk for dem, som skal bruge den.
Derfor har forskerne – som led i forskningsprojektet – afholdt workshops med jobkonsulenter på jobcentre i blandt andet Gladsaxe Kommune for at blive klogere på deres syn på brugen af kunstig intelligens til at få arbejdsløse i job. Det skriver fagbladet Prosa.
– Vi åbnede simpelthen maskinrummet og lod det være op til jobkonsulenterne at bedømme, hvilke mål der fra et fagligt synspunkt burde styre designet af algoritmen, siger Naja Holten Møller.
Fokus på systemets barrierer
Hun mener på baggrund af studiet, at man bør droppe forsøget på at forudsige den enkeltes sandsynlighed for at blive langtidsledig og i stedet for prøve at bruge algoritmer til at få tilrettelagt nogle bedre og mere gennemsigtige forløb.
Forskerholdet har sat sig det nye mål, at den arbejdsløse får så godt og kort et forløb i beskæftigelsessystemet som muligt. Nu arbejder holdet på at finde frem til, hvad det er for barrierer i systemet, som kan forlænge tiden, den arbejdsløse er tilknyttet jobcentret.
– Hvis en sag trækker ud, og borgeren får en følelse af at ‘sidde fast’ i systemet, så kan det have alvorlige konsekvenser, forklarer Naja Holten Møller.
Kunne man lave en algoritme, som kunne kortlægge mulige faldgrupper i systemet – som for eksempel lang ventetid til undersøgelse på en udredning på arbejdsmedicinsk klinik – så kan det hjælpe, fordi den arbejdsløse bliver bekendt med grunden til, at der er en venteperiode. Det vil dog kræve kunstig intelligens af en anden kvalitet end i dag, fordi algoritmerne bag skal modtage og bearbejde langt mere kompliceret data.
Læs også
Techgiganters voksende indflydelse i folkeskolen bekymrer lærere og forsker
Naja Holten Møller glæder sig over, at der bliver talt mere og mere om, at kunstig intelligens kræver de rette data frem for, at man skal bruge alle de data, som man kan få fat i. Hun understreger, at forståelsen for den praksis, som algoritmen skal bruges i, er helt afgørende, og at udviklingen af algoritmer skal bygge på en forståelse af den kontekst, som den skal bruges i. Denne forståelse mener hun, vil give et pejlemærke om, hvilke data man skal benytte, og om man overhovedet har de data, det vil kræve for at designe den mest optimale algoritme.
Forskerne er nu i gang med at undersøge om de mål, som jobkonsulenterne har foreslået i studiet, kan bruges i udviklingen af en ny slags jobcenter-algoritme. De har sideløbende indledt et samarbejde med it-virksomheden KMD for at udvikle en prototype på en algoritmekomponent, der blandt andet skal vise, hvor ventetiden i et arbejdsløshedsforløb kan være.
– Denne algoritme skal selvfølgelig afprøves af jobkonsulenterne og testes for mulig brugbarhed, inden den tages i brug, understreger Naja Holten Møller.
Omfattende kritik af nuværende algoritme
Det er ikke nyt, at de algoritmer, som jobcentrene hidtil har brugt og stadigvæk bruger, møder kritik.
Den daværende VKLA-regering vedtog i april 2019 en ny lov, som lovliggør samkøring af personfølsomme data med det formål, at udarbejde algoritmer, der kan forudsige hvilke af de ny-arbejdsløse borgere, der har høj risiko for langtidsarbejdsløshed. De samkørte data var blandt andet oplysninger om etnisk herkomst, helbred, arbejdsløshedshistorik og uddannelseshistorik.
Fagbladet ing/version 2 fortalte i maj 2019, at forud for VKLA-regeringens forberedende arbejde for indførelse af algoritmer til udpegning af potentielt langtidsarbejdsløse, havde Styrelsen for Arbejdsmarked og Rekruttering (STAR) fået foretaget pilotprojekter i 16 kommuner landet over. Kommunerne havde afprøvet en algoritme, som STAR havde fået udarbejdet. Som led i pilotprojektet havde STAR hyret analysefirmaet Mploy til at udarbejde en evaluering, der samlede resultaterne af projektet. Evalueringen viste, at kun godt halvdelen af de deltagende jobcentre vurderede, at profilafklaringsværktøjet gav et godt grundlag for at identificere ny-ledige i risiko for langtidsledighed.
Ayo Næsborg-Andersen, som er lektor i persondataret ved Syddansk Universitet, fremførte på samme tid i Politiken den kritik, at jobcentrene “anvender regeringens profileringsværktøj, uden at der er et offentligt kendskab til, præcis hvilke data algoritmen anvender, og hvor højt de forskellige data vægtes i den samlede vurdering.”
Han kritiserede, at mennesker med brug af algoritmen bliver stemplet som kommende langtidsarbejdsløse på baggrund af en blind tillid til en algoritme med skjulte parametre.
Heller ikke i brancheorganisationen Danske A-kasser er man imponeret over den omfattende profilering af landets arbejdsløse.
– At lægge alle ledige ind i ét og samme værktøj giver ikke mening. De ledige er i så forskellige situationer, at et one-size-værktøj nærmest er uanvendeligt, sagde A-kasse formand Torben Poulsen til Politiken.
Risiko for diskrimination
Telli Betül Karacan var i 2019 nybagt kandidat i statskundskab. Hun fortæller til Politiken, at hun var ledig i to måneder, inden hun fik stilling som videnskabelig assistent på Dansk Institut for Internationale Studier. Hendes data blev, på et jobcenter i København, profileret via en algoritme, uden at jobkonsulenten havde anmodet om tilladelse, hvilket ellers er påkrævet, fortæller hun. Hun blev i algoritmen beskrevet som efterkommer af ikke-vestlige indvandrere, selv om hun havde opnået dansk statsborgerskab. Hun mener, at det er forkert, at hendes etniske herkomst skal nævnes i algoritmen, da den i hendes tilfælde ikke havde nogen som helst betydning, da hun har de samme kompetencer som danskere med samme uddannelse. Hun nævnte også, at det kun er lovligt at nævne etnicitet, hvis denne parameters tilstedeværelse udløser en særlig hjælpeforanstaltning, hvilket ikke er tilfælde i jobcentrenes brug af algoritmen. Hun har flere gange i medierne været ude med denne anke.
Institut for Menneskerettigheder har, på baggrund af blandt andet Telli Betül Karacans sag udarbejdet en analyse af de menneskeretslige udfordringer og dilemmaer, som kunstig intelligens rejser.
De kritiserer i analysen, at der i Danmark mangler et overblik over, hvordan offentlige myndigheders brug af kunstig intelligens griber ind i menneskerettighederne, og hvilke følger det kan få for borgernes retssikkerhed. De nævner, at der både i EU, Europarådet og FN er udtrykt bekymring for, at kunstig intelligens kan underminere beskyttelsen af den enkeltes rettigheder. Brugen af profileringsmodeller kan for eksempel skabe risici for diskrimination på en række forskellige måder, forklarer de.
De foreslår, at digitaliseringsstyrelsen, som led i det fælles offentlige arbejde med kommuner og regioner, tilføres fornødne ressourcer og oprettes en offentligt tilgængelig oversigt over samtlige offentlige myndigheders brug af profileringsmodeller rettet mod borgere.
Endvidere foreslår de, at alle offentlige myndigheder i Danmark, der anvender profileringsmodeller rettet mod borgere, forpligtes til at oplyse borgere om dette og ved afgørelser at informere borgere om, hvordan modellen er nået frem til sine resultater.
Det koster penge at lave progressiv journalistik. Kun med din støtte kan Arbejderen fortsat udgive frit tilgængeligt journalistisk indhold af høj kvalitet.