Kommunalt overmod sendte projekter om kunstig intelligens på juridisk kollisionskurs - det kan vi lære af dem
Flere kommuner har forsøgt sig med AI-projekter på bl.a. beskæftigelsesområdet. Men mange af projekterne har været ramt af omfattende problemer.
De seneste år har det offentlige søsat og fået støtte til i alt 40 projekter med kunstig intelligens (AI), hvoraf syv er afsluttet. Ét af de afsluttede projekter udsprang af Odense Kommune, hvor man ville bruge algoritmer til at forudsige, hvilket jobtilbud der var det rigtige for 1.300 af kommunens ledige, der indvilligede i at indgå i projektet.
Projektet kom dog aldrig i produktion, og Datatilsynet endte med at dømme algoritmens datagrundlag ulovligt sammen med en række andre lignende projekter.
Det var for uigennemskueligt, hvordan algoritmen virkede, lød det.
Derudover var relationen mellem kommune og arbejdsløse sådan, at man som borger kunne have svært ved at takke nej til at blive kørt gennem AI’en, skrev Datatilsynet dengang i en afgørelse.
»Lige nu vil jeg give andre ét konkret råd, hvis de vil starte lignende projekter: Lad være. Det juridiske grundlag er ikke på plads,« lyder det fra Gorm Hjelm Andersen, der er koncernchef i Odense Kommune.
Thomas Hildebrandt, der som professor på Datalogisk Institut på Københavns Universitet har fulgt projekterne, siden det første blev lanceret tilbage i 2019, mener projekterne har genopfundet AI-løsninger, man blot kunne have købt sig til i det private.
»Der er ét af de 40 kommunale AI-systemer, der er sat i drift og udbredes som en open source-løsning. Så kan man sige »det lyder da meget godt«, og jeg er meget begejstret i forhold til, at de gør det open source, men den pågældende løsning har eksisteret kommercielt siden 2017,« siger Thomas Hildebrandt.
»Derfor kan man med rette stille spørgsmålet, om det er millionerne værd, at kommunerne får de her erfaringer på egen krop i stedet for at læse sig til dem?«
I stedet opfordrer Thomas Hildebrandt alle, der overvejer at implementere AI i deres forretningsgange, at få styr på organisationens data og skabe et overblik over, hvor skoen virkelig trykker.
»På den måde kan man måske også undgå at skabe nye problemer som ulige sagsbehandling eller fastholde folk i stereotyper baseret på 10 år gamle data, som vi desværre så i nogle af projekterne,« siger Thomas Hildebrandt.
Han påpeger, at de kunstige intelligenser ikke ved mere, end de er blevet lært. Derfor havde de nogle uheldige tendenser, når de foretog vurderinger baseret på 10 år gamle data, og det samme ville gøre sig gældende, hvis virksomheder trænede algoritmer på gamle data.
»Man skal være særligt opmærksom på de AI’er, der spår om fremtiden. Især når det handler om personer. Generelle mønstre siger ikke nødvendigvis noget om den enkelte person,« siger Thomas Hildebrandt.
I Odense Kommune fastholder man, at de 5,2 mio. kr., kommunen fik, var godt givet ud.
»Det var aldrig intentionen, at systemet skulle i produktion. Intentionen var at lave et forsøg, der skulle gøre os klogere på, hvordan man kunne bruge AI i beskæftigelsesindsatsen,« siger Gorm Hjelm Andersen.
Han tror stadig på potentialet i algoritmer til netop beskæftigelsesområdet.
»Der var nok at komme efter, men vi stoppede der. Vi fik nogle penge at prøve det af for, men hvis det skal drives videre, ville vi skulle kaste en del ressourcer ind i det. Derfor bliver det erhvervslivet, der kommer til at drive det videre,« siger Gorm Hjelm Andersen og opfordrer dermed til, at der udvikles lovlige og kommercielle løsninger til formålet.
Samtidig understreger han, at Odense Kommunes eksperiment aldrig fik nogen negative konsekvenser for borgere i kommunen, idet den kun understøttede beslutningerne og ikke traf dem alene.
Han erkender også, at AI’en ikke var »præcis nok på fagligheden«, når den anbefalede forløb.
»Det er desuden ekstremt vigtigt, at man har sine medarbejdere med i projektet helt fra start. Hvad er etikken i det over for den ledige? Medarbejderen skal være skarp på, hvad det går ud på, og at der ikke er tale om en trussel mod de medarbejdere, der bruger det,« siger Gorm Hjelm Andersen.
I Aarhus Kommune forsøgte man sig med en anden slags AI. Her skulle den screene underretninger om børns mistrivsel, og også her er Thomas Hildebrandt kritisk.
»Jeg synes, Aarhus Kommune i deres opsamling på projektet bagatelliserer det at bruge data, der var indsamlet til ét formål, til noget helt andet,« siger professoren.
Aarhus Kommune har ingen kommentarer til historien.
Thomas Hildebrandt påpeger, at det er endnu en ting, man skal være opmærksom på, når man arbejder med AI.
Hans kollega, professor Stefan Sommer, understreger også, at man som virksomhed skal være opmærksom på, hvilke data man fodrer systemerne med. Samt hvad de data oprindeligt var tiltænkt til.
»Fra en virksomheds synspunkt skal man være bevidst om, at de data, man fodrer algoritmerne med, når man bruger den, ofte bruges til at træne maskinen. Ønsker man det som virksomhed?,« spørger Stefan Sommer.
Han hentyder her særligt til de amerikanske AI’er som ChatGPT, der for nylig har taget techverdenen med storm.
»Er man interesseret i at sende sine data gennem et amerikansk selskab? Det kan potentielt være ulovligt. Man risikerer også at udlicitere viden og kompetencer til noget, der er ejet af en amerikansk koncern. Så man risikerer at stille sig i et afhængighedsforhold, man ikke kan komme ud af,« siger Stefan Sommer.
»Hvis jeg havde en virksomhed, ville jeg være meget opsat på at få en model inden for virksomheden, som man selv træner og styrer. Men det er selvfølgelig ikke alle virksomheder, der kan det,« siger Stefan Sommer.
På den måde er man ikke i kløerne på amerikanerne, og det juridiske aspekt bliver langt mindre kompliceret. Samtidig understreger han, at AI allerede bruges konstruktivt på flere områder, blandt andet inden for kodning og i den medicinske verden.
Som Thomas Hildebrandt udtrykker det:
»AI er en form for præstationsfremmende drug. Man skal vide, hvad man gør for ikke at komme til skade. Borgere og kunder kan komme til skade, hvis virksomheder eller offentlige myndigheder misbruger det.«


