AI-feberen bør udløse juridisk eftertanke hos direktionen
Midt i fascinationen og hypen omkring AI’s mange muligheder bør landets direktioner og bestyrelser stoppe op og grundigt overveje især de juridiske udfordringer ved de nye teknologier. Især to opmærksomhedspunkter er i fokus lige nu, men de kan imødekommes ved at have styr på grundlæggende IT-dannelse og GDPR.
Dette er et debatindlæg: Finans bringer løbende indlæg fra specialister og meningsdannere. De er alle udtryk for den pågældende skribents egen holdning.
De færreste var nok klar over, hvilken påvirkning det ville få på vores arbejdsliv og landets virksomheder, da OpenAI for cirka et år siden lancerede chatbotten ChatGPT og den underliggende GPT-sprogmodel, der allerede i dag har automatiseret flere kundeserviceopgaver.
Nu et år senere er det så småt gået op for mange, hvad sprogmodeller og de tilhørende generative AI-værktøjer kan bruges til i fremtiden.
Men sådan en teknologisk revolution kræver også omtanke, og der er lige nu en del direktionsgange i Danmark, der skal finde deres AI-ben at stå på.
En ny undersøgelse foretaget af Coleman Parkes Research viser, at 99 pct. af ledere i 600 større virksomheder angiver, at brugen af AI er en vanskelig ledelsesmæssig opgave. Usikkerheden er ikke blevet mindre af den seneste tids ballade om topledelsen i netop OpenAI samt AI-reguleringen i både EU og USA.
Vi står lige nu i en opbrudstid, hvor vi skal til at indstille os på, at sprogmodeller og en lang række andre AI-værktøjer bliver en del af vores hverdag og arbejdsliv.
Som virksomhedsleder kan du ikke lukke øjnene for den nye virkelighed, og der er ingen tvivl om, at vinderne bliver dem, der bedst omfavner de nye muligheder. De får en markant konkurrencefordel, som bliver vanskelig at indhente på anden vis.
Bagsiden ved kunstig intelligens er en del juridiske, etiske og forretningsmæssige dilemmaer, der først for alvor er begyndt at komme på agendaen til bestyrelses- og direktionsmøderne. I dialogen med kunderne og gennem analysearbejde har vi hos DLA Piper fundet frem til de to mest fremtrædende bekymringer og spørgsmål, som topledelser bør stille sig selv lige nu:
1) Hvordan skal medarbejderne bruge sprogmodellerne?
En håndgribelig AI-problemstilling lige nu er brugen af de populære sprogmodeller som ChatGPT. De fleste ledelser kan godt få øje på potentialerne ved disse sprogmodeller, men der er også frygt for, om medarbejderne bruger værktøjerne på en måde, der overholder virksomhedens interne regler og lovgivningen mere generelt.
7 ud af 10 angiver i Coleman Parks-undersøgelsen, at medarbejderne udgør den største risiko ved brug af AI.
Det er dog vigtigt, at virksomheden ikke afskærer medarbejderne fra at bruge sprogmodellerne, som vi har set en del store virksomheder gøre. Til skal medarbejderne oplæres i at bruge værktøjerne på en korrekt og sikker måde. Det gør virksomhederne ved at opsætte retningslinjer for, hvordan medarbejderne håndterer personfølsomme oplysninger, men også andre fortrolige oplysninger.
Dog er det vigtigt, at medarbejderne bliver lært op i grundlæggende at være kritiske over for sprogmodellernes output.
Det er nemlig svært at gennemskue, hvor de data, som sprogmodellerne trænes på, stammer fra. På samme måde skal brugerne være indstillet på, at al data, der hældes ind i sprogmodellerne, bliver til træningsmateriale for dem.
Derfor skal medarbejderne ikke hælde information ind, som indeholder fortrolige og forretningsfølsomme oplysninger eller personoplysninger. Samtidig er det vigtigt at faktatjekke det output, der kommer, da sprogmodellernes evne til at digte (eller hallucinere) er veldokumenteret.
2) Hvilken betydning får AI-forordningen for min virksomhed?
Hos landets direktioner og bestyrelser giver EU-forordningen om AI også anledning til sølvgrå stænk i hårbunden.
Den er på mange måder EU’s forsøg på at holde (eller genvinde) kontrollen over udviklingen af den kunstige intelligens, og for mange virksomheder giver den kamp udfordringer og bekymringer på grund af manglende indsigt i den nye lov.
Og det er da også korrekt, at AI-forordningen stiller krav til virksomhederne, men formålet er dybest set at fremme AI i EU på en sikker og hensigtsmæssig måde – ikke at forhindre det. Og det er ikke meget anderledes end mange andre forordninger, som skal overholdes.
Virksomhederne kan her bruge deres erfaringer fra GDPR, da AI-forordningen er baseret på de samme grundlæggende rettigheder, herunder om beskyttelse af data.
I undersøgelsen angiver 36 pct. af respondenterne, at de er usikre på, om de overholder AI-loven.
Selve AI-forordningen inddeler AI-systemer i fire forskellige risikogrupper: Uacceptabel risiko, høj risiko og lav eller minimal risiko.
Langt de fleste virksomheders brug af kunstig intelligens i hverdagen vil falde i kategorierne begrænset eller minimal risiko, og størstedelen af de systemer, vi interagerer med i dagligdagen, er chatbots, spamfiltre og f.eks. computerspil, der involverer AI.
Virksomhedens retningslinjer og dokumentation skal selvfølgelig være på plads, men på det punkt må AI-forordningen ikke bremse jeres arbejde.
Til gengæld bliver det lidt mere krævende, hvis du for eksempel bruger kunstig intelligens i HR-arbejde, eller du er en sundhedsvirksomhed, der bruger AI i arbejdet med patienter. I disse tilfælde skal du have mere styr på processerne, og det kan være en god idé at rådføre dig med juridisk kompetence, hvis du er usikker på, om værktøjer og jeres brug af dem overholder lovgivningen.
Medarbejderne har et stort ansvar for at bruge kunstig intelligens med omtanke, men som virksomhedsleder har du lige nu muligheden for at definere den arena, som vi alle sammen i fremtiden skal agere i.
Så husk at bruge AI med omtanke og ansvarlighed.


