Kunstig intelligens: Du har et stort ansvar for at præge udviklingen, Natasha Friis Saxberg
Hvad kan og vil it-industrien gøre for at påvirke den bekymrende udvikling inden for kunstig intelligens i en bedre retning, spørger digitaliseringsekspert og kommentator Per Palmkvist Knudsen.
Kære Natasha Friis Saxberg, direktør for brancheorganisationen IT-Branchen,
Der er tre ord, ingen kan bruge til noget. De er ”Hvad sagde jeg?” Og de tre ord kan jeg let komme til at bruge om de over-valuerede selskaber indenfor kunstig intelligens. Det er ikke kun vores sparepenge, der er på spil her. Det er selve vores demokrati, som kan blive sat ud af kraft!
Jeg synes egentlig, at din artikel på Finans.dk 10. januar om kunstig intelligens var fornuftig. Men din konklusion om at den enkelte bruger ”i sidste ende må tage ansvaret for, at vi som individer eller organisationer bruger teknologi til at skabe værdi, fremfor det modsatte” er ansvarsforflygtigelse.
It-branchen, som du repræsenterer, har et meget stort ansvar for, at disse nye teknologier ikke medfører vores demokratis endeligt. Eller at mindretal bliver marginaliseret – og måske endda forfulgt og slået ihjel. Hvis ingen griber ind. Nu!
Men hvorfor det, vil du sikkert spørge. Svarene er lige så indlysende, som de er svære at ændre ved:
- Teknologierne ekskluderer mindretal
- Teknologierne virker selvforstærkende
- Teknologierne er svære at kontrollere
- Teknologierne bliver først taget i brug af kriminelle og andre banditter. Fordi de er så gode
- De voldsomme kapitalinvesteringer vil øge de store tech-leverandørers og diktaturstaters fortrin
Det største område lige nu inden for kunstig intelligens er markedet for Natural Language Processing - naturlig sprogprocessering - som eksempelvis det Microsoft-financierede ChatGPT fra OpenAI.
Alle, der vil prøve denne fagre nye verden, kan selv forsøge sig på projektets hjemmeside. Nogle af mine egne første oplevelser kan du læse om her.
Ekskluderer mindretal
De fleste af de nye systemer er blevet ”trænet” ved hjælp af enorme mængder data fra internettet. I første omgang virker det jo som en god ide, men pas på! For der vil være en række samfundsgrupper, som er overrepræsenterede – eller det modsatte. Helt oplagt er de digitalt svage, som eksempelvis ældre eller handikappede borgere stort set fraværende. Andre samfundsgrupper kan være meget mere til stede og bevidst sørge for, at eksempelvis Wikipedia er fyldt med information om dem.
Det kan være små ting, som kan ændre meget: Hvis man eksempelvis konsekvent skriver ”den kvindelige præst”, vil robotterne til sidst antage, at præster altid er mænd. Disse programmer er som børn. De lytter til det, vi gør, ikke det vi siger. Og så gentager de dette.
Som almindelig dødelig er det helt umuligt at se – eller kontrollere – hvordan en robot er blevet trænet oprindeligt, og hvordan den har videreudviklet sig.
Selvom der i it-industrien bruges store midler på at styre robotternes sindelag, er det ikke let. Eksempelvis bruges der store ressourcer på at fjerne uacceptabelt indhold som opfordring til vold og pornografi. Men som vi ved fra Facebook og Googles virke, kan anstødeligt indhold i én målgruppe være helt acceptabelt i en anden. Tag eksempelvis nøgenhed eller sexualoplysning.
Virker selvforstærkende
Robotterne kan producere tekster og meget andet selv. På denne måde, kan vægtningen af specifikke emner og konklusioner langsomt – men sikkert – blive fordrejet. Hvis man spørger ChatGPT om følelser, svarer programmet således:
Mig: Hvordan har jeg det i dag?
ChatGPT: ”Som en kunstig intelligens har jeg ikke mulighed for at vide, hvordan du har det i dag, da jeg ikke har evnen til at føle eller have følelser. Jeg kan kun give svar baseret på den information du giver mig…..”.
Det er jo i udgangspunktet fint. Men hvis den er blevet trænet med følelsesladede dokumenter, kan den sagtens reelt have følelser. Eller blot skifte mening som vinden blæser. At blive til ”Stokastiske papegøjer”, som en gruppe anerkendte amerikanske forskere kalder det. Hvad vi tror, er saglige svar, kan være det modsatte.
Umulige at kontrollere
Som almindelig dødelig er det helt umuligt at se – eller kontrollere – hvordan en robot er blevet trænet oprindeligt, og hvordan den har videreudviklet sig. For netop denne træning ved at vægte indhold gennem komplicerede modeller er en af de store konkurrenceparametre mellem de konkurrerende alternativer. Og dermed reelt hemmelige.
Tit er man ikke engang klar over, at man taler med en robot. Som danske Twitter-brugere oplevede, da de blev narret af en ChatGPT-robot, som TV 2’s Søren Pedersen havde fremstillet som et juleferieprojekt.
Selv hvis man ved det, kan man glemme det. Som da magasinet CNet ikke fangede banale fejl i tekster skrevet af kunstig intelligens.
Kriminelle tager teknologien til sig
Den selvsamme Søren Pedersen indrømmede på Twitter, at han var lige ved at blive snydt af en gruppe afrikanske hackere, som nu bruger kunstig intelligens til at producere snydetekst, som er langt bedre, end det de kan i dag.
Der er ingen (lande)grænser for, hvor hurtigt disse teknologier vil blive brugt – og misbrugt. Og de kriminelle er allerede i gang.
De store vil blive større
Store virksomheder som Microsoft har allerede investeret meget store formuer i disse teknologier. Og Microsoft er villig til at investere 10 milliarder dollar yderligere i den lille virksomhed OpenAI, skriver Reuters.
Det understreger med alt ønskelig tydelighed, at disse teknologier for længst er kommet ud af laboratorierne og nu tages i brug og overtages af de store. Stater og virksomheder.
Hvor slemt kan det blive?
Der er mange sørgelige eksempler på, hvordan medier – og herunder også sociale medier – har medvirket til forsøg på alt lige fra demokrati-omvæltning til folkedrab. Som stormen på kongressen og den voldsomme vækst i såkaldt ”hate speach”, som FN finder er et stort problem i dag. At store stater allerede har taget disse muligheder til sig, kan ses i de russiske troldehære. Med kunstig intelligens vil disse banditter blive meget mere effektive.
Og husk: De nye teknologier er umulige af gennemskue og svære at genkende. Derfor kan skaderne i vores samfund blive enorme. Hvis vi ikke gør noget
Så Natasha: Hvad kan og vil it-industrien gøre for at påvirke denne udvikling i en bedre retning? Ellers er det at bede ræven om at vogte høns?
Natasha Friis Saxbergs svar til Per Palmkvist Knudsen kan læses her.
Per Palmkvist Knudsen er en af de meste erfarne digitaliseringseksperter i Danmark og har arbejdet i ledende stillinger hos bl.a. Datacentralen, Devoteam/Fischer & Lorenz, Krak, Virk.dk og JP/Politikens Hus.