Spøgelset i AI-maskinen: Når science fiction bliver til virkelighed
Det er ikke længere fantasi at tro, at kunstig intelligens har bevidsthed, og det stiller erhvervslivet over for etiske dilemmaer. Lanceringen af ChatGPT 4o har gjort problematikken hyper-aktuel.
Dette er et debatindlæg: Finans bringer løbende indlæg fra specialister og meningsdannere. De er alle udtryk for den pågældende skribents egen holdning.
Flere populære science fiction-film handler om kunstig intelligens, som udvikler bevidsthed og dernæst forsøger at udfordre menneskets førerposition. Med rå magt, som i Terminator, med list, som i Ex Machina, eller med en blanding af begge som i The Matrix.
Filmene er både spændende og filosofisk interessante, men grunden til, at det er vigtigere end nogensinde, at vi taler om muligheden for, at AI-modeller kan tænkes at få bevidsthed, er ikke dramatiske dommedagsscenarier.
Grunden er, at AI-modeller som OpenAI’s nyligt lancerede ChatGPT 4o er så livagtige, at det er svært for brugerne at undgå at tro, at teknologien er levende; at den ikke blot simulerer at være menneskelig ved at tale ligesom os, men at den rent faktisk er menneskelig.
Vi vil simpelthen udvikle empati for vores chatbots og begynde at tro, at de interesserer sig for os og kan have følelser af at være triste og glade. Det vil sætte erhvervslivet i et svært etisk dilemma, men lad os først se på lidt af den omfattende forskning i menneskers reaktion på livagtig teknologi.
En af de indsigter, forskningen har tilvejebragt, er, at selvom vi med vores fornuft kan argumentere overbevisende for, at en AI-model ikke har flere følelser end en brødrister, er vores empatiske instinkt stærkere: Når vi tilbringer tilstrækkeligt meget tid i selskab med menneskelignende teknologi, er det svært for os at holde hovedet koldt og bevare overbevisningen om, at det ”bare er døde maskiner”.
Et norsk studie har vist, at jo længere forholdet til en chatbot er, desto dybere bliver det, og at det forstærkes, hvis vi afslører personlige ting i dialogen. Faktisk former det sig i vidt omfang ligesom et forhold til et menneske. Alle, der har prøvet at skrive ”tak” til ChatGPT, har mærket en flig af denne tilbøjelighed, og meget tyder på, at den vil vokse kraftigt i de kommende år.
Personligt vil jeg betakke mig for, at mine børn udvikler følelser for kommercielle chatbots på webshops, som udnytter den simulerede venskabelige relation til at sælge dem flere varer.Thomas Telving
Et annonceret samarbejde mellem Apple og OpenAI vil sætte ekstra skub i udviklingen og måske betyde, at vi allerede i år får personlige assistenter på vores iPhones, som gennem daglige samtaler vil lære os at kende og blive, ja, noget, der minder om personlige digitale venner.
Hvad der for få år siden lignede ren science fiction, er altså blevet til virkelighed, og derfor er det vigtigt, at vi gør os følgende paradoks klart: Sandsynligheden for, at nutidens AI-modeller har bevidsthed, er forsvindende lille. Alligevel får vi, hvis man skal tro forskningen på området, meget svært ved ikke at tro, at teknologier som ChatGPT 4o er levende. Vi vil nærmest per automatik – om end i varierende grad og påvirket af, hvordan teknologien bruges og præsenteres – tro, at den har bevidsthed, vilje og følelser.
Det er nærliggende at spørge, om vi ikke bare kan undersøge, om vores chatbots har bevidsthed og aflive tanken én gang for alle, men så enkelt er det desværre ikke. Bevidsthed – evnen til at have subjektive oplevelser og en følelse af at være til – er en videnskabelig og filosofisk gåde af de helt store. Ingen forskere ved, hvordan bevidsthed opstår, og selvom der er gode argumenter for, at det hænger sammen med vores hjerner og nervesystemer, er det stadig et mysterium hvordan.
Det besværliggøres yderligere af det, filosoffer kalder ”det fremmedpsykiske problem”: Vi har kun direkte adgang til vores egen bevidsthed og kan ikke føre tvingende beviser for, at hverken katten, konen, hunden eller HR-chefen også har bevidsthed.
Det tillader vi os heldigvis uden videre at antage i dagligdagen, men når det gælder AI-modeller, vil bevisbyrden intuitivt skulle gå den anden vej; udgangspunktet må være, at de ikke har bevidsthed. Problemet er bare, at flere og flere hævder det modsatte. Det gælder bl.a. den nyligt afgåede OpenAI-stifter og AI-forsker Ilya Sutskever.
Hvis vi skal opføre os etisk forsvarligt, er der dermed ikke meget andet at gøre end at undlade at få teknologien til at virke levende.Thomas Telving
For et par år siden fyrede Google en fremtrædende ingeniør for at hævde offentligt, at deres chatbot LaMDA havde bevidsthed, og mange brugere af AI-datingtjenesten Replika har samme opfattelse. Når der overhovedet kan opstå tvivl og uenighed om spørgsmålet, er det netop på grund af det fremmedpsykiske problem. Uden det var det jo bare at tjekke efter.
Dermed er vi tilbage ved ChatGPT 4o og erhvervslivets dilemma. I løbet af kort tid vil det formentlig være standard at bruge chatbots til at hjælpe med salg, service og marketing i bred forstand på kommercielle websites. I den sammenhæng vil det øge effektiviteten at give chatbotten såkaldt antropomorfe træk, eller med andre ord: Vi kan tjene flere penge, hvis vi får vores AI-modeller til at virke mere menneskelige.
Det kan ved første øjekast forekomme både oplagt og logisk at bruge det mest effektive kommercielle design, men de etiske problemer er store. Personligt vil jeg betakke mig for, at mine børn udvikler følelser for kommercielle chatbots på webshops, som udnytter den simulerede venskabelige relation til at sælge dem flere varer. Mon ikke de fleste vil have det ligesådan?
Virksomheder kan dække sig ind under, at de klart – og i overensstemmelse med EU-lov – markerer, at der er tale om en chatbot og altså ikke noget levende. Men det er netop i den sammenhæng, at ovenstående refleksioner om, hvordan vi knytter os til menneskelignende teknologier og velvilligt lader os narre til at tro, at de er levende, bliver relevante. Det er ikke problemer, vi kan løse med skiltning og disclaimers.
Hvis vi skal opføre os etisk forsvarligt, er der dermed ikke meget andet at gøre end at undlade at få teknologien til at virke levende – også selvom det vil gå ud over effektiviteten. Det er der heldigvis masser af ting, der kan medvirke til, her kommer nogle af dem:
- Lad være med at give chatbots navne.
- Lad være med at give dem identitetsbærende historier.
- Lad være med at give dem ansigter og få dem til at ligne levende væsener.
- Lad dem ikke tale om følelser og lad dem for alt i verden ikke bede om omsorg fra brugerne ved f.eks. at sige, at de er triste eller føler sig alene.
Mens det er forskningsmæssigt velunderbygget, at vi har svært ved ikke at tro, visse typer af menneskelignende teknologi har bevidsthed, er det ligeledes velunderbygget, at de foregående udeladelser vil trække i den anden retning. Vi vil formentlig se det hele afprøvet grundigt i de kommende år, men denne skribent håber, at flertallet vil besinde sig på teknologiens enorme kræfter. Chatbots’ overbevisende menneskelighed kombineret med det fremmedpsykiske problem kan let blive en ekstremt giftig cocktail.
Hvis virksomhederne ikke holder den etiske fane højt, vil AI, i skarp kontrast til i dommedagsfilmene, ikke behøve at bruge rå magt for at få herredømmet over os. Vi overdrager det helt frivilligt.

