Nye virtual reality-briller giver etiske udfordringer
XR-briller og -headsets vil formodentlig give os helt nye teknologiske muligheder og oplevelser, men det er på høje tid med en diskussion om, hvorvidt og i hvilken udstrækning producenterne må høste biometriske data fra brugerne.
Dette er et debatindlæg: Finans bringer løbende indlæg fra specialister og meningsdannere. De er alle udtryk for den pågældende skribents egen holdning.
I de seneste årtier er der blevet investeret massivt i teknologier, som aflæser og kan styres med øjnene, og nu kommer der et kommercielle gennembrud i form af nogle nye virtual- og extended reality-briller og -headsets (XR). F.eks. har Apple annonceret, at deres nye flagskib, headsettet, Vision Pro, der bliver lanceret i 2024.
Disse teknologier vil kunne revolutionere vores færden i den virtuelle verden og øge sammensmeltningen mellem teknologi og menneske, f.eks. ved at give os helt nye oplevelser, når vi ser film eller spiller computerspil. Men teknologiproducenter og -udbydere vil også kunne få mulighed for at høste biometriske data, blandt andet fra vores øjne, som vil kunne udnyttes i en hidtil uset grad.
Det siges, at øjnene er sjælens spejl, og i disse år undersøger den europæiske forskningsgruppe bag projektet, Eyes4ICU, som er finansieret af EU’s Horizon Europe-program, om og i hvilken udstrækning man f.eks. vil kunne bruge digitale data fra vores øjne til at diagnosticere og forbedre vores interaktion og færden i den virtuelle verden.
Ved at bruge kunstig intelligens til at bearbejde de mange informationer fra vores øjne, vil det nemlig ikke blot blive muligt at for at få et indblik i underbevidstheden af hvert enkelt menneske, men også at opdage nogle af de mange sygdomme, som man kan få indikationer af ved at aflæse øjnene, f.eks. demens og diabetes.
Med XR-briller og headsets vil teknologivirksomhederne altså kunne indsamle data, som – i særdeleshed sammenholdt med alle de andre data, som vi i forvejen efterlader i vores digitale liv – vil kunne bruges til at lave mere detaljerede profileringer af hvert enkelt menneske.
Det kan f.eks. være data fra øjnene, som afslører, hvad der tiltrækker brugernes opmærksomhed, hvilket kan give stærke indikationer om alt lige fra politiske holdninger til seksuelle præferencer. Det betyder, at disse teknologier også har et skræmmende potentiale som overvågningsværktøjer.
Derfor bør begejstringen over de nye teknologiske muligheder gå hånd i hånd med både etiske og juridiske diskussioner. I forhold til GDPR og andre love og reguleringer vil det være oplagt at se på, hvorvidt helt almindelige mennesker har forudsætninger for at overskue, hvad deres biometriske data vil eller kan blive brugt til.
Her vil det være oplagt, at politikere og andre beslutningstagere inddrager Dansk Grundforskningsfonds Pionercenter for Kunstig Intelligens, hvor forskere fra landets universiteter har viden, der kan bruges til at træffe informerede og gode valg, så f.eks. børn og unge, som gerne vil bruge XR-briller og headsets til at spille computerspil, ikke afgiver biometriske data, som senere kan blive brugt imod dem.


