{{item.title}}
{{item.text}}
{{item.title}}
{{item.text}}
Med den nye regulering kommer der nye og omfattende krav til udvikling og brugen af AI alt efter omfanget af den risiko, som det pågældende system vurderes at udgøre for EU’s borgeres grundlæggende rettigheder. Når forordningen endeligt er vedtaget af EU’s medlemslande, hvilket forventeligt vil ske primo 2024, så vil den være direkte gældende i alle medlemsstater og finde anvendelse (gældende ret) efter en overgangsperiode på ca. to år, således at den vil finde anvendelse i løbet af 2026. Der vil dog for enkelte bestemmelser være en kortere overgangsperiode på seks og 12 måneder, hvilket vil gælde for hhv. forbudt praksis med hensyn til AI-systemer og gennemsigtighedskrav.
I takt med den teknologiske udvikling vurderede man fra EU’s side, at det var nødvendigt at gøre en særlig indsats for at regulere AI. I 2021 fremlagde EU-kommissionen den lovgivningsmæssige ramme for AI i form af en EU-forordning, som skal sikre en harmonisering på tværs af medlemsstaterne – dvs. fælles regler og standarder for alle EU’s medlemslande. Med forordningen forsøger EU-Kommissionen at imødekomme de risici, der er forbundet med brugen af AI-systemer og sikre, at systemerne kan bruges til at udvikle og udbrede sikker og lovlig AI, der respekterer borgernes grundlæggende rettigheder og EU’s værdier.
AI-forordningen er verdens første AI-lovgivning og skal regulere brugen af teknologi, der konstant er i udvikling. Dét har udfordret forhandlingerne i EU. Et af de områder, der har krævet forhandlinger, er definitionen af et “AI-system”, som er afgørende for, hvorvidt forordningen finder anvendelse. I EU-Kommissionens forslag til forordningen var definitionen meget bred og ville også omfatte simple softwaresystemer. Dette er imidlertid blevet indsnævret af Rådet, som læner sig op af OECD’s definition:
Et AI-system er et maskinbaseret system, designet til at operere med forskellige grader af autonomi. Det kan udvise tilpasningsevne efter implementering. Med udgangspunkt i enten eksplicitte eller implicitte mål, analyserer systemet de input, det modtager, for at generere output, såsom forudsigelser, indhold, anbefalinger eller beslutninger. Disse outputs kan påvirke både fysiske og virtuelle miljøer.
AI-forordningen vil gælde for udbydere og brugere, uanset om de befinder sig i EU eller et tredjeland, der bringer et AI-system i omsætning på EU-markedet eller bruger et AI-system. Reelt set vil hele kæden fra leverandør, importør, distributør til brugere være reguleret og omfatte både den offentlige og den private sektor.
De forpligtelser og krav der følger med forordningen afhænger af, hvilken risiko der er forbundet med systemet, herunder for EU-borgeres rettigheder og sikkerhed. Forordningen opererer med fire forskellige kategorier (se listen nedenfor). Jo højere risiko, desto større krav stilles der til systemet, herunder udbydere og brugere. Der vil være specifikke AI-systemer, som udgør en uacceptabel risiko og som dermed vil være forbudte at omsætte og bruge i EU. For andre gælder der særlige og omfattende dokumentationskrav, hvilket betyder, at hvis AI-systemet er kategoriseret som et højrisiko AI-system, vil udbyder være underlagt flere og omfattende krav, som fremgår nedenfor:
For GPAI, som omfatter fundamentsmodeller som fx ChatGPT, vil der også være særlige krav. Foruden gennemsigtighedskrav, som stiller krav om teknisk dokumentation, herunder detaljeret beskrivelse af, hvordan modellen bruges og trænes, vil der også være krav til sikring af, at ophavsretslovgivningen overholdes.
Der stilles strengere krav til GPAI-modeller, der anses for at bære systemisk risiko. Kravene vil indebære evaluering af model, vurdering og mitigering af systemiske risici, gennemførelse af test og indberetning af alvorlige hændelser til myndighederne, krav til cybersikkerhed mv. En model, der bærer en systemisk risiko, er en model, der er trænet med omfattende datamængder, er avanceret og præsterer betydeligt bedre end gennemsnittet. Der lægges med forordningen op til, at en ydeevne på over 10^25 FLOPS, vil bære på systemisk risiko, hvilket kan betyde, at ChatGPT-4 vil blive omfattet af de førnævnte krav.
For alle AI-systemer, der skal interagere med fysiske personer, gælder der et gennemsigtighedskrav, der betyder, at man skal oplyse om, at det er et AI-system som personen interagerer med.
Som vi kender fra GDPR, lægges der op til høje bøder på op til 7 % af den samlede årlige omsætning eller 35 mio euro.
Særligt for højrisiko-systemer er der mulighed for, at EU-borgere kan indgive klager og bede om at få forklaret de beslutninger, der er baseret på disse systemer, og som påvirker deres rettigheder.
AI-forordningen står ikke alene, da der i EU er fremsat forslag til et EU-direktiv (direktivet om AI-ansvar), som skal håndtere erstatningsansvar for EU-borgere, der er ofre for skader forårsaget af et AI-system.
Ligesom alt andet cybersikkerhedslovgivning, vil ansvaret for overholdelse ligge hos ledelsen og være et anliggende for bestyrelsen.
I det omfang at der anvendes personoplysninger til at træne en algoritme, vil GDPR finde anvendelse. Det vil betyde, at principperne om lovlighed, formålsbegrænsning, dataminimering, opbevaringsbegrænsning mv. i GDPR skal overholdes.
I GDPR er AI reguleret i artikel 22: Den registrerede har ret til ikke at være genstand for en afgørelse, der alene er baseret på automatisk behandling, herunder profilering, som har retsvirkning eller på tilsvarende vis betydeligt påvirker den pågældende. Der vil dog gælde nogle enkelte undtagelser til denne ret, men det må anses at kunne påvirke AI-systemer i den forstand, at det kan begrænse brugen af AI-systemer til automatiske afgørelser.
Særligt i forhold til højrisiko AI-systemer vil der også kunne udløses krav om en konsekvensanalyse jf. artikel 35 (DPIA) i GDPR. Det indebærer en analyse af de risici behandlingen medfører, og hvordan risici håndteres, herunder hvordan de kan mitigeres.
Det er også vigtigt at holde for øje, at data der anvendes til at træne algoritmer ikke krænker andres immaterielle rettigheder, herunder ophavsret, varemærker, design og patent, da man kan risikere at blive mødt med krav om erstatning, vederlag og godtgørelse.
Der kan stadig nå at ske ændringer inden forordningen endelig er på plads, men derfor er det stadig vigtigt at forholde sig til, hvad der er på vej.
Aleksandar Predrag Piletich
Anaya Jensen