AI Act

Dele af de nye krav er trådt i kraft den 2. februar 2025 – er jeres virksomhed klar?

#
  • 05/02/25

Den 2. februar 2025 markerer en vigtig milepæl for virksomheder, der arbejder med kunstig intelligens (AI) i EU. På denne dato træder de første elementer af AI Act i kraft, specifikt kapitel 1 og 2. Dette betyder, at virksomheder, myndigheder og organisationer skal være opmærksomme på nye regler og forbud, der nu bliver gældende.

Hvad gælder fra 2. februar 2025?

Formålet med AI Act er at sikre, at AI-systemer anvendes på en måde, der respekterer europæiske værdier og regler. AI Act trådte formelt i kraft den 2. august 2024, men vil delvist rulles i gang fra 2. februar 2025 og frem til 2030. 

Kapitel 1 i AI Act indeholder en række generelle bestemmelser, eksempelvis definitionen på et AI-system omfattet af forordningen, men også en konkret forpligtelse om uddannelse af medarbejdere. Kapitel 2 indeholder reglerne om forbudte former for AI-praksis, dvs. AI-systemer med "uacceptabel risiko" bliver forbudte. 

EU-lovgiverne har fundet det vigtigt i lyset af den rivende teknologiske udvikling at sikre, at de mest indgribende og risikofyldte AI-systemer bliver forbudte så hurtigt som muligt, hvilket blev vedtaget til at være seks måneder efter ikrafttræden. Den dato er derfor den 2. februar 2025. 

AI Forordningens klassificering af systemer:

#

Hvilke forpligtelser gælder fra 2. februar 2025

1. Almindelige bestemmelser (Kapitel 1):

  • Formålet, anvendelsesområde og definitioner
  • Krav om AI færdigheder: Virksomheder, myndigheder og organisationer, der udbyder eller idriftsætter et AI-system, skal i videst muligt omfang sikre et tilstrækkeligt niveau af AI-færdigheder hos deres medarbejdere og andre personer, der er involveret i udvikling, drift og anvendelse af AI-systemer. 

2. Forbud mod at omsætte, ibrugtage eller anvende systemer med uacceptabel risiko (Kapitel 2):

  • Forbudt AI-praksis: Det bliver forbudt at udvikle og anvende AI-praksis, der klassificeres som forbudte. Det er AI-systemer, som generelt antages ikke at respektere europæiske værdier, etik og regler, og som eksempelvis kan anvendes til at bevidst eller ubevidst at manipulere en person eller gruppe af personer. Kategorien omfatter også systemer, der udgør en uacceptabel risiko for sikkerhed, sundhed eller grundlæggende rettigheder. 
  • Opsummerende vil AI-systemer være forbudte, hvis de eksempelvis:
  1. Manipulerer folks beslutninger eller udnytter deres sårbarheder.
  2. Evaluerer eller klassificerer personer baseret på deres sociale adfærd eller personlige karakteristika.
  3. Forudsiger risikoen for, at en person begår en forbrydelse baseret på profilering.
  4. Indsamler ansigtsbilleder fra internettet eller CCTV-optagelser uden målrettet samtykke.

Hvad skal virksomheder, myndigheder og organisationer være opmærksomme på fra 2. februar 2025?

Man skal forberede sig på disse ændringer ved at:

  • Implementere uddannelsesprogrammer for medarbejdere for at sikre AI færdigheder.
  • Identificere processer og systemer, hvor AI-systemer omfattet af forordningens regler, anvendes. 
  • Gennemgå og tilpasse AI-systemer for at sikre, at de overholder de nye regler om transparens og forbud mod uacceptabel risiko. 
  • Foretage risikovurderinger af deres AI-systemer for at identificere og mitigere potentielle risici, således at AI-systemet ikke (længere) omfattes af de forbudte praksisser.

Reglerne gælder alle virksomheder, myndigheder og organisationer uanset størrelse, som omfattes af AI Act. 

Særligt om GenAI-teknologier, herunder ChatGPT og Co-pilot 

Hvis der i et AI-system indgår en GenAI-teknologi, og AI-systemet klassificeres som et forbudt AI-system, så vil AI-systemet være forbudt. Det kan også netop være anvendelsen af GenAI-teknologien, der gør, at systemet klassificeres som forbudt. GenAI-systemer kan også i sig selv være AI-systemer, der kan være forbudt efter bestemmelserne. 

Hvis en virksomhed eksempelvis bruger ChatGPT eller Copilot til at gennemføre rekrutteringsinterviews og systemet er designet til at påvirke kandidaternes svar eller vurdere kandidatens troværdighed, kunne dette være i strid med AI Act. For eksempel, hvis AI-systemet bruger manipulative teknikker til at få kandidater til at afsløre personlige oplysninger, som de ellers ikke ville have delt, eller til at påvirke deres beslutninger på en måde, der ikke er gennemsigtig, ville dette være forbudt.  

Hvornår gælder resten af AI Act?

De resterende krav i AI-forordningen vil, som vist nedenfor, træde i kraft løbende over de kommende år.

Skal vi hjælpe jer med at blive compliant med AI Act?

Kontakt PwC’s AI-eksperter, hvis du skal have hjælp til at vurdere, hvorvidt et system er omfattet af forbuddet eller hvis du skal have hjælp til at overholde forpligtelserne til at sikre jeres medarbejderes AI-færdigheder. 

Kursusforløb i ansvarlig anvendelse af AI

Bliv klædt på til at implementere kunstig intelligens i din organisation med afsæt i EU’s nye lovgivning på området AI Act.

Kontakt os

Jørgen Sørensen

Partner, Head of Data Factory & Responsible AI, København, PwC Denmark

2494 5254

E-mail

Martin Bramm

Partner, Legal, København, PwC Denmark

2056 7727

E-mail

Catrine Søndergaard Byrne

Partner, Legal, København, PwC Denmark

2448 9299

E-mail

Anaya Jensen

Manager, Technology & Security, PwC Denmark

2427 5068

E-mail

Følg PwC