Et AI-system bearbejder informationer ud fra bestemte datakilder. Både udviklingen, implementeringen og kontrollen af AI er afgørende for, om dit AI-system træffer beslutninger, der matcher din virksomheds værdigrundlag og samtidig er etisk korrekt og ansvarligt at bruge. Her er det bl.a. vigtigt at indføre kontrol, tydelig ansvarsfordeling og kommunikation om brugen data samt en sporbarhed i algoritmernes beslutninger, der også sikrer at lovgivning overholdes.
Herunder får du fem gode råd til, hvordan din virksomhed kan sikre, at I anvender AI og kunstig intelligens ansvarligt.
Kontrol
Algoritmerne skal løbende kontrolleres
Mange danske virksomheder er allerede i gang med at afsøge potentialet ved brug af kunstig intelligens. I nogle virksomheder kan digitale assistenter lette sagsbehandling, og i andre kan intelligente produkter forudsige vedligehold og dermed holde driftsomkostningerne nede. Fælles for løsningerne er, at AI-teknologien kan genkende mønstre og ud fra dette anbefale handlinger.
For at arbejde ansvarligt med AI, er det afgørende, at algoritmen fodres med korrekt data, og at virksomhederne løbende kontrollerer, at AI-modellen rådgiver korrekt.
Det er vigtigt at gøre sig klart, at hvis man benytter forkert læringsdata, når man træner sin AI-model, kan den blive biased og rådgive forkert. Derfor bliver virksomheder nødt til at overvåge algoritmen, og den kontrol skal varetages af eksperter med den nødvendige indsigt.
Ansvar
Sørg for at have en tydelig ansvarsfordeling omkring virksomhedens AI-setup
I relation til rådet om at kontrollere AI-løsningerne er det vigtigt at den enkelte organisation har en klar fordeling af ansvarsområder i forbindelse med AI. Hvem kontrollerer algoritmerne? Hvem formidler resultaterne? Hvem har det overordnede ansvar?
Et væsentligt element i at arbejde ansvarligt med AI i en virksomhed er ledelsens engagement. Ledelsen skal drøfte de etiske og moralske konsekvenser ved brug af AI og udarbejde et kodeks, der både skal kommunikeres internt og eksternt.
Sporbarhed
Indfør et revisionsspor, så algoritmernes resultater kan spores
Forståelse for algoritmernes anbefalede handlinger er afgørende, hvis en forbruger klager over en afgørelse i fx en forsikringssag eller i en kreditvurdering. I disse sager vil det som regel være socioøkonomisk data, der er udslagsgivende i en anbefalet handling.
Her er det væsentligt, at en afgørelse kan spores via et revisionsspor, så det er muligt at forklare, hvorfor en beslutning er blevet truffet.
AI-teknologien må ikke befinde sig i en sort boks, hvor man ikke ved, hvad der sker. Det er vigtigt, organisationen får tænkt et revisionsspor ind, så medarbejderne altid kan forstå og forklare en beslutning.
Formidling
Kommuniker tydeligt til brugeren, hvordan data anvendes og fortolkes
Medarbejderstabens kompetencer skal opbygges, så de personer, der skal formidle algoritmernes anbefalinger – det kan være sagsbehandlere i forsikringsbranchen eller rådgivere i en bank – har en dyb forståelse for, hvordan et resultat er frembragt. Der skal være en menneskelig forståelse for og kontrol med AI-teknologien.
En anden betydelig del af formidlingsprocessen omkring brug af kunstig intelligens er i relation til brugerne. Her er det essentielt, at virksomheden har overblik over almindelige persondata og personfølsomme data på tværs af dokumenter, e-mails og i virksomhedens databaser. Mange AI-produkter og -løsninger baserer sig på personlige data, måske fra et sportsur, et kundeforhold eller en forsikring, og det er vigtigt, at virksomheder gør det helt tydeligt, hvordan de bruger data. Ellers kan der ske et tillidsbrud, og det reagerer forbrugerne prompte på. Virksomhederne er afhængige af, at brugerne frivilligt vil afgive data, så virksomhederne kan udvikle de bedst mulige løsninger og opnå effektivisering og løft af produkternes kvalitet.
Det er væsentligt at sikre overblikket over hvilke dokumenter, der indeholder persondata, samt at disse dokumenter håndteres i overensstemmelse med GDPR-reglerne. PwC’s GDPR Scanner har netop til formål at monitorere de datakilder, som virksomheden udpeger - det kunne for eksempel være e-mails, filservere, systemer eller harddisken på medarbejdernes egne PC’er. Herefter scanner GDPR Scanneren nye data op imod GDPR’s regelsæt og tagger de data, der kunne være personoplysninger.
Lovgivning
Organisationers brug af AI skal følge gældende lov
Virksomhederne skal stræbe efter at udvikle, implementere og bruge AI-løsninger, der både er moralsk ansvarlige og kan forsvares juridisk og etisk. Det kan være en udfordring at omsætte etiske principper til konkrete handlinger, der påvirker de daglige beslutninger. Her hjælper det at udvikle et etisk kodeks, som omtalt i punkt to.
I forhold til den gældende lovgivning, skal virksomheder løbende overvåge det lovgivningsmiljø, de opererer i og forstå, hvordan nye reguleringer kan påvirke forretningen i fremtiden.