{{item.title}}
{{item.text}}
{{item.title}}
{{item.text}}
Der findes mange definitioner på kunstig intelligens, men AI handler stort set altid om at få computere og robotter til at gøre ting, som det hidtil kun har været muligt for mennesker at gøre – fx at spille kortspil, køre bil, diagnosticere patienter eller føre en samtale.
AI bliver ofte forvekslet med data analyser (data analytics). Data analyser tager sit afsæt i at opnå en indsigt i data og på den baggrund klarlægge sammenhænge. Det kan fx være mellem en række sociodemografiske kriterier og en eller flere givne tilstande hos en borger, som belyser sammenhænge og afhængigheder. Kunstig intelligens leder derimod frem til en afgørelse med en tilknyttet sandsynlighed: Fx hvis en AI-komponent modtager en strøm af menneskelig tale, vil AI-algoritmen være i stand til at oversætte lyden til tekst og via analyser vælge den eller de sætninger, der har den største sandsynlighed for at være korrekte. Eller hvis en AI-komponent af en læge får en række patient-observationer, så vil AI-komponenten foreslå mulige diagnoser, hver angivet med en vis sandsynlighed.
Den algoritme, der danner grundlag for AI-komponenten, kan være baseret på både sandsynlighed og fakta og ofte i en kombination:
De to tilgange komplementerer hinanden og ofte vil man se at data science kombinerer tilgangene, da man derved får de stærkeste og mest præcise modeller. Såfremt komponenten bliver meget præcis, kan modellen blive autonom, hvilket vil sige, at AI-komponenten kan træffe afgørelser uden menneskelig indgriben.
Der findes en lang række anvendelsesmuligheder for AI, og anvendelsen af teknologien er kraftig stigende. Kunstig intelligens er relevant i alle sektorer og industrier, både hvor teknologien anvendes i løsninger hos slutbrugeren og i organisationers støttesystemer. Af eksempler på anvendelse kan nævnes:
Allerede nu ser vi flere AI-algoritmer i form af digitale assistenter. Disse kan assistere en offentlig sagsbehandler, der skal vælge den bedste indsats til et udsat barn eller til en investor, der skal omlægge sin aktieportefølje. Det kan også være til en læge, der på baggrund af diagnoser skal foreslå behandlingsformer.
Ved profilering anvender man algoritmen til at sætte en label på fx sager, kunder eller klienter for at målrette en indsats. Det kan fx være i forsikringsselskaber, hvor hver kunde får en profil/label ud fra en risikobetragtning. Denne profil har fx betydning, når en forsikringspræmie skal fastsættes, men også når kunden indsender en skadesanmeldelse. Hvis kunden har en lav risikoprofil, så vil forsikringsselskabet bruge få ressourcer på behandlingen, mens en høj risikoprofil betyder en uddybende behandling af skadesanmeldelsen. På denne måde målretter og effektiviserer man indsatsen.
Stadig flere organisationer anvender Robotic Process Automation (RPA), hvor man lader en software robot varetage betjeningen af eksisterende it-systemer. Således kan en software robot udføre standardiserede sagsgange 24/7 i forhold til en række systemer og dermed sikre kvalitet og effektivisering. Nogle sagsgange implicerer vurderinger og afgørelser, som normalt vil blive udført af en ekspert eller sagsbehandler. Disse vurderinger og afgørelse kan man lade understøtte af algoritmer baseret på kunstig intelligens og dermed løfte automatiseringsgraden.
AI bruges til optisk genkendelse i mange forskellige sammenhænge. Fx i forbindelse med optisk kvalitetssikring af svejsninger, identifikation af fodgængere og omgivelser fra selvkørende bilers video, læsning af fakturaer og genkendelse af personer i videoovervågning.
Natural Language Processing (NLP) er oversættelse af talt sprog til tekst. Denne tekst kan derefter analyseres således, at den skaber en mening. Det anvendes fx i telefonbetjening, i talestyrede enheder og i chatbots. I både optisk genkendelse og NLP anvendes mønstergenkendelse, der understøttes af en teknologi, der kaldes ‘neurale netværk’.
AI anvendes også til at skabe prædiktive modeller, hvor fx vedligeholdelsen af produkter effektiviseres. Det kan fx være en elevator-producent, der implementerer sensorer i elevatorerne, der måler på rystelse ved de glidemekanismer, der skal sikre en stabilisering af elevatoren i elevatorskakten. AI-modellen er trænet til på den måde at aflæse mønstre i sensor-signaler og kan afgøre, om det er tid til at udskifte komponenter inden de bryder sammen eller bliver for slidte. Herved kan servicering ske forebyggende og omkostningsfulde nedbrud kan undgås.
Der er mange fordele ved anvendelsen af kunstig intelligens, og teknologien bør inddrages i enhver organisations overvejelser i tilgang til digitalisering. AI kan både have relevans i optimering af processer og betjeningsmodeller, men kan også indbygges i virksomhedens produkter - fx talestyring af produktets funktioner.
Anvendelsen af AI kan give en organisation mange fordele, herunder:
AI vil ofte indgå i et større digitalt økosystem. Det kan fx samtænkes med en virksomheds anvendelse af sensorer i produkter. Produkternes sensorer sender signaler til en stor datahub - en data factory - som virksomheden ejer. Virksomheden har endvidere baggrundsdata om kunden til produktet. Nu kan baggrundsdata og produktets sensordata sammenstilles, og dette datagrundlag kan danne basis for avanceret data analytics samt oplæring af en machine learning model. I en tænkning hvor sensorer/IoT, datahub, wireless transfer samt AI kobles, har virksomheden skabt et digitalt økosystem, der kan give virksomheden en konkurrencemæssig fordel.
Med stort potentiale og næsten ubegrænsede muligheder kommer også en stor risiko og nogle ulemper, hvis AI ikke bruges ansvarligt. Kan vi være sikre på, at AI gennem algoritmer træffer rigtige beslutninger, der stemmer overens med organisationens værdier? Har medarbejdere og kunder tillid til, at deres data behandles fortroligt? Hvordan påvirkes både forretningen, virksomhedens brand og omdømme, hvis AI-systemerne pludselig ikke fungerer optimalt?
Der er mange eksempler på, at AI-modeller baserede på Machine Learning kan blive biased. Det kan især ske, hvis man ikke er opmærksom på, om de data der anvendes til læring, afspejler den virkelighed, som modellen skal operere i. For at kunne identificere bias skal man således vide, hvordan data er indsamlet. Forskning i at undgå bias - og hvordan dette opnås - er stadig nyt. Men en ting er sikkert - man bør løbende teste op imod et retfærdighedsbegreb for undgå bias.
Machine learning modeller er baseret på historiske data. Således vil modellens anbefalinger og konklusioner som udgangspunkt være baseret på en historisk tilgang og opfattelse. Det er en ulempe, hvis man vil anvende modellen på områder, hvor man ønsker en mere progressiv tilgang og udvikling. Lad os rent hypotetisk sige, at man har en model til at foretage domsafgørelser på mindre kriminelle forseelser, så vil en ændret retspraksis ikke blive implementeret umiddelbart i modellen, idet modellen er trænet med historiske data.
En af de ulemper, der ofte beskrives som farlig i forbindelse med anvendelsen af AI, er det forhold, at en afgørelse eller anbefaling ofte kan komme til at fremstå som en Black Box afgørelse. Det vil sige, at det er vanskeligt for fx en sagsbehandler at forklare, hvordan man er nået frem til en specifik afgørelse. Der mangler et afgørelsesspor, så man kan genskabe grundlaget for afgørelse eller anbefaling. Der findes metoder til at skabe et sådant spor, og der bør være stor fokus på at vurdere relevansen af etableringen af dette i udvikling af en model.
Anvendelsen af kunstig intelligens er stadig nyt. Vi kommer til at se en dramatisk udvikling, hvor algoritmerne bliver stærkere, sensorerne, der leverer data, bliver bedre, og computerne, der skal behandle data, bliver stærkere, billigere og mindre. Og vi vil derfor se, at AI bliver stadig mere autonom, hvis vi tillader det.
AI bliver i stadig stigende grad en integreret del af produkter og serviceydelser og vil være med til at øge kvaliteten i fx medicinsk behandling eller øge træfsikkerhed i økonomisk rådgivning, ligesom vi vil se selvkørende transportmidler og avancerede robotter.
Men der er heller ingen tvivl om, at der - i takt med at beregningskraft og algoritmer bliver stærkere - vil opstå behov for regulerende tiltag, hvor der politisk tages stilling til, i hvor høj grad beslutninger i offentlige instanser og i virksomheder må tages af algoritmer baseret på kunstig intelligens.
Kritikere vil af gode grunde beskrive AI som farlig, idet der her er en teknologi, der hvis den ikke bliver anvendt ansvarligt, kan underminere menneskelig beslutningstagning og værdigrundlag. Netop dette skaber et dilemma om, hvordan man sikrer etisk og ansvarlig brug af kunstig intelligens.
Et AI-system bearbejder informationer ud fra bestemte datakilder. Både udviklingen, implementeringen og kontrollen af AI er afgørende for, om dit AI-system træffer beslutninger, der matcher din virksomheds værdigrundlag og samtidig er etisk korrekt og ansvarligt at bruge. Her er det bl.a. vigtigt at indføre kontrol, tydelig ansvarsfordeling og kommunikation om brugen data samt en sporbarhed i algoritmernes beslutninger, der også sikrer at lovgivning overholdes.
Herunder får du fem gode råd til, hvordan din virksomhed kan sikre, at I anvender AI og kunstig intelligens ansvarligt.
Algoritmerne skal løbende kontrolleres
Mange danske virksomheder er allerede i gang med at afsøge potentialet ved brug af kunstig intelligens. I nogle virksomheder kan digitale assistenter lette sagsbehandling, og i andre kan intelligente produkter forudsige vedligehold og dermed holde driftsomkostningerne nede. Fælles for løsningerne er, at AI-teknologien kan genkende mønstre og ud fra dette anbefale handlinger.
For at arbejde ansvarligt med AI, er det afgørende, at algoritmen fodres med korrekt data, og at virksomhederne løbende kontrollerer, at AI-modellen rådgiver korrekt.
Det er vigtigt at gøre sig klart, at hvis man benytter forkert læringsdata, når man træner sin AI-model, kan den blive biased og rådgive forkert. Derfor bliver virksomheder nødt til at overvåge algoritmen, og den kontrol skal varetages af eksperter med den nødvendige indsigt.
Sørg for at have en tydelig ansvarsfordeling omkring virksomhedens AI-setup
I relation til rådet om at kontrollere AI-løsningerne er det vigtigt at den enkelte organisation har en klar fordeling af ansvarsområder i forbindelse med AI. Hvem kontrollerer algoritmerne? Hvem formidler resultaterne? Hvem har det overordnede ansvar?
Et væsentligt element i at arbejde ansvarligt med AI i en virksomhed er ledelsens engagement. Ledelsen skal drøfte de etiske og moralske konsekvenser ved brug af AI og udarbejde et kodeks, der både skal kommunikeres internt og eksternt.
Indfør et revisionsspor, så algoritmernes resultater kan spores
Forståelse for algoritmernes anbefalede handlinger er afgørende, hvis en forbruger klager over en afgørelse i fx en forsikringssag eller i en kreditvurdering. I disse sager vil det som regel være socioøkonomisk data, der er udslagsgivende i en anbefalet handling.
Her er det væsentligt, at en afgørelse kan spores via et revisionsspor, så det er muligt at forklare, hvorfor en beslutning er blevet truffet.
AI-teknologien må ikke befinde sig i en sort boks, hvor man ikke ved, hvad der sker. Det er vigtigt, organisationen får tænkt et revisionsspor ind, så medarbejderne altid kan forstå og forklare en beslutning.
Kommuniker tydeligt til brugeren, hvordan data anvendes og fortolkes
Medarbejderstabens kompetencer skal opbygges, så de personer, der skal formidle algoritmernes anbefalinger – det kan være sagsbehandlere i forsikringsbranchen eller rådgivere i en bank – har en dyb forståelse for, hvordan et resultat er frembragt. Der skal være en menneskelig forståelse for og kontrol med AI-teknologien.
En anden betydelig del af formidlingsprocessen omkring brug af kunstig intelligens er i relation til brugerne. Her er det essentielt, at virksomheden har overblik over almindelige persondata og personfølsomme data på tværs af dokumenter, e-mails og i virksomhedens databaser. Mange AI-produkter og -løsninger baserer sig på personlige data, måske fra et sportsur, et kundeforhold eller en forsikring, og det er vigtigt, at virksomheder gør det helt tydeligt, hvordan de bruger data. Ellers kan der ske et tillidsbrud, og det reagerer forbrugerne prompte på. Virksomhederne er afhængige af, at brugerne frivilligt vil afgive data, så virksomhederne kan udvikle de bedst mulige løsninger og opnå effektivisering og løft af produkternes kvalitet.
Det er væsentligt at sikre overblikket over hvilke dokumenter, der indeholder persondata, samt at disse dokumenter håndteres i overensstemmelse med GDPR-reglerne. PwC’s GDPR Scanner har netop til formål at monitorere de datakilder, som virksomheden udpeger - det kunne for eksempel være e-mails, filservere, systemer eller harddisken på medarbejdernes egne PC’er. Herefter scanner GDPR Scanneren nye data op imod GDPR’s regelsæt og tagger de data, der kunne være personoplysninger.
Organisationers brug af AI skal følge gældende lov
Virksomhederne skal stræbe efter at udvikle, implementere og bruge AI-løsninger, der både er moralsk ansvarlige og kan forsvares juridisk og etisk. Det kan være en udfordring at omsætte etiske principper til konkrete handlinger, der påvirker de daglige beslutninger. Her hjælper det at udvikle et etisk kodeks, som omtalt i punkt to.
I forhold til den gældende lovgivning, skal virksomheder løbende overvåge det lovgivningsmiljø, de opererer i og forstå, hvordan nye reguleringer kan påvirke forretningen i fremtiden.
Partner, Transfer Pricing and Head of Tax Technology & Transformation, PwC Denmark
Tel: 3945 3830