TEMA

AI og etik: Naviger i den nye teknologiske æra


   Læsetid 15 minutter
Array

Dette er første del af en serie om AI og etik. Denne første artikel ser for det første på, hvad er det for etiske problemstillinger, som udviklingen og brugen af moderne AI-systemer, stiller os overfor og for det andet tager den hul på diskussionen om, hvordan vi mere konkret kan navigere i og begynde at håndtere nogle af de etiske problemstillinger. I de næste tre artikler undersøger jeg ansvarlig AI, som et svar på mangel på tillid til AI-systemer, vi ser på AI og etik i en dansk sammenhæng og i den sidste artikel prøver jeg at dykke dybere ned i hvordan vi navigerer i de etiske spørgsmål og hvordan vi konkret udvikler og bruger AI på en etisk måde.

TL;DR: Fire hovedpointer

  • De etiske spørgsmål er kommet i stadig mere fokus i takt med udviklingen af AI
  • AI påvirker alle aspekter af samfundet, hvilket rejser nødvendigheden af at adressere etiske udfordringer såsom bias, autonomi og ansvarlighed.
  • De etiske udfordringer ved udvikling og brug af AI har meget konkrete konsekvenser i den virkelige verden.
  • Løsninger på AI’s etiske dilemmaer kræver dialog og konkrete handlinger

2023 var året hvor kunstig intelligens (AI) for alvor blev en del af vores fælles bevidsthed i kraft af gennembruddet af de forskellige typer generativ AI som fx ChatGPT, Midjourney, Stable Diffusion og mange andre. AI er langt fra et nyt område, men pludseligt har de nye systemer sat fokus på mulighederne og AI er langsomt ved at bevæge sig ind på alle områder af vores samfund. En el af overraskelsen er naturligvis, at langt de fleste af os ikke har været opmærksomme på, hvor udbredt AI-systemer allerede er – særligt i form at behandling af store mængder data med relativt simple machine learning systemer. Her ved indgangen til 2024 viser der sig muligheder for brug af AI-systemer indenfor næsten alle sektorer af erhvervslivet og tanken om en personlig assistent også i privatlivet til arrangering af rejser, organisering af kalender, indkøb og på mange andre områder er langsomt ved at gøre sit indtog hos almindelige mennesker. 

Men den teknologiske udvikling kommer altid med en række etiske spørgsmål. De nye generative AI-systemer stiller spørgsmål til ting som sikring af personoplysninger, når systemerne trænes på og arbejder med store mængder personlig data. Cybersikkerhed er et andet område. AI-baserede systemer kan bruges både til at begå og bekæmpe cyberkriminalitet. Retssikkerhed er et tredje området. Nye biometriske systemer, som fx ansigtsgenkendelse giver muligheder for masseovervågning af borgere. Men ligesom teknologien ikke er ny, så er de etiske spørgsmål også noget, vi har sloges med næsten siden tanken om AI først blev introduceret i 1940’erne.

Videnskabsfolk, virksomheder, journalister og politikere har efterhånden brugt en del tid på at formulere de spørgsmål og udfordringer, som vi står overfor, men hvordan skal vi så navigere i en verden, der i høj grad defineres af disse udfordringer. Hvad er svarene på spørgsmålene og hvordan løser vi de udfordringer?

Nye udviklinger, nye spørgsmål

De første ”rigtige” computere så dagens lys under 2. verdenskrig i 1940’erne og i 1950’erne begyndte man at drømme om at skabe intelligente maskiner og begrebet AI blev en del af vores ordforråd i slutningen af 1950. De første AI programmer kom i løbet af 1960’erne og 1970’erne og med dem begyndte man for første gang at overveje konsekvenserne af, når maskinerne begyndte at efterligne eller overgå menneskelig intelligens. Oppustede forventninger og begrænsede resultater betød manglende interesse og finansiering i 1980’erne og 1990’erne,  men slutningen af 1990’erne bød på forbedret hardware og nye algoritmer, som fx genoplivelsen af neurale netværk vækkede igen optimismen på området og denne gang så vi afgørende gennembrud i 2000’erne og 2010’erne i form af Big Data og forbedring af machine learning. Ansigtsgenkendelse, naturlig sprogforståelse og selvkørende biler var håndgribelige fremskridt. Og med fremskridtene fulgte nye spørgsmål. Big Data og ansigtsgenkendelse rejste spørgsmål om beskyttelse af personlige data og privatlivets fred. Med nye algoritmer kom spørgsmål om bias i algoritmerne og særligt i forbindelse med de selvkørende biler kom spørgsmål om ansvar ind i billedet.

Og samtidigt med udviklingen af teknologien er den blevet langt mere integreret i vores hverdag alt lige fra smartphones til sundhedspleje betyder, at vi konstant konfronteres med de etiske problemstillinger på et personligt plan. Men også på et samfundsmæssigt plan står vi overfor store, eksistentielle spørgsmål. Vi aner konturerne af AI-systemer, der er mere intelligente end mennesker – såkaldt supertintelligens. Allerede spiller AI en stigende rolle på arbejdsmarkedet og betyder det, at vi bliver bedre og mere effektive til vores arbejde eller betyder det at vi bliver arbejdsløse? Kan vi bevare kontrollen over teknologi eller vil AI overtage styringen over os? Disse spørgsmål og andre har sat fokus på regulering i form af bla. lovgivning og branchestandarder for at sikre etisk og forsvarlig brug af AI.

De etiske spørgsmål

I dag står vi derfor overfor en række etiske spørgsmål, som vi skal tage stilling til. Ikke mindst på baggrund af de store sprogmodeller og deres chatrobotter, der er trænet på enorme mængder data – ikke mindst personoplysninger – er sikring af disse oplysninger kommet i fokus. Det hænger sammen med beskyttelsen af borgernes privatliv, der samtidigt er under pres fra de muligheder, som AI-baserede masseovervågningssystemer giver nationer for overvågning af deres borgere. 

I takt med, at AI-systemer vinder frem indenfor bankverdenen, kundeservice, detailhandel, sundhedsvæsenet stiger risikoen også for at fejl, bias, tab og skader også markant og endnu har vi ikke afklaret, hvem der har ansvaret i den type sager. 

Bias er et ord, der bruges hele tiden og det dækker faktisk over flere ting. Grundlæggende betyder det, at der er en ubalance enten i de data, som fx sprogmodellerne eller billed- eller videogenerende AI-systemer er trænet på. Det kan dække over, at der er for mange data om hvide mænd eller for lidt data om kvinder generelt i træningsdata. Disse skævheder, ubalancer eller mangler afspejler den verden vi lever i og de data, som vi generer. Det er derfor også naturligt, at de data modellerne trænes på er skæve, men det kan der tages højde for i træningen.

For nyligt lagde New York Times sag an imod OpenAI – virksomheden bag ChatGPT – for uretmæssig brug af avisens journalistiske produkter. Det er tidligere kommet frem, at GPT-3 og 4, der er sprogmodellerne ChatGPT er bygget på er trænet på store mængder materiale omfattet af ophavsretten. Det drejer sig blandt andet om store mængder fiktions- og fakta bøger. Det har også resulteret i retssager. Det kan være sværere som kunstner at dokumentere at ens kunstneriske produktion har været en del af træningsmaterialet, men hvis det er tilgængeligt i det offentlige rum, som fx på nettet, så er det sandsynligvis. Om det kan rummes indenfor reglerne om ”fair use” – groft sagt svarende til citatretten i Dansk lovgivning – som OpenAI argumenterer for er tvivlsomt, men det skal domstolene afgøre. Omvendt hører det med til historien, at de generative AI-modeller forudsætter træningsdata i form af tekst, billeder, video osv. Det betyder, at hvis vi ønsker at kunne bruge denne type modeller, så skal der findes en løsning på udfordringerne omkring opretshavsret. De første licensaftaler i stil med hvad vi har set indenfor musikbranchen, er begyndt at se dagens lys, men flere mener, at de, på linje med aftalerne indenfor musikbranchen, slet ikke kompenserer rettighedshaverne nok. 

Transparens eller gennemsigtighed i systemerne er et andet meget diskuteret emne. I dag er de fleste algoritmer og AI-systemer i det hele taget lukkede systemer, hvor vi ikke kan gennemskue hvorfor de kommer frem til de løsninger, svar eller afgørelser, som de gør. Når vi så samtidigt i stigende grad tager AI-systemer til hjælp i fx offentlig sagsbehandling, lånesagsbehandling, kriminalitetsbekæmpelse, sundhedsvæsen osv. så stiller det krav til at systemerne kan forklare sig selv for at vi kan se, hvorfor de har truffet de beslutninger det har – særligt hvis der er tale om forkerte beslutninger. 

Jeg har været inde på sikkerheden, der skal være bygget ind i systemerne for at sikre at personfølsomme oplysninger ikke bliver spyttet ud af systemet, men sikkerheden skal også være på plads i forhold til forsøg på indbrud og tyveri af data i systemerne. Dilemmaet her er, at AI-systemer er lige så gode til at opbygge sikkerhed internt i systemet, som det er til at finde måder til at bryde igennem de sikkerhedsforanstaltninger.

Konsekvenser i den virkelige verden

Men hvad er de konkrete konsekvenser af disse etiske udfordringer? Hvad betyder det, at der er bias i AI-systemer? Et eksempel er når algoritmerne bag internetsøgninger på fx Google indeholder skævheder, så kan det give sig udslag i søgeresultater med bias i forhold til køn, der afspejler samfundsmæssige stereotyper. En søgning på ”største ledere gennem tiden” vil sandsynligvis vise en liste, der primært består af mænd.

Ovenfor var jeg inde på, hvordan manglende transparens kan give problemer, når AI-systemer implementeres på flere områder. Et område er retsvæsenet, hvor der er store muligheder for implementering af AI-systemer. Men når systemerne ikke umiddelbart er gennemskuelige, så åbner det op for spørgsmål til retfærdigheden i de afgørelser, som er baseret på AI-systemer og hvor man ikke kan få en forklaring på afgørelsen. Det samme gør sig gældende indenfor behandling af fx låneansøgninger. Afgørelser baseret på uigennemsigtige AI-systemer kan på den måde resultere i uretfærdige eller diskriminerende afgørelser.

Diskussionen om ophavsret, som den fx kommer til udtryk i New York Times retssag mod OpenAI er kun et hjørne af den diskussion. I den sag er der ingen tvivl om, hvem der har opretshavsretten, kun om den er krænket. Generativ AI sætter faktisk bredere spørgsmål ved, hvem der har ophavsretten. Når AI-systemer kan genere billeder og musik, der kan betegnes som en form for kunst – lave nye malerier baseret på tidligere tiders malerier eller afslutte Schuberts uafsluttede symfoni – hvem er så skaberen af værket? Hvem er den kreative skabende kraft? Mennesket, der bruger algoritmen eller algoritmen? I sidste ende stiller det spørgsmålstegn ved selve kunstens essens.

Jeg har været inde på ansvar for tab eller skader som brug af AI-systemer. Allerede her bliver det meget konkret. Et andet eksempel er selvkørende biler, der i realiteten skal være i stand til at træffe moralske beslutninger i trafikken – hvem skal reddes i tilfælde af en ulykke? Hvordan kan man programmere en bil til at træffe den type beslutninger og hvem har ansvaret, når disse beslutninger for meget virkelige konsekvenser – i værste fald i form af tab af menneskeliv?

Navigering i en ny æra

Det efterlader os med spørgsmålet tilbage hvordan navigerer vi i de problemstillinger. Her tænker jeg både på os som individer og på hvordan virksomheder skal navigere i den nye verden. Først og fremmest skal vi være bevidst om teknologiens og dens konsekvenser. Den bevidsthed kommer af uddannelse. Derfor er det vigtigt, at både uddannelsesinstitutioner og virksomheder har fokus på uddannelse omkring AI. Grundlaget kunne være digital dannelse som fast fag i folkeskolen, men bevidstheden skal forankres i alle fag, alle uddannelser. 

Virksomhederne skal tilslutte sig ansvarlige principper for brug af AI, der sikrer transparens, retfærdighed og ansvarlighed. De ansvarlige principper skal også udkrystalliseres i branchestandarder, der skal indgå sammen med lovgivning i fornuftig regulering af området. Det kræver også et samarbejde mellem virksomheder og lovgivere. Branchestandarder og principper skal også sikre, at virksomheder designer AI-systemer med udgangspunkt og ikke mindst diversitet for at modvirke bias. 

Men det er ikke kun virksomheder og lovgivere, der skal snakke sammen. Der skal en bredere dialog til mellem alle samfundsgrupper, virksomheder, politikere og akademikere om hvordan vi skal sikre fornuftig og sikker brug af AI til alles bedste.

Både amerikanske forordninger og den kommende AI-Forordning fra EU taler om overvågning enten i form af eksisterende tilsynsmyndigheder eller det EU kalder regulatoriske sandkasser, der er lukkede udviklingsmiljøer, der føres tilsyn med fra ansvarlige myndigheder. Men virksomhederne bør også selv udføre jævnlige eftersyn af deres systemer for at imødegå fx bias eller for at sikre sikker håndtering af personoplysninger.

0 notes
79 views

Write a comment...

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *