I en verden, hvor kunstig intelligens (AI) har revolutioneret alt fra sundhedspleje til finans, står vi over for en afgørende udfordring: Hvordan balancerer vi de utrolige muligheder, som AI tilbyder, med behovet for at beskytte vores grundlæggende rettigheder? EU’s AI-forordning – AI Act, et banebrydende juridisk dokument, sigter mod netop dette. EU’s AI Act repræsenterer et afgørende skridt mod at forme fremtidens digitale landskab, hvor innovation balanceres med etisk ansvarlighed. Ved at etablere klare rammer og regulativer, baner denne forordning vejen for en mere sikker, retfærdig og transparent anvendelse af AI-teknologier, som er afgørende for at Danmark og Europa kan forblive konkurrencedygtige og samtidig beskytte borgernes rettigheder i den digitale tidsalder.
Den risikobaserede tilgang
Det vigtigste element i forordningen er regulering gennem det man kalder en risikobaseret tilgang. Det betyder konkret, at man deler AI-systemer ind i fire risikogrupper: uacceptabel risiko, høj risiko, begrænset risiko og minimal risiko. I den kategori finder man sociale scoring-systemer udført af myndigheder, der kan lede til diskrimination eller systemer, der anvender real-time fjernbiometrisk identifikation i offentlige rum til retshåndhævelse med visse undtagelser.
Høj risiko er systemer, der anvendes i kritisk infrastruktur (fx transport) som kan udgøre en risiko for borgernes sikkerhed. Systemer, der anvendes i ansættelseseprocesser – særligt screening og AI-systemer, der anvendes i vigtige private og offentlige services (fx kredit-scoring). Systemer som chatbots, systemer i computerspil og augmented reality betegnes som begrænset risiko og AI-anvendelser som spamfilte i e-mails og AI-drevne stemmeassistenter betegnes som minimal risiko. Hvis et system havner i gruppen uacceptabel risiko, så bliver det simpelthen forbudt. For højrisikosystemerne fastsætter forordningen strenge krav til gennemsigtighed, sikkerhed og overvågning. Samtidigt stilles der krav til, at højrisikosystmer anvender højkvalitets datasæt for at undgå risici og skævheder. Udviklere og brugere af AI-systemer skal dokumentere og rapportere deres overholdelse af reglerne og endeligt fastlægger forordningen mekanismer for overvågning af markedet for at sikre overholdelse. Systemer i gruppen uacceptabel risiko bliver simpelthen forbudt med forordningen og overtrædelser i højrisikokategorien pålægges pæne bøder.
Etiske og samfundsmæssige overvejelser
For at beskytte EU-borgernes rettigheder forsøger forordningen samtidigt at imødegå de etiske udfordringer og samfundsmæssige risici, som AI indebærer. Forordningen arbejder i samspil med GDPR for at beskytte persondata og sikre, at AI-systemer håndterer disse data forsvarligt. Der er som nævnt ovenfor, strenge krav til kvaliteten af datasæt anvendt i AI-systemer for at minimere risikoen for bias og sikre, at systemerne ikke diskriminerer. Og så indeholder forordningen klare ansvarlighedsrammer for udviklere og brugere af AI-systemer, herunder krav om gennemsigtighed og muligheden for at forklare AI-beslutninger.
Stimulering af innovation
De mest vidtgående begrænsninger på AI-systemer er forbeholdt for de systemer, der vurderes at være uacceptabel- eller højrisiko. Derudover skitserer AI Act oprettelse af det man kalder ”regulatory sandboxes” dvs. et kontrolleret miljø, hvor udviklerne kan teste deres innovationer under tilsyn. Derudover åbner EU muligheden for at øge investreringer i AI-forskning med det formål at hjælpe særligt mindre virksomheder med at leve op til kravene i AI Act. Der åbnes for støtte til uddannelsprogrammer med fokus på AI-udvikling. Endeligt vil EU gennem internationale partnerskaber og globale fora arbejde for at forme en global standard for AI-udvikling og brug. Den balancerede tilgang til regulering er for mig at se den rigtige.
Forskellige tilgange til regulering
EU’s tilgang til regulering adskiller sig markant i sin risikobaserede tilgang og i det hele taget som en del af EU’s samlede digitale strategi, der også omfatter forordninger om Cyber Sikkerhed og modstandsdygtighed af digitale systemer, hvor man finder de skrappe regler, der svarer til reglerne indenfor GDPR. Den amerikanske regulering har indtil for nyligt fokuseret mest på at stimulere udviklingen og at virksomhederne selv skulle forpligte sig til at leve op til en række branchestandarder udviklet på baggrund af det man kalder en ”AI Bill of Rights” svarende til tillæggene til forfatningen om borgernes rettigheder – ”Bill of Rights”. Præsident Bidens nyligt udstedte bekendtgørelse om AI sætter dog lidt flere rammer og specificerer, hvilke myndigheder der har tilsynspligt i forhold til hvad. Kina, der kan betragtes som den tredje førende nation på regulering, har et stærkt fokus på overvågning af udviklingen af AI med strenge indberetningspligter. Fokus her er, at systemerne lever op til partiets socialistiske ideer, mens innovationen stimuleres
Investeringerne i AI er massive
Hidtil har problemet været, at man indenfor industrien ikke har følt at investeringerne i udviklingen af AI i Europa har været noget nær tilstrækkelig. Det fremgår af EU’s ”Coordinated Plan on AI”, at Kommissionen ønsker at man fremover investerer 1 mia. Euro om året fra Horizon Europe og Digital Europe-programmerne. Samtidigt har man ovenpå Covid-pandemien oprettet en genoprettelses og modstandsdygtigheds mekanisme, der også indeholder store midler, der potentielt kan investeres i AI. Det er dog op til de enkelte medlemsstater, hvad de søger penge til. Frankrig har alene afsat 1.5 mia. Euro til at føre den franske AI-strategi ud i livet. Tyskland planlægger at investere 3 mia. Euro i forskning. I Danmark har regeringen samlet afsat 200 mio. Euro til AI-forskning og pilotprojekter i den ”Nationale Strategi for Kunstig intelligens”. Til sammenligning har Kina afsat 2,1 mia dollars til en AI centreret teknologi park og oprettet en fond på 16 mia. dollars. Dertil skal lægges private investeringer, der er store. Præsident Biden har i sit 2024 budget beregnet mere end 750 millioner dollars. Dertil skal lægges store venture capital investeringer. 2018 toppede investeringerne med 8 mia. dollars.
En global etisk ansvarlig tilgang til AI
Nu kan man jo dømme selv ud fra tallene, men jeg mener ikke man kan sige, at alvoren ikke er gået op for de europæiske lande. Selv indenfor industrien er man enig om, at regulering er nødvendig. Det kan være problematisk, hvis lovgivningen gør det for dyrt og kompliceret for startup-virksomheder, at leve op til kravene og dermed spænder ben for deres innovation. AI Act er endnu ikke vedtaget og er på det seneste stødt ind i problemer netop i forhold til regulering af foundation models, som er et af områderne, hvor mange startups opererer. Man kan ikke sige, at AI Act er fejlfri, men det er efter min mening det bedste bud på en vej til at sikre etisk ansvarlig udvikling og samtidigt skabe rum for innovation også set i sammenhæng med andres områders AI regulering. Jeg ser også tegn på, at fx USA i en mindre skala er på vej i en lignende retning i hvert fald i forhold til tilsynsvinklen og AI Safety Summit, der blev afholdt tidligere på året i UK er endnu et udtryk for, at der i hvert fald er nogle lande, der ønsker en etisk ansvarlig tilgang til udviklingen af AI.