Tema: Bias i AI

Bias i AI: Identificering og måling af bias


Kilde: iStock
   Læsetid 11 minutter
Array

Det­te er anden del af se­ri­en ”Bias i AI”, hvor jeg vil se nær­me­re på bias, hvad er det og hvil­ke kon­se­kven­ser har det. Du kan læse første del her.

TL;DR: Fire hovedpointer

  • Diversitet i træningsdata og valideringsmetoder er afgørende for effektivt at identificere og overkomme bias i AI-systemer.
  • Anvendelse af specifikke metrikker og værktøjer såsom “Disparate Impact” og “Equalized Odds”, samt brugen af AI Fairness 360 toolkit, understøtter en dybdegående måling og udbedring af bias.
  • Reelle eksempler på bias i AI, som ansættelsesalgoritmer og ansigtsigenkendelsessoftware, fremhæver de praktiske konsekvenser af bias, hvilket nødvendiggør kontinuerlig opmærksomhed og handling for at sikre fairness.
  • En socio-teknisk tilgang er nødvendig for at adressere de etiske og juridiske udfordringer ved bias i AI, idet både teknologiske løsninger og bredere sociale hensyn skal inddrages for at fremme retfærdighed og ansvarlighed i AI-udvikling og -anvendelse.

I vores i stigende grad digitaliserede verden, hvor kunstig intelligens (AI) i stigende grad former vores beslutninger, services og fremtid, står vi over for et paradoks. AI’s potentiale til at forbedre effektiviteten og præcisionen i alt fra sundhedspleje til finansielle tjenester er uomtvisteligt. Men med denne teknologis magt følger også risikoen for bias – en skævhed, der kan føre til uretfærdige resultater og diskrimination. I denne artikelserie har vi allerede udforsket, hvad bias i AI indebærer, samt dets vidtrækkende konsekvenser. Nu vender vi fokus mod de første skridt i kampen mod uretfærdighed: identificeringen og målingen af bias. Dette arbejde er ikke blot teknisk nødvendigt; det er fundamentalt for at sikre, at AI-teknologier udvikles og anvendes på en måde, der respekterer og fremmer retfærdighed og inklusion. Ved nøje at undersøge, hvordan vi kan opdage og kvantificere bias, baner vi vejen for mere retfærdige AI-systemer – en indsats, der er afgørende for at opretholde tillid og integritet i den digitale tidsalder.

Identificering af bias i AI-systemer

Identificering af bias i AI-systemer er et kritisk skridt i at sikre retfærdighed og nøjagtighed i deres anvendelse. Der findes flere metoder og teknikker til både opdagelse af bias i datasæt og afsløring af bias i algoritmer.

Forskere ved MIT, i samarbejde med Harvard University og Fujitsu Ltd., har fundet, at diversitet i træningsdata har en stor indflydelse på, om en neural netværk kan overkomme bias. En vigtig observation er, at mens datasæt-diversitet kan forbedre netværkets evne til at generalisere og dermed overkomme bias, kan for meget diversitet nedsætte netværkets præstationer. Derudover har det specifikke træningsmetoder og typer af neuroner, der udvikles under træningsprocessen, betydning for netværkets evne til at overkomme bias.

Internetmediet Datafloq fremhæver også vigtigheden af data valideringsmetoder for at sikre nøjagtighed, fuldstændighed og relevans af AI-datasæt. Disse metoder inkluderer dataområdevalidering, som identificerer outliers i træningsdatasættet, dataformatvalidering for at sikre konsistent og korrekt struktureret data, og datatypen validering for at bekræfte, at korrekte datatyper er til stede i de rigtige datafelter.

I et blogindlæg diskuterer Twine netværket (et netværk af kreative tech-freelancere) forskellige typer af bias, der kan opstå i dataindsamlingen og bearbejdningen, herunder samfundsmæssig bias, udeladte variable bias, feedback loop bias og systemdrift bias. Det understreger vigtigheden af en omhyggelig dataindsamling, forbehandling og analyse for at identificere og rette bias. Dette indebærer en nøje undersøgelse af, hvor dataindsamlingen kan introducere bias, såvel som bevidsthed om, hvordan data forberedelsen og analysen kan bidrage til yderligere skævheder.

Måling af bias

For at måle bias anvendes en række metrikker og benchmarks, som hver især fokuserer på forskellige aspekter af bias og fairness. En vigtig metrik er ”Disparate Impact”, som tjener som den nuværende juridiske standardmetode til at detektere bias. Disparate Impact anvender en “80 procent” test, som oprindeligt blev udviklet fra Title VII i den amerikanske Civil Rights Act fra 1964. Denne test sammenligner udvalgsrater mellem privilegerede og underprivilegerede grupper for at identificere signifikante forskelle i resultat. En ratio under 80% indikerer tilstedeværelsen af bias. Det vil sige, at den fx også kan måle udvalgsrater mellem mænd og kvinder eller unge og gamle.

En anden metode er ”Equalized Odds”, som sigter mod at ligestille nøjagtigheden af forudsigelser for alle demografier. Denne metode kræver, at sandsynligheden for en bestemt forudsigelse ikke påvirkes af beskyttede attributter. Ved at fokusere på både de positive og de negative resultatrater (TPR og FPR) for hver gruppe, sikres det, at modellen ikke kun præsterer godt for majoritetsudfaldsklassen.

Flere værktøjer og kits er udviklet for at assistere i identificering og imødegåelse af bias i AI-modeller. AI Fairness 360 toolkit fra IBM, Fairness Indicators fra Google, og Fairlearn fra Microsoft, som alle tilbyder et bredt udvalg af metrikker og datasæt til evaluering af bias i modeller. Disse værktøjer tillader brugere at evaluere modeller ud fra forskellige fairness-metrikker og giver indsigter, som kan guide udvikling af mere retfærdige AI-systemer.

Eksempler på bias i AI

Der er adskillige eksempler, hvordan bias i AI har meget virkelige konsekvenser i den virkelige verden.Amazon opdagede bias i deres ansættelsesalgoritme, der favoriserede ansøgninger baseret på ord oftere anvendt af mænd, hvilket resulterede i en nedvurdering af kvinders CV’er. Dette ledte til, at de stoppede brugen af algoritmen.

Princeton University’s forskning på maskinlæringsalgoritmer viste, at europæiske navne blev opfattet som mere behagelige end afroamerikanske navne, og at “kvinde” og “pige” var mere tilbøjelige til at blive associeret med kunst end videnskab og matematik, hvilket afspejler eksisterende racemæssige og kønsbaserede fordomme.

Latanya Sweeney fra Harvard fandt, at søgeforespørgsler på afroamerikanske navne oftere returnerede annoncer for anholdelsesrekorder sammenlignet med hvide navne, hvilket demonstrerer en forskelsbehandling i mikromålretningen af annoncer.

Joy Buolamwini fra MIT opdagede, at kommercielt tilgængelig ansigtsigenkendelsessoftware havde svært ved at genkende mørkere hudfarver, hvilket understreger behovet for mere mangfoldige træningsdatasæt for at forbedre nøjagtigheden for alle hudfarver.

COMPAS-algoritmen, anvendt til at forudsige sandsynligheden for, at en tiltalt ville begå yderligere forbrydelser, viste sig at være biased mod afro-amerikanere, hvilket førte til, at afroamerikanere oftere fik tildelt højere risikoscoringer end hvide, selvom de havde samme sandsynlighed for at genovertræde.

Retfærdighed, ansvarlighed og menneskelig indflydelse

Etiske og juridiske perspektiver på bias i AI-systemer fokuserer på de dilemmaer og udfordringer, som opstår ved forsøget på at identificere, måle og adressere bias. Den etiske dimension af AI-udvikling og anvendelse berører dybtgående spørgsmål om retfærdighed, ansvarlighed og menneskelig indflydelse, mens juridiske aspekter dækker lovgivning og regulativer, der sigter mod at indramme teknologiens brug på en ansvarlig måde.

I denne forbindelse er det vigtigt at forstå, at vi lever i en verden af menneskelig bias, hvilket kan bane vejen for bias i AI. Uden principperne for etisk AI, som omfatter aspekter såsom forklarlighed, sikker AI, privatlivets fred, fairness og menneskelig tilsyn, er der en betydelig risiko for, at vores fremtidige samfund ikke kun vil videreføre historiske menneskelige biases, men også risikerer at forværre disse skævheder. Dette skyldes, at AI-teknologier ultimativt er udformet, specificeret og overvåget af mennesker med alle deres fejl, hvilket ubevidst kan føre til, at vi indarbejder vores biases i de systemer, vi skaber.

Juridisk set sætter Thomson Reuters fokus på, at fremvæksten af AI-teknologier rejser nye udfordringer i forhold til at regulere og sikre retfærdighed og ansvarlighed. Den Europæiske Kommission tog i 2021 et markant skridt ved at lancere sine første juridiske retningslinjer for AI samt en koordineret plan med medlemsstaterne, hvilket angiver en risikobaseret tilgang, der stiller strenge krav til AI-systemer baseret på et foruddefineret risikoniveau. Dette initiativ forbyder øjeblikkeligt AI-systemer, som betragtes som en trussel mod sikkerheden, livsgrundlaget og rettighederne for mennesker – herunder systemer, der manipulerer menneskelig adfærd, omgår brugernes fri vilje og tillader social scoring af regeringer.

National Institute of Standards and Technology (NIST) fremhæver også behovet for at anerkende, at AI fungerer i en større social kontekst, og at rent tekniske løsninger ikke fuldt ud kan løse problemet med bias. En “socio-teknisk” tilgang til afhjælpning af bias i AI, der indebærer en anerkendelse af, at AI opererer i en bredere social kontekst, er afgørende. Denne tilgang kræver inddragelse af eksperter fra forskellige felter og lytter til andre organisationer og samfund om AI’s indvirkning.

Digital dannelse, risikovurdering og transparens

For at tackle fremtidige udfordringer og finde løsninger på bias i AI, fremhæver IBM Policy Lab vigtigheden af at fremme digital dannelse eller AI-kompetencer i samfundet, kræve vurderinger og test for højrisiko-AI-systemer, og sikre AI-transparens gennem offentliggørelse. Desuden understreges behovet for mekanismer, der muliggør forbrugerindsigt og feedback, samt etablering af universelle anvendelsesbegrænsninger for AI for at forhindre skadelig brug. Disse tiltag støttes af lovgivningsmæssige rammer, der kan fremme ansvarlig anvendelse og udvikling af AI-teknologier.

Bias i AI har vidtrækkende konsekvenser for samfundet, da det kan forstærke eksisterende uligheder og skabe nye former for diskrimination. Når AI-systemer, der anvendes i beslutningstagning inden for områder som ansættelse, retsvæsen og sundhedspleje, indeholder bias, kan det føre til uretfærdige udfald for minoritetsgrupper og andre underrepræsenterede samfundsgrupper. Dette kan underminere tilliden til teknologien og forværre sociale kløfter. Derfor er det afgørende at adressere og minimere bias for at sikre, at AI-teknologier udvikles og anvendes på en måde, der fremmer retfærdighed og inklusion i samfundet.

0 notes
98 views

Write a comment...

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *