Anmeldelser

Den AI vi har og den AI vi burde ønske os


Gary Marcus er ikke voldsomt kendt i Danmark – ingen af hans bøger er oversat til dansk og det er nok også tvivlsomt om hans nyeste ”Taming Silicon Valley” bliver det. Det er for så vidt både godt og skidt. Skidt fordi Marcus er en vigtig stemme i kritikken af Big Tech og forhastet AI-udvikling. Godt ud fra den betragtning, at vi har de ekstremer i debatten om AI i Danmark, som vi ser i USA. 

Gary Marcus er psykolog og cognitive scientist – det vil sige, at han har forsket i muligheder og begrænsninger indenfor menneskelig kognition, altså det, som handler om tænkning og erkendelse i modsætning til følelser, vilje eller drifter. Og så har han arbejdet med AI i en årrække blandt andet gennem virksomheden Geometric Intelligence, der senere blev opkøbt af Uber.

Det har ført ham frem til en meget kritisk position i forhold til hele hypen omkring AI. Han er fortaler for en stærk regulering på området og han var en af underskriverne på det åbne brev på initiativ af Future of Life Institute fra 2023, hvor man opfordrede til en seks måneders pause for arbejdet med træning af AI-modeller kraftigere end GPT-4.

Og det er den kritik, som han folder ud i sin seneste bog, der kom i september 2024. Bogen hedder som nævnt ”Tamin Silicon Valley” – at tæmme Silicon Valley – og det er også det bogen handler om. At tøjle det mindset, som han ser blandt tech giganterne og som efter hans opfattelse er decideret farligt. 

Hans udgangspunkt er: 

  1. Generativ AI er en teknologi præget af fejl
  2. Producenterne taler om ansvarlig AI, men det matcher ikke deres handlinger
  3. Vi er på vej mod et AI oligarki

Han lægger ud med at karakterisere de tolv største trusler, som generativ AI skaber, som desinformation, markedsmanipulation, øget kriminalitet, bias og diskrimination, at vi stoler for meget på usikre systemer og miljømæssige omkostninger. Så er rammen ligesom sat.

Dernæst går han videre til at beskrive den udvikling, der har drevet virksomhederne i Silicon Valley fra et muligvis idealistisk udgangspunkt til situationen i dag og han identificerer årsagen: penge. 

Det, der ændrede sig med finanskrisen, var adgangen til ubegrænset kapital stort set uden omkostninger. Det medførte et skift i værdier. Teknologivirksomheder skiftede en masse fra at fokusere på empowerment og produktivitet, som skaber positive-sum-resultater, til at udvinde værdi fra brugere og kunder, der uvægerligt er et nulsumsspil. Hvorfor? Fordi udvinding var hurtigere og gav større økonomiske gevinster,” skriver Marcus.

Han mener, at teknologi virksomhederne solgte deres uafhængighed og deres ønske om at arbejde for det fælles bedste til fordel for finansiering af deres produktudvikling. Det har ført til at teknologivirksomhederne, efter Marcus mening, manipulerer vores forståelse af dem, så de kan tjene endnu flere penge. Accelerationisme – altså det synspunkt, at AI udviklingen skal kunne ske uden begrænsninger af nogen art – har udelukkende til formål at gøre de nuværende AI investorer og udviklere rige ved at skærme dem for ansvarlighed. 

Gary Marcus’ udgangspunkt er, i modsætning til accelerationisterne, at regulering historisk set har været afgørende for at fremme nye teknologivirksomheder. Indtil man lovgav på områderne, så betød konkurrencen for eksempel indenfor tv- og flybranchen, at forskellige konkurrerende virksomheder blokerede for hinandens produkter og dermed for branchens vækst. Desværre, siger han, så er dagens lovgivere i USA blevet forblændet af tech industriens løfter og har undladt at tilpasse lovgivningen. Resultatet er, at sociale medier og nu AI udviklere er ansvarsfri i forhold til indhold, der bringes på deres platforme og har AI udviklerne har fuldstændigt frie hænder til at træne deres produkter på vores alle sammens materiale og ikke bundet af opretshavslovgivningen. Og at tech virksomhederne nu gennem mange år invaderer vores privatliv uden at det har konsekvenser. 

Der er brug for åbenhed, argumenter Marcus. Åbenhed omkring hvilke data, systemerne trænes på, åbenhed i algoritmerne (ikke mere blackbox), åbenhed om at kilden er AI, åbenhed om miljømæssige og brugen af mennesker i træningen og endelig skal virksomhederne være åbne og ærlige omkring de risici, de ser i deres systemer. Virksomhederne skal gøres ansvarlige for de skader, som deres teknologi forvolder.

Marcus citerer en forskningsartikel fra MIT, der for nyligt brugte en tankevækkende metafor for hvornår brugeren er ansvarlig og hvornår producenten er ansvarlig: ”Man kan ikke holdes personligt ansvarlig for at stikke en gaffel i en brødrister, hvis hverken brødristernes funktion eller elektricitetens farer er alment kendt… Udbyderen af AI-systemet bør i de fleste tilfælde holdes ansvarlig for et problem, medmindre de kan påvise, at brugeren burde have vidst, at en given brug var uansvarlig og ikke kunne forudses eller forhindres.

Derfor er han også en stor fortaler for teknologiforståelse, som et fag i skolen på alle niveauer. Marcus mener, at der skal indføres et uafhængigt tilsyn, der skal sikre, at tech virksomhederne overholder lovgivningen. De frivillige ordninger fungerer ikke. 

Og så skal der gives incitamenter for at udvikle ansvarlig AI. Incitamenter for eksempel gennem skatteregler, der tilskynder til, at brugernes privatliv respekteres at besværliggøre produktionen af mis- og desinformation og måske endda til at teknologien bliver klimaneutral.

Marcus opstiller en liste over, hvad det er for en AI, vi burde ønske os og hvad det kræver at få den AI. På den måde bliver bogen i langt højere grad en opfordring til at udvikle ansvarlig AI og et realitetscheck i forhold til den herskende holdning i USA om, at man skal regulere industrien så lidt som muligt. Det er synd, hvis bogen ikke får en større udbredelse i Danmark og Europa, for den støtter faktisk op omkring den europæiske tilgang til at regulere omkring AI som et redskab til at imødegå de konsekvenser vi indtil nu har set af teknologien og de trusler og risici, vi står overfor. 

0 notes
10 views

Write a comment...

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *