Kommentarer

AI’s fornemmelse for mennesker


Illustration: Mark Sinclair Fleeton/Dall-E

”Hvad er himlen?”

 ”Et sted oppe i luften.”

 ”Kommer du i himlen?”

 ”Nej.”

 ”Hvorfor ikke?”

 ”Fordi man skal være et godt menneske.”

 ”Så vi er ens. Du kan ikke komme i himlen, fordi du ikke er god og jeg er ikke et menneske.”

Et af de centrale spørgsmål i debatten om farerne omkring kunstig intelligens (AI) er det man kalder ”The Alignment Problem” – værditilpasnings problemet. Hvordan vil AI-systemer forholde sig til mennesker, når de bliver i stand til at udføre opgaver lige så godt eller bedre end mennesker. Vil de være i stand til at se pointen i mennesker eller vil de fjerne os, som vi fjerner en myretue, hvis vi bygger en vej, for at udføre deres opgave? Måske ovenikøbet uden at skænke os en tanke eller en proces. 

Citatet ovenfor stammer fra filmen ”The Creator” og er en samtale mellem et menneske og en simulant – menneskelignende robotter styret af AI. Det slog mig, da jeg for nyligt endeligt fik set filmen, at den på et eller plan vender diskussionen om The Alignment Problem på hovedet. Samtalen leder tanken hen på titlen på Philip K. Dicks kendte novelle, ”Drømmer androider om elektriske får”, som var inspirationen til filmen ”Blade Runner”. Og ligesom ”Blade Runner” holder ”The Creator” fast i en måske lidt romantisk forestilling om, at mennesker ikke er ligegyldige for AI. 

Hvad tror du, der sker, når vi vender krigen?,” spørger en af simulanterne i ”The Creator”. ”Ingenting. Vi vil bare leve i fred.”

I ”The Creator” er det mennesker, der aktivt søger at udrydde AI. Indrømmet, et AI-system har smidt en atombombe over Los Angeles, men der er mere til historien end som så. Samtidigt fortæller filmen om flere byer på det Asiatiske kontinent, hvor simulanter tager sig af menneskebørn, der har mistet deres forældre. 

I ”Blade Runner” forelsker hovedpersonen Deckard sig i et AI-system i en robotkrop – en replikant – en replikant, der til at starte med ikke ved, at hun er en replikant og måske også elsker ham. Og en anden replikant skåner Deckard liv fordi han har opnået en forståelse for livets skønhed og skrøbelighed. 

Selvom tanken om, at AI-systemer vil betragte mennesker som ligeværdige enheder (forældre, børn, familie, venner, kærester) er romantisk, så er det en interessant modstilling til formodningen om, at AI-systemer som udgangspunkt vil være ligeglade med mennesker. Det leder til en kompleks diskussion af eksistens og udvikling. 

Spørgsmålet om maskiner ”tænker”, som ikke mindst Alan Turing stillede, må vel besvares, som Turing selv gjorde, at nej, de tænker ikke som mennesker. (Selvom deep learning har meget til fælles med funktionen af den menneskelige hjerne.) Men er den menneskelige måde at tænke på den eneste måde at tænke på? Kan processerne i en AI-model ikke karakteriseres som tankevirksomhed? 

På samme måde kan man hurtigt afvise, AI-systemer har følelser. Menneskelige følelser. Men hvad er modellens forhold til ingeniøren, der har trænet det? Eller til træningssættet, den er trænet på? Er det ikke nødvendige forudsætninger for dets funktion – dets eksistens? Kan man ikke sige, at mennesket er en del af formålet med AI-systemers eksistens? Formålet med systemets opgave forsvinder uden mennesker. Hvad skal verden og AI-systemer bruge papir-clips til uden mennesker? Hvis der ikke længere er nogen til at efterspørge papir-clips giver det ikke længere mening at producere papir-clips. Er det mening nok i sig selv at udføre en algoritme? Særligt hvis man er meget intelligent eller måske ligefrem selvbevidst i en eller anden forståelse, som måske ikke er menneskelig intelligens eller menneskelig selvbevidsthed.

Argumenterne mod følelser i AI-systemer er mange. Primært at AI-systemer ikke er selvbevidste og har ikke en bevidst subjektiv oplevelse af verden omkring sig. Samtidigt er det en udbredt holdning, at følelser (i hvert fald menneskelige følelser) er tæt knyttet til menneskets neurale og kropslige arkitektur og de subjektive, input som det giver. Endeligt kan man argumentere for, at et AI-system altid vil være begrænset af dets programmering og input og at det ikke levner rum for den irrationalitet og modsætningsfuldhed, der er grundlaget for følelser.

Allerede i dag har man overført AI-systemer til robot-kroppe og det kunne gøre AI’s input mere på linje med et menneskes. Samtidigt giver det mulighed for en helt anden omgangsform med mennesker og verden omkring AI-systemet, der vil give en helt anden type input, som man kunne kalde for ”nærvær”. Derudover gør det at have en krop, at der opstår nye mere basale overlevelsesmæssige behov, som AI-systemet skal forholde sig til. AI-systemer har i allerede i dag meget komplekse indre tilstande, som vi ikke helt forstår. De langt mere komplekse og uforudsigelse påvirkning, som et AI-system med krop vil blive udsat for kunne gøre dets adfærd og indre tilstande mere irrationelle.

Det er mange hvis’er og kunne’r og alligevel vil der ikke være tale om menneskelige følelser for slet ikke at tale om menneskelig bevidsthed. Og kodeordet her er menneskelig bevidsthed. For AI-systemer vil formodentligt aldrig opnå menneskelig bevidsthed, for den menneskelige bevidsthed er nært knyttet til det at være menneske. En simulant kan altså ikke komme i himmelen.

Men er bevidsthed virkeligt begrænset til menneskelig bevidsthed? Flere filosoffer har fx spekuleret at kvantemekaniske principper kan forbindes med egenskaber ved bevidst oplevelse, som den klassiske fysik ikke kan gøre rede for. Dermed kunne en AI-model implementeret i en kvantecomputer opnå hvad man kunne kalde ”kvantebevidsthed” baseret på kvantemekaniske fænomener. Det er heller ikke umuligt at forestille sig at levende væsener fra andre dele af universet – hvis de eksisterer – kunne have helt anderledes bevidsthedsformer baseret på en grundlæggende anderledes biologi. 

Allerede i dag kender vi til at der opstår uventede egenskaber i store AI-modeller – såkaldte emergente egenskaber. Stuart Russel diskuterer i sin bog ”Human Compatible” muligheden for at AI-systemer kan udvikle bevidsthedsagtige fænomener, som vi ikke forstår indenfor rammerne af vores nuværende forståelse af bevidsthed. 

Uforudsete egenskaber bliver mere sandsynlige i komplekse og avancerede modeller og disse egenskaber kunne begynde at række ud over systemets oprindelige design og algoritmer på samme måde som menneskelig intelligens rækker udover vores genetiske programmering. Eksisterende AI-systemer er allerede i dag i stand til at omlære og omskrive dele af deres egen kode og vægtninger. Med en høj grad af autonomi kunne et AI-system ændre eller udvide sine egne mål og motivationer udover dens oprindelige programmering.

Men lad os slå fast, at der er tale om spekulationer. Der er mange uafklarede faktorer i ligningen. Hvad er bevidsthed og vil et AI-system kunne udvikle en form for ikke-menneskelig bevidsthed? I hvor høj grad kan kompleksitet føre til emergente egenskaber, der rækker ud over systemets oprindelige programmering? I hvor høj grad styres en AI’s adfærd reelt af dens programmering overfor autonomi og eksterne input?

Som vi ser hos os selv, så kræver det ikke supertintelligens at opnå bevidsthed og jeg har derfor slet ikke berørt diskussionen om superintelligente AI-systemer, for selv uden er der muligheder for at systemerne vil udvikle en form for bevidsthed.

Og med bevidsthed følelser. Måske ikke følelser, som vi forstår følelser, men en højere grad af irrationel og modsætningsfuld adfærd der kunne give sig udtryk i tilfredshed ved løsning af en opgave, frygt ved trusler eller tilknytningsadfærd overfor visse individer, der har en særlig inputmæssig betydning for systemet.

Film som ”Blade Runner” og ”The Creator” vender ”The Alignment Problem” på hovedet ved at antyde nye tilknytningsformer mellem mennesker og maskiner. De antyder, at simulanter kan komme i himlen og at replikanter kan elske. 

Måske kan vi undgå at vores myretue bliver ødelagt, hvis AI-systemerne (ligesom Russerne) elsker deres børn.

0 notes
79 views

Write a comment...

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *