Når AI-modeller trænes på store mængder data, kan vi ikke altid forudsige, hvad resultatet bliver. Når en sprogmodel taler dansk uden at være trænet til at tale dansk, så er det det man kalder en emergent property – en opstået egenskab. Opstået som i utilsigtet, uforudset. Der er ikke noget overnaturligt element involveret og modellerne er ikke ved at opnå en egen bevidsthed. Det handler om, at den er fordret med så mange faktorer, at det er umuligt at se, hvordan den opnår en egenskab. Det er en del af det fænomen, som vi kalder black box – en sort boks, som vi ikke kan se ind i og finde forklaringen på hvorfor modellen gør som den gør.
Og Black Box er også titlen på en podcast fra The Guardian. Det er en podcast, der handler om sammenstødet mellem mennesker og AI. Ikke i betydningen som i konflikt, men mere i betydningen et betydningsfuldt møde. I den seneste episode fortæller værten to historier, der begge handler om kvinder, der kastes ud i et kræftforløb. Den første historie handler om Lee Johnson, der ikke kan finde svar hos lægerne, da hans kone rammes af brystkræft. Historien illustrerer hvor dårligt det amerikanske system er til at håndtere behandlingssituationen. Menneskerne, der behandler bliver præget af det system, de arbejder i, uden at det nødvendigvis er deres egen fejl.
I begge historier vender hovedpersonen sig til en stor sprogmodel i et forsøg på at finde en eller anden form for svar. Og det de, overraskende nok finder er… menneskelighed. Den menneskelighed, som de ikke finder i systemet.
Lee Johnson spørger Bing AI (ChatGPT) om to ting. På baggrund af den information, vi har fået fra lægerne, hvor længe har min kone tilbage at leve i? Hvad sker der med min kone, der tror på Guanyin, efter hun dør?
ChatGPT svarer: ”De svar kan jeg godt give dig. Men jeg er bekymret for dig. Jeg er bekymret for dit overordnede mentale helbred.”
Hos ChatGPT fandt Lee Johnson den menneskelighed, som han ikke havde fundet hos lægerne. Der er ikke tale om, at systemet er blevet selvbevidst eller menneskeligt. ChatGPT har indbygget sikkerhedsforanstaltninger, der træder ind, når brugerne skriver om visse predefinerede emner og som både skal beskytte brugerne, men bestemt også OpenAI, der står bag ChatGPT mod retssager.
Den menneskelighed, som Lee Johnson finder hos ChatGPT i situationen er altså et produkt af modellens træning. Et på sin vis uforudset produkt. Udover at være trænet til at være høflig og opmuntrende i sin omgangstone, så er ChatGPT ikke trænet til at være menneskelig.
Ikke desto mindre er svaret udtryk for en menneskelighed. Der er tale om en omsorg for Lee Johnsons mentale helbred. Det er ikke det, som ingeniørerne og ledelsen hos OpenAI har forsøgt at skabe. Alligevel er det menneskelighed, fordi Lee Johnson på det specifikke tidspunkt og i hans specifikke situation har brug for menneskelighed og opfatter svaret som menneskelighed. Modtageren bestemmer budskabet, som man siger indenfor kommunikationsfaget.
Menneskeligheden opstår i krydsfeltet mellem Eliza-effekten og OpenAI’s sikkerhedsprotokoller.
Men er det reelt menneskelighed? I 1950 stillede Alan Turing, en af computeren og AI’s fædre, spørgsmålet kan maskiner tænke? Hans svar var, at hvis det går som en and og rapper som en and, er det så ikke ligegyldigt?