Det satte for alvor gang i diskussion om bevidsthed i kunstig intelligens (AI), da den nu tidligere Google-ansatte Greg Lemoine i juni 2022 gik ud i amerikanske meder med sin påstand om, at Googles seneste store sprogmodel LlaMDA havde opnået egen bevidsthed. Kan AI-modeller overhovedet opnå en bevidsthed om sig selv og sin omverden og hvordan ville en sådan bevidsthed se ud?
Diskussionen om bevidsthed
I februar 2022 tweetede Ilya Sutskever, ledende forsker i OpenAI’s forskergruppe: ”måske er de store neurale netværk allerede lidt bevidste i dag.” En Medium-skribent, der kalder sig Dr. Stewart Woolley skrev i maj 2002: ”Det kan meget vel være at en gryende AI som denne måske ikke engang vil blive opdaget og rutinemæssigt henrettet og genfødt hver gang host systemet startes op!”
I New York Times skrev Cade Metz om, hvordan AI ikke er bevidst og det hele handler om antropomorfiserer – vil tilskriver menneskelig bevidsthed til ting og sager vi synes om, men som ikke besidder nogen form for bevidsthed. Alt fra bamser og det blanke stykke papir, vi skal aflevere vores rapport på i morgen til menneskelignende robotter og enkle machine learning applikationer ser vi som levende. Vi diskuterer animeret med dem og betror dem vores inderste tanker.
En tjekliste
En gruppe forskere har derfor sat sig for, at finde en måde at identificere bevidsthed, baseret på hvad vi ved (eller kan teoretisere os frem til) om menneskelig og dyrisk bevidsthed. De skriver selv i deres resume af rapporten, at de mener, at der er brug for en empirisk og jordnær tilgang til AI-bevidsthed. Herefter går de over til at udlede kriterier for bevidsthed fra syv forskellige teorier om bevidsthed. De kommer i alt frem til 14 indikatorer, som de mener vil afklare, om en AI-model har opnået bevidsthed.
Forskerne definerer bevidsthed uanset om vi taler et menneske, et dyr eller et AI-system er at de enten har en oplevelse af bevidsthed eller at de er i stand til at opleve bevidsthed.
Tre typer systemer var kandidater
I deres undersøgelse har de bla. undersøgt transformer-baserede store sprogmodeller, som ChatGPT, DeepMind’s Adaptive Agent og Googles PaLM-E-model. Der var dog ingen systemer, der levede fuldt ud til forskernes kriterierne og de kunne derved ikke sige, at have opnået bevidsthed.
Forskerne bag rapporten påpeger dog, at de ikke mener, at deres undersøgelse er det sidste ord om den sag og de ser ikke nogen tekniske forhindringer for, at man vil kunne bygge systemer, der lever op til deres krav.