KITEK

Selma Marthedal: Journalisterne er nødt til at vide, hvordan programmering fungerer


Foto: Robert Wengler

Journalistikken er et område, hvor kunstig intelligens (AI) allerede har betydet store ændringer og måske særligt indenfor faget diskuterer man heftigt, hvilke konsekvenser AI har og vil få fremover. En af de vigtige danske stemmer på det område er Selma Martedal, der samtidigt også har valgt at gå ind i tænketanken KITEK’s advisory board. Selma Martedal er Ph.d. studerende på Digital Democracy Center på SDU og forsker i kunstig intelligens på nyhedsredaktioner. Hun er en del af forskningsprojektet ”AI In The Newsroom”, hvor de samarbejder med medieorganisationer i Danmark, TV2, TV2 Fyn, Jysk Fynske Medier, om hvordan de kan få implementeret kunstig intelligens og hvilke demokratiske konsekvenser der kan være i den forbindelse. Hendes fokus er særligt på de demokratiske konsekvenser af AI i redaktionslokalet. Hvad skal man som nyhedsorganisation i et demokratisk samfund være opmærksom på, når man implementerer forskellige former for kunstig intelligens i nyhedsproduktionen.

Kan du forklare lidt mere omkring dit arbejde?

Jeg kan starte med at fortælle, at det jeg for eksempel sidder med nu er, hvordan kan vi bruge nyhedsanbefalings-algoritmer til at engagere unge mennesker i nyheder.  Så det jeg undersøger, er hvordan AI-anbefalingsalgoritmer kan bruges til at matche de præferencer unge mennesker har af nyhedsformater Det kunne være et bud på at løse problemet med, at unge mennesker i højere grad fravælger nyheder. Meget forskning tyder på, at unge mennesker foretrækker andre nyhedsformater, eller en anden måde at præsentere deres nyheder på, end andre grupper i samfundet. Unge mennesker foretrækker generelt podcasts eller korte videoer, hvor dem fra de lidt ældre generationer foretrækker traditionelle nyhedsformer som lange artikler eller TV-avisen. At bruge AI til at personliggøre de forskellige nyhedsformater, det tror jeg for eksempel er en måde, hvorpå en nyhedsorganisation kan bruge AI til at styrke deres demokratiske rolle som medieinstitution.

Jeg kunne godt tænke mig, hvis du prøvede at uddybe, hvilke demokratiske konsekvenser det har, når du siger, at de forskellige generationer foretrækker forskellige formater.

Det kan have de demokratiske konsekvenser, at hvis nyhedsorganisationerne ikke tager forskellige gruppers behov seriøst, at så mister de en stor del af deres publikum, hvis de kun producerer indhold i formater, som kun er tilpasset en generation. Hvorfor skulle unge mennesker så klikke sig ind på en nyhedsartikel, kan man sige, når alt det andet indhold, de konsumerer online, er korte videoer, eller podcast? Mediemiljøet i dag er højst kommercialiseret og der er uendelige mange alternativer hvis nyhederne ikke virker interessante. Det er i hvert fald en demokratisk konsekvens folk bevæger sig væk fra de etablerede medier. Hvis de etablerede medier ikke virker appellerende længere så kan det være, at de (unge) går de hen og finder andre nyhedskilder. Og er vi sikre på, at de her andre, ofte private nyhedskilder, unge mennesker finder, er saglige, uden misinformation, kommer med de nyheder, der måske er de mest relevante for vores samfund? Der ikke er nogen redaktionelle krav til influencers, der sidder og kommunikerer nyheder ud til unge mennesker eksempelvis. Et eksempel er TikTok’eren Dylan Page som flere gange har videregivet misinformation om Trump, oprøret i Iran mm.

Det du hentyder til er, som jeg forstår dig, det er den her demokratiske samtale, og det er den her beslutningstagning, som ligger til grund for vores demokratiske handlen, som du siger, er i fare. 

Ja, altså det kan skade demokratiet en hel del, hvis dele af befolkningen vender de etablerede medier ryggen. Især hvis alternativet bliver nyhedskilder, der på ingen måde har nogle redaktionelle krav. Nogle af de andre demokratiske konsekvenser, jeg er meget optaget af, når det kommer til nyhedsorganisationer og kunstige intelligens er det man kalder the  alignment problem. Når der bliver brugt generativ AI på nyhedsredaktionerne, til for eksempel at generere artikler, hvad er det så for nogle sprogmodeller, der ligger til grund? Det er tit ikke særligt transparent hvordan de her sprogmodeller. Hvordan sikrer vi os, at der ikke er uhensigtsmæssige biases i deres formuleringer? Der advokerer jeg meget for, at der skal være en høj grad af  transparens i de her generative AI-chatbots, der er blevet så populære. 

Men er det nok med transparens i modellerne, for at modvirke de her bias?

Jeg tror i hvert fald, det første skridt på vejen, at man ved, hvad der ligger til grund, og hvad for nogle ord, der er kodet sammen. Jeg er ikke datalog eller ingeniør, så jeg kan ikke gå så meget ind i det tekniske. Men at man uddanner journalisterne i, hvordan de generative AI-sprogmodeller, de virker, det tror jeg er meget vigtigt, inden man beder dem om at sidde og bruge dem til at udføre deres arbejde. Og så er det selvfølgelig vigtigt, at nyhedsredaktionerne er opmærksomme på hvilke datasæt der ligger til grund for sprogmodellerne.

Nu arbejder u meget konkret med AI i en redaktionel sammenhæng, kan man sige, men hvor ser du, at AI kommer til at spille en afgørende rolle i vores samfund og vores økonomi, som sådan?

Mit fokus er jo meget på nyhedsorganisationer, men hvis jeg skal se på det brede billede, så vil jeg nok sige, at helt generelt, så tror jeg, at AI har meget potentiale. I hvert fald generativ AI.

Vi skal også huske på, at vi har haft AI i lang tid i vores samfund. Vi har bare ikke snakket om det før nu, og det er tit, hvor vi bytter om på de her begreber. Generativ AI og så AI. AI er også Google Translate, som vi har brugt i mange år efterhånden. Men med den generative AI, så tror jeg helt generelt, at den kan frigive rigtig mange mennesker fra trivielle arbejdsopgaver. 

Hvorfor sagde du ja til at blive en del af KITEKs advisory board og hvad er sådan din personlige motivation for at gå ind i sådan et stykke arbejde?

Min helt personlige motivation, er nok det her med nyhedsorganisationer, som også er mit forskningsområde. Altså at jeg ser flere og flere nyhedsorganisationer begynder at integrere generativ AI som en helt standard del af deres nyhedsproduktion. I alle tre faser af nyhedsproduktionen. Både når man skal indsamle nyhedsdata, når man skal producere, når man skal distribuere nyhederne via anbefalingsalgoritmer. Jeg mener, at nyhedsorganisationer spiller en enormt vigtig rolle i vores samfund. I og med, at det er deres rolle at informere borgerne, så de kan træffe deres demokratiske beslutninger. 

Ultimativt, når det kommer til valg, for eksempel, hvis, hvis der er det her alignment problem mellem nyhedsorganisationerne og hvad vi har vedtaget i vores samfund og så den måde, vi kommunikerer, eller omtaler visse grupper, for eksempel etniske minoriteter eller kvinder.  På den måde mener jeg, at den generative AI kan gå hen og faktisk blive et demokratisk problem. Så tilbage til min motivation for at blive medlem af KITEK. Det er vigtigt, at vi hele tiden gør opmærksom på, at det er noget, vi skal snakke om. Vi må aldrig bare overlade det til den generative AI og sige, at ChatGPT formulerer nogle helt vildt fantastiske nyhedsartikler.

Jeg er enig i, at den kan gøre et fantastisk arbejde, men baseret på hvilken data? Fordi hvis den er baseret på data, den måde, man formulerede sig på i 70’erne, 80’erne eller bare 90’erne og 00’erne, så er det helt anderledes end den måde, vi omtaler de her grupper på nu. 

Hvad er det du, øh, hvad er det du gerne vil opnå? Hvad er det du gerne vil arbejde med i et advisory board? Hvor tænker du, at du kan gøre en forskel her?

Jeg vil prøve at se, om jeg ikke kan påvirke nyhedsorganisationerne lidt. Holde dem lidt til ansvar for, hvad det er for nogle generative AI-modeller, de bruger. Komme med nogle anbefalinger til, hvordan man sikrer, at der er en klar overgang i forhold til brugen af generativ AI. En overensstemmelse mellem ens værdier som nyhedsorganisation, vores værdier som demokratisk samfund og de sprogmodeller, man vælger at bruge eksempelvis. 

Hvordan gør man det mere konkret?

Vi skal allerede nu tænke i hvilken indflydelse chatbots har i vores samfund. Vi bliver nødt til at tænke over, hvordan chatbots skal reguleres. Det er ikke fordi, jeg har noget konkret lovgivning, jeg synes skal implementeres lige nu. Vi skal spørge os selv hvad for nogle krav skal vi stille til organisationer, der har chatbots baseret på generativ AI, når det handler om transparens?

Jeg tror også, at vi skal tænke over, om det skal det være tilgængeligt for offentligheden,  hvordan sprogmodellerne er sat sammen. Om skal det være tilgængeligt for offentligheden, hvilken data det er baseret på? Sådan nogle ting skal vi begynde at overveje. Og hvem skal bestemme det? Hvem skal komme med de her anbefalinger? Jeg håber, at vi kan være med til at bidrage til de anbefalinger, der skal komme på, hvordan man skal regulere generativ AI. Fordi vi bliver nødt til at regulere det på et eller andet tidspunkt som samfund, mener jeg.

Så er det spørgsmålet om, hvor meget national lovgivning, der så egentlig kommer på området. Fordi nu ligger EU’s AI Act klar til vedtagelse. Det jeg lidt hører er, at så er national lovgivning måske ikke så vigtig. Hvordan ser du på det?

EU-lovgivning er, er rigtig effektiv, når det kommer til Big Tech og AI og så videre. Det er blot værd, at være opmærksom på, at der er mange medlemsstater der skal være enige. Det, det er nogle lange forhandlingsprocesser, der tror jeg også, vi skal overveje som, som nation, hvordan vi skal håndtere det. Hvor transparent skal AI være for brugeren? 

Det bringer os ind på det her med, med de etiske problemstillinger generelt. Du har været inde på nogle af dem, men, men hvor ser du de største udfordringer, og hvordan tror du bedst, vi tackler dem?

Der er nogle kolossale etiske udfordringer med AI, som jeg ikke vil bevæge mig i nærheden af, når det kommer til AI-projekter. AI indenfor retsvæsenet eller som sagsbehandler med afgørelser på hvem der skal modtage offentlig forsørgelse, og så videre. Der vil jeg ikke bevæge mig henad, for det ved jeg ikke så meget om. Men jeg vil sige, at et af de dilemmaer, jeg synes er stort, når det kommer til nyhedsorganisationer, det er the alignment problems. Selvom jeg har sagt det mange gange, så synes jeg, at det er vigtigt at kunne forstå, hvordan de her sprogmodeller fungerer.

Fordi, hvis vi skal uddybe det lidt, eller sige noget andet om det. Så har nyhedsorganisationer og vi andre været vant til, at de moralske agenter altid har været journalisterne. Det er altid journalisterne, der sætter den moralske standard. Om det er nyhedsredaktøren, eller en enkelt journalist, så har det været det, man har sat standarden efter, hvilke moralske overvejelser, man skal have, når vi skriver en artikel, eller når vi producerer en nyhedsjournalist.. Nu er der lige pludselig kommet nogen ind, der har kæmpe indflydelse på, hvordan journalistikken fungerer, og det er softwareingeniørerne, datalogerne, osv., der sidder og programmerer de her sprogmodeller.

Og de er ikke uddannet i journalistisk etik. Intet ondt om softwareingeniørerne, mange af dem er super dygtige til deres arbejde, men der er sket en eller anden skævvridning i, at der er tit ikke særlig god kommunikation mellem softwareingeniørerne og journalisterne. Journalisterne er nødt til at vide, hvordan programmering fungerer, og softwareingeniørerne, der sidder og programmerer de her sprogmodeller, der bliver brugt til journalistisk arbejde, er nødt til at vide noget om, hvordan journalistiske værdier er sat sammen, og hvad der er vigtigt der.. Jeg tror, det er vigtigt, at vi begynder at tænke meget mere interdisciplinært, når det kommer til generativ AI. 

Men har journalister og redaktører ikke altid skulle agere i en eller anden form for landskab, om det så har været marketing eller politisk pres, eller hvad ved jeg? Hvad, hvad er egentlig forskellen her?

Man kan sige, at det kommercielle pres på journalister har været stort i mange år. Det har resulteret i, i forskellige ting, for eksempel en stigning af clickbait-artikler, at man skal betale en høj pris for at få modtage kvalitetsnyheder, og så videre. Jeg tror ikke, at det er to forskellige ting. Jeg tror, at den generative AI bliver brugt som for at modvirke det kommercielle pres, eller for at håndtere det kommercielle pres, der er på journalister lige nu. Det er et middel mod det kommercielle pres, som kan have rigtig store konsekvenser, hvis ikke det bliver håndteret ordentligt. Grunden til, at jeg lægger mere vægt på den generative AI, og ikke på de andre ting, der kan være af politisk eller kommercielt pres på nyhedsorganisationer, det er nok at generativ AI producerer dataene selv. Når det kommer til clickbait, så er det stadig journalisterne, der er de moralske i nyhedsorganisationen. Det er dem, der har truffet beslutningerne, eller en redaktion, ellers er der en redaktion med i beslutninger om, at vi skal formulere vores overskrifter på den her måde. Men er det generativ AI, så kommer der nye spillere ind, som man ikke altid er opmærksom på, hvordan er sat sammen, eller hvordan det fungerer.

0 notes
89 views

Write a comment...

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *