Tema: Hvad er AI?

Hvad er AI: AI for begyndere


Bolivainteligente på UnSplash
   Læsetid 17 minutter
Array

Dette er første del af serien “Hvad er AI?”. Formålet med serien er, at komme med en uddybning af nogle af de centrale begreber indenfor kunstig intelligens og den er altså ikke tænkt til dig, der allerede ved alt om AI.

Du kender godt begrebet kunstig intelligens eller AI. Faktisk er du måske lidt træt af at høre om det hele tiden. I virkeligheden interesserer det dig ikke voldsomt meget, men alle siger, at det er det nye store og at det kommer og tager dit arbejde. Men er det nu også rigtigt? Er AI virkelig så fantastisk, som de går og siger? I denne artikelserie, får du svarene. Hvad er det og hvad kan det?

I artikelserien ”Hvad er AI” gennemgår jeg de grundlæggende begreber, som maskinlæring, neurale netværk, deep learning og Natural Language Processing (NLP) og flere andre. Og hvorfor skal du så bruge din tid på det? Det skal du fordi AI allerede er i fuld gang med at grundlæggende ændre samfundet og verden omkring os. Afhængigt af hvilket job, du sidder i i dag, så kommer AI muligvis på sigt og tager dit arbejde. Hvis du altså lader den. 

Derfor skal du vide, hvad AI er og hvad AI kan og ikke kan. 

Definition af AI

AI kan defineres på forskellige måder, men den mest almindelige definition handler om, at det er computersystemer, der kan udføre opgaver, som det kræver intelligens på niveau med et menneske at udføre. Det kan være ting som læring, logisk tænkning, problemløsning, forståelse af naturligt sprog, sansning af verden omkring os og endda kreativitet.

Normalt taler man om to hovedkategorier af AI: smal AI, som er designet til at udføre en specifik opgave (f.eks. ansigtsgenkendelse), og generel AI, som sigter mod at udføre enhver intellektuel opgave, et menneske kan (en teknologi, vi endnu ikke har opnået).

Men lige så vigtigt for hvad AI er og kan  og den eksplosion af AI, som vi ser i dag, er en forståelse af den historiske udvikling af AI.

AI’s historie

AI’s historie begynder med en visionær tanke: Kan maskiner tænke som mennesker? Denne idé blev først foreslået af den britiske matematiker Alan Turing i 1950, som introducerede Turing-testen for at måle en maskines intelligens. Dette var startskuddet til et helt nyt felt.

I 1956 mødtes en gruppe forskere på Dartmouth College og grundlagde officielt kunstig intelligens som en videnskabelig disciplin. De drømte om at skabe maskiner, der kunne lære og løse problemer på egen hånd. Denne periode var fyldt med optimisme og spændende fremskridt, som udviklingen af de første programmer, der kunne spille skak og løse matematiske problemer.

Men vejen var ikke uden bump. I 1970’erne og 80’erne ramte AI flere “vintre” – perioder med skuffelse og manglende fremskridt. Computerne var ikke kraftige nok, og dataene var begrænsede. Mange troede, at AI’s potentiale var overvurderet.

I 1980’erne fik AI en ny opblomstring med udviklingen af ekspertssystemer, som kunne efterligne menneskers beslutningstagning i specifikke områder som medicin og finans. Men det var først i de sidste to årtier, at AI for alvor har taget fart. Med fremkomsten af big data og mere avancerede computere kunne forskere udvikle dybe neurale netværk, som kunne lære og tænke på måder, der tidligere kun var drømme.

I dag er AI overalt omkring os. Det hjælper læger med at diagnosticere sygdomme, styrer selvkørende biler, og anbefaler film på Netflix.

Hvordan ser en AI model ud?

Men hvad snakker vi egentligt om, når vi snakker om kunstig intelligens eller AI. For at gøre det lidt mere klart, kan det være en hjælp at se på, nogle af de centrale begreber indenfor området. Jeg definerede ovenfor AI som computersystemer, der kan løse specifikke opgaver, som der ellers skulle et menneske til at løse – det er den smalle (også kaldet svage AI) – den generelle vil kunne løse alle opgaver, som mennesker kan løse, når vi udvikler den. 

For at nå det niveau af kompetence, skal de læres op eller trænes. Her kommer Machine Learning – maskinlæring eller bare ML – ind i billedet. Maskinlæring er en gren af AI, hvor computere får evnen til at lære og forbedre sig selv uden at være specifikt programmeret til det. Det kan gøres ved at bruge algoritmer og statistiske modeller til at analysere og drage konklusioner fra mønstre i data. Gennem træning på store datasæt kan maskinlæringsmodeller forudsige resultater, genkende mønstre og træffe beslutninger baseret på nye data. Eksempler på maskinlæring inkluderer billedgenkendelse, sprogbehandling og anbefalingssystemer. Her trænes modellerne på store mængder billeder indtil de kan genkende dem, store mængder sprog indtil de kan forstå det eller brugernes præferencer for fx film indtil den kan forudsige, hvad de gerne vil se. Maskinlæring er altså måden AI lærer på eller bliver intelligent om man vil.

Et andet centralt begreb er neurale netværk. Nogle vil måske synes, at neurale netværk lyder som noget, de har hørt et andet sted og det er fuldstændigt rigtigt. Neurale netværk er nemlig systemer, der er bygget op på en måde, der efterligner opbygningen af den menneskelige hjerne. Neurale netværk er i dag den mest anvendte form for maskinlæring og den består – ligesom den menneskelige hjerne – af sammenkoblede enheder kaldet neuroner, organiseret i lag. De fleste neurale netværk består af et inputlag, hvor data kommer ind. Derefter flere skjulte lag, hvor dataene behandles en eller flere gange afhængigt af, hvilke informationer, der vurderes nødvendig for at behandle data. Man kan måske sammenligne disse lag med erfaringer eller andre informationer, som dataene skal vurderes i forhold til. I de skjulte lag finder systemet mønstre eller komplekse relationer i dataene. Til sidst kommer der svar, løsninger eller klassificeringer ud i den anden ende eller det man kalder outputlaget.

Et tredje afgørende begreb er Deep Learning. Deep Learning er sådanset bare et udtryk for, at modellens neurale netværk har mange lag – dybe neurale netværk. Jo flere lag, jo bedre er modellen til at genkende billeder, tale og forstå naturligt sprog. Deep Learning er en af forudsætningerne for den moderne eksplosion af særligt generativ AI, som vi har set indenfor de sidste par år. Dels kan dybe neurale netværk håndtere flere og mere komplekse data (ligesom de kræver store mængder af komplekse data til at træne dem) og dels kan de automatisk lære funktioner direkte fra rå data i modsætning til traditionelle maskinlæringsalgoritmer. Deep Learning er også forudsætningen for selvkørende biler, medicinsk billedbehandling og AI-assistenter.

Hvordan lærer AI?

ML er altså systemerne, der gør det muligt for modellerne at lære, men hvordan lærer de så mere konkret? Hvordan træner man AI-systemer? Her er der flere forskellige metoder.

Her taler man om supervised og unsupervised learning eller overvåget eller uovervåget læring. Supervised learning foregår ved, at systemet fodres med mærkede data, hvor det rigtige svar er kendt på forhånd. Et typisk eksempel er billeder af katte. Her skal systemet lære at identificere en kat. Derfor fodres den billeder, som allerede er gennemset og det er konstateret, at der er tale om billeder af katte. Modsat fodrer man ved unsupervised learning systemet med data, der ikke på forhånd er klassificeret og systemet skal her selv forsøge at finde mønstre og sammenhænge i dataene.

Reinforcement learning eller forstærkningslære direkte oversat, svarer til den måde man ofte træner hunde på. Hunden får lov til at forsøge sig frem og når den gør det rigtige får den fx en godbid eller sit yndlingslegetøj. Modsat får den at vide, når den gør noget forkert. Indenfor hundetræning taler man om positive reinforcement. Det betyder bare, at der er fokus på belønning og ikke straf. Godbidder og straf for AI-modeller er tal. 1 for rigtigt nul for forkert. 

Jeg har flere gange allerede nævnt begrebet naturligt sprog og det betyder bare det sprog, som du og jeg taler. Vi bruger ord og sætninger til at udtrykke os med. AI-modellernes sprog er tal og derfor har en af de store forhindringer for effektiv kommunikation med og træning af systemerne været at lære dem naturligt sprog. Forståelse af vores sprog også kaldet Natural Language Processing eller NLP er en anden forudsætning for AI-eksplosionen. 

En form for input til maskinerne er naturligt sprog og et andet er syn altså visuelt input. Som mennesker lærer vi fra vi fødes at forholde os til verden gennem vores hørelse, vores syn og vores andre sanser. På samme måde skal AI-modeller lære, at forholde sig til verden 

På baggrund af en kompliceret evolutionær udvikling tager vi det for givet, at vi tager stilling til og forstår vores omgivelser gennem vores syn. Den verden vi bevæger os i er væsens forskellig fra et computer system og ligesom AI-modellerne skal lære at forholde sig til verden omkring dem gennem forskellige input. Computer Vision eller computersyn er AI-modellernes måde at forholde sig til visuelle input.

Anvendelser af AI

AI anvendes allerede i dag på mange områder af vores liv og indenfor industrien. Din mobil har en stemmeassitent indbygget, selvom du måske ikke bruger den. På iPhone hedder den Siri. På Netflix kender du anbefalingssystemet, der kommer med mere eller mindre gode forslag til den næste film, du skal se eller på Spotify, hvor den kommer med forslag til den næste sang, du skal høre. Du er sikkert også stødt på hjemmesider, hvor du kan chatte med en chatbot i stedet for at ringe til kundeservice. 

Du har sikkert også hørt om, at ikke mindst indenfor kræftbehandling er AI mere og mere brugt til diagnosticering af forskellige kræftformer. Vi hører også jævnligt om forsøg med selvkørende biler, særligt i USA og særligt, når de ikke fungerer, men realiteten er, at også europæiske byer nu indleder forsøg med selvkørende Taxaer. En af de industrier, hvor AI har været i brug i en periode er finanssektoren, hvor AI i dag står for langt størstedelen af strakshandler med aktier og andet. AI anvendes også af banker til at opdage svig.

Vigtige AI-Modeller

Du har uden tvivl hørt og sikkert også prøvet ChatGPT og det har i høj grad også været ChatGPT, der har været billedet på den eksplosive udvikling, der er sket indenfor AI i de sidste par år. Men ChatGPT er kun en af mange af det, man kalder store sprogmodeller og små sprogmodeller for den sags skyld. Sprogmodellerne er grundlæggende sandsynlighedsmodeller, der sammensætter tekst dels ud fra en forståelse af input i naturligt sprog og en beregning af, hvad det næste sandsynlige ord i dens output. Allerede i dag er de store sprogmodeller et vigtigt værktøj indenfor journalistik, kommunikation, PR, jura, på uddannelsesområdet og de fleste områder der arbejder med tekst og sprog.

Sprogmodellerne er en del af den bølge indenfor AI der kaldes generativ AI. Det vil sige AI-modeller, der kan producere tekst, billeder, video og lyd. En anden type generativ er de såkaldte Diffusion modeller. Diffusion modeller er generative maskinlæringsmodeller, der skaber nye data ved gradvist at fjerne støj fra et støjfyldt signal. Processen starter med ren støj og følger en omvendt diffusion, hvor støjen fjernes trin for trin, indtil et realistisk billede eller datasæt er dannet. Disse modeller bruges ofte til billed- og lydgenerering og er kendt for at producere detaljerede og realistiske resultater.

En stor sprogmodel som fx GPT-4 er det man kalder transformermodeller. Transformermodeller er en type maskinlæringsmodel, der er designet til at håndtere sekventielle data som tekst. I stedet for at behandle data i rækkefølge, som traditionelle modeller gør, bruger transformere en mekanisme kaldet “self-attention” til at vurdere forholdet mellem alle dele af inputdataene på én gang.

Dette gør transformere meget effektive til opgaver som maskinoversættelse, tekstanalyse og sprogforståelse, hvor det er vigtigt at forstå sammenhængen mellem ord eller sætninger i en tekst. Transformermodeller som GPT og BERT er blandt de mest avancerede inden for naturlig sprogbehandling (NLP).

Ligesom de generative AI modeller har skabt stor begejstring og diskussion i det hele taget, så har der også været meget fokus på multi-model modeller. De fleste AI modeller vi kender i dag, er rigtigt gode til en ting, billeder, tekst eller video for eksempel. Multi modal modeller er gode til flere ting samtidigt. OpenAI’s GPT-4o er en af de modeller, der i dag kan generere både tekst, billeder og lyd. Multi modale modeller er det tætteste vi i dag kommer på det jeg ovenfor beskrev som generel AI.

Generative Adversarial Networks (GANs) er en type teknologi, hvor to kunstige “hjerner” arbejder imod hinanden for at skabe noget nyt og realistisk, f.eks. et billede. Den ene hjerne, ”generatoren”, prøver at lave noget, der ligner et ægte billede. Den anden hjerne, ”diskriminatoren”, prøver at finde ud af, om billedet er ægte eller falsk. De træner hinanden ved at gøre det sværere og sværere at skelne mellem rigtige og falske billeder. Til sidst bliver generatoren så god, at de billeder, den skaber, ser helt virkelige ud, selvom de er fuldstændig kunstigt genereret.

Hvad er AI?

I denne første artikel i serien har jeg forsøgt at give et så kort og forståeligt svar på spørgsmålet ”Hvad er AI?” og det er selvfølgelig et fuldstændigt umuligt projekt, men jeg håber, at du i hvert fald har fået et første snif til, hvad det er, vi snakker om, når vi snakker om AI. I de kommende artikler vil jeg gå mere i dybden med begreber, som vi har set på her, som fx maskinlæring, neurale netværk, deep learning og flere til. Men jeg vil også dykke ned i relaterede begreber. Vi skal stille skarpt på de etiske problemstillinger, der følger med som fx gennemsigtighed i data og træning, retfærdighed, datasikkerhed og ikke mindst overvågning og privatliv. Endeligt vil jeg også se på spørgsmål om konsekvenser for områder som vores job og arbejdsmarkedet som sådan og for vores sundhed og uddannelse. Måske kan vi på den måde komme i hvert fald lidt tættere på at besvare spørgsmålet. Det er i hvert fald ambitionen.

0 notes
72 views

Write a comment...

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *