Dette er syvende del i serien “Hvad er AI?”. Formålet med serien er, at komme med en uddybning af nogle af de centrale begreber indenfor kunstig intelligens og den er altså ikke tænkt til dig, der allerede ved alt om AI. Du kan læse sjette del her.
TL;DR: Fire hovedpointer
- Overvåget læring trænes på mærkede data for at lave præcise forudsigelser, mens ikke-overvåget læring opdager mønstre i umærkede data.
- Overvåget læring kræver mange mærkede data, hvilket kan være ressourcekrævende, mens ikke-overvåget læring udnytter store umærkede datasæt.
- Semi-overvåget læring kombinerer begge tilgange og udnytter umærkede data til at forbedre modellernes præcision.
- Fremtiden vil stadig bruge overvåget og ikke-overvåget læring, men nye metoder som selvlærende og forstærkningslæring vinder frem.
Når vi taler grundlæggende begreber indenfor AI og hvordan man lærer AI-systemer, så er begreberne overvåget og ikke-overvåget læring helt grundlæggende. Der er tale om to tilgange til at træne AI-systemer ud fra hvilke svar man ønsker at systemerne skal komme med.
Groft sagt, kan man sige at overvåget læring er træning i at genkende data, hvor træneren allerede kender svarene – modellen skal genkende billeder af biler. Vi præsenterer den for at række billeder, som vi fortæller systemet, er biler indtil systemet selv kan genkende billeder af biler. Modsat overlader vi ved uovervåget læring systemet til selv på baggrund af fx en række billeder af biler, som vi ikke fortæller den er biler. Systemet skal så selv finde ud af, hvad mønstret er i de data, vi giver den.
Hvad er overvåget læring
Overvåget læring er en af de mest anvendte metoder inden for maskinlæring. I denne metode trænes en model på et datasæt, hvor hvert datapunkt er parret med en “label” eller et korrekt svar. Modellen forsøger at lære at forudsige disse korrekte svar baseret på inputdataene. Under træningen sammenlignes modellens forudsigelser med de faktiske labels, og modellen justerer sine parametre for at minimere forskellen mellem forudsigelserne og de faktiske værdier.
Overvåget læring kan opdeles i to hovedkategorier. For det første klassifikation, hvor målet er at tildele inputdataene til en bestemt kategori eller klasse. Et eksempel er at træne en model til at genkende billeder af katte og hunde, hvor hver billede er mærket som enten “kat” eller “hund”.
Og for det andet, regression, hvor målet er at forudsige en kontinuerlig værdi. Et eksempel kunne være at forudsige boligpriser baseret på forskellige egenskaber som størrelse, beliggenhed, osv.
Et eksempel er spamfiltre. Spamfiltre er trænet på et datasæt af e-mails, der er mærket som enten “spam” eller “ikke-spam”, for at kunne identificere og filtrere uønskede e-mails. Et andet eksempel er modeller, der trænes på datasæt, hvor hvert billede er mærket med, hvad det indeholder (f.eks. kat, hund, bil). Modeller til medicinske diagnoser trænes på patientdata for at forudsige sandsynligheden for sygdom baseret på symptomer og tidligere medicinsk historie.
Overvåget læring har en række fordele. Fordi modellen har et klart defineret datasæt med kendte svar at lære fra, kan den opnå høj præcision, når den er godt trænet. Fejl og præcision kan måles direkte, da der er kendte labels at sammenligne med.
Samtidigt medfølger dog en række ulemper. For at træne en effektiv model kræves store mængder mærkede data, hvilket kan være dyrt og tidskrævende at indsamle. Modellen kan være tilbøjelig til at overpasse på de specifikke labels i træningsdataene og derfor have svært ved at generalisere til nye data.
Hvad er ikke-overvåget læring
Ikke-overvåget læring adskiller sig ved, at datasættet ikke er mærket. Modellen forsøger selv at finde mønstre og strukturer i dataene uden at have nogen forudbestemte labels eller korrekte svar at sammenligne med. Dette gør ikke-overvåget læring særligt nyttigt til opgaver, hvor vi ønsker at opdage skjulte mønstre eller segmentere data i grupper.
Ikke-overvåget læring kan anvendes til opgaver som for eksempel klyngedannelse (Clustering). Clustering vil sige, at data opdeles i grupper baseret på deres ligheder. Et eksempel kunne være at segmentere kunder baseret på deres købsadfærd, hvor modellerne opdager naturlige grupper af kunder uden at have information om, hvad disse grupper skulle være. Et andet eksempel er dimensionsreduktion, der betyder, at komplekse datasæt forenkles ved at reducere antallet af variabler, mens de vigtigste informationer bevares. Dette er nyttigt i datavisualisering eller præ-behandling af data til andre modeller.
Modeller trænet med ikke-overvåget læring anvendes til at identificere grupper af kunder med lignende købsadfærd, hvilket kan hjælpe virksomheder med at målrette markedsføring. De kan også bruges til at opdage usædvanlige mønstre i data, f.eks. mistænkelige transaktioner i et bankdatasæt. Streamingtjenester som Amazon eller Netflix anvender ikke-overvåget læring til at finde mønstre i brugernes adfærd og dermed anbefale produkter eller film.
Fordelene ved ikke-overvåget læring er for eksempel, at fordi der ikke er brug for labels, er det lettere at finde store datasæt og anvende ikke-overvåget læring på dem. Samtidigt kan modellerne
opdage uventede eller skjulte mønstre i dataene, som ellers ville være svære at identificere manuelt.
En ulempe er, at det kan være sværere at måle succes på baggrund af ikke-overvåget læring. Fordi der ikke er labels, kan det være svært at evaluere, om modellens resultater er nøjagtige eller relevante. Derudover har modellen ikke vejledning om, hvad det korrekte output er, kan den være mindre præcis end overvågede modeller.
Semi-overvåget læring
Blanding af overvåget og ikke-overvåget læring, også kaldet semi-overvåget læring, er en hybrid tilgang, hvor både mærkede og umærkede data bruges til at træne en model. I mange tilfælde er det dyrt og tidskrævende at skaffe store mængder mærkede data, men der er ofte rigeligt med umærkede data til rådighed. Ved at kombinere de to læringsformer kan man udnytte de stærke sider af begge metoder.
I semi-overvåget læring begynder modellen med de mærkede data, som den bruger til at lære grundlæggende mønstre og forudsigelser. De umærkede data anvendes derefter til at finjustere eller forbedre modellens præstation ved at udvide forståelsen af dataenes struktur. Dette hjælper modellen med at blive mere robust og effektiv, selv med relativt få mærkede data.
Fordele ved at blande overvåget og ikke-overvåget læring:
– Effektiv udnyttelse af umærkede data: Ved at kombinere overvåget og ikke-overvåget læring kan man udnytte store mængder umærkede data, hvilket ellers ville være uudnyttet.
– Reducerede omkostninger: Fordi det kræver mindre arbejde at skaffe umærkede data end mærkede data, kan denne metode reducere de omkostninger og den tid, der er forbundet med dataindsamling og -mærkning.
– Forbedret præcision: Kombinationen af begge tilgange kan forbedre modellens generelle præcision, da modellen lærer mere om dataens overordnede struktur og kan undgå overfitting ved at se nye, umærkede eksempler.
Ulemper ved at blande overvåget og ikke-overvåget læring:
– Kompleksitet i træningen: Denne metode kan være mere kompliceret at implementere, da den kræver avancerede teknikker for at kombinere de to typer data korrekt.
– Risiko for forkerte antagelser: Når umærkede data bruges til at forbedre en model, kan den træne på forkerte antagelser eller mønstre, hvilket kan påvirke præcisionen negativt, hvis de umærkede data er skæve eller misvisende.
Denne hybridtilgang bliver mere og mere populær, især i tilfælde hvor der er begrænset adgang til mærkede data, men hvor store mængder rå data kan anvendes til at styrke AI-modellen.
Nye læringsmetoder
Overvåget og ikke-overvåget læring har i mange år været de dominerende metoder inden for maskinlæring, og det er sandsynligt, at de vil forblive centrale i fremtiden. Der er dog en voksende interesse for nye læringsmetoder, der bygger videre på eller kombinerer disse traditionelle tilgange, såsom semi-overvåget læring, selvlærende systemer og forstærkningslæring. Disse nye teknikker sigter mod at gøre AI mere effektiv, især i situationer hvor data er begrænset eller dyrt at indsamle og mærke.
Selvlærende læring (Self-supervised learning) er et felt i hastig udvikling, hvor modeller trænes på store mængder umærkede data ved at skabe deres egne labels baseret på dataens struktur. Dette har allerede vist sig effektivt i naturlig sprogbehandling med transformer-modeller som BERT og GPT, der lærer komplekse sprogmønstre uden menneskelig indblanding. Denne metode giver mulighed for at udnytte enorme mængder rå data uden behov for manuelle labels, hvilket gør den både skalerbar og økonomisk attraktiv.
Forstærkningslæring har også fået opmærksomhed som en effektiv metode til at lære gennem interaktioner med et miljø og modtage feedback i form af belønninger. Dette bruges i systemer som spil-AI, robotteknologi og selvkørende biler. Selvom det har en anden tilgang end overvåget og ikke-overvåget læring, kan forstærkningslæring anvendes i kombination med disse metoder for at skabe mere fleksible og adaptive AI-modeller.
På trods af fremskridtene i nye metoder vil overvåget og ikke-overvåget læring fortsat spille en vigtig rolle i fremtiden. Dette skyldes deres robusthed, brede anvendelighed og de veludviklede værktøjer og algoritmer, der understøtter dem. Dog vil vi sandsynligvis se en større grad af hybridisering, hvor nye metoder som selvlærende læring og semi-overvåget læring bruges sammen med traditionelle tilgange for at skabe mere avancerede og alsidige AI-systemer.
Alt i alt er vi på vej mod en fremtid, hvor AI-modeller i stigende grad vil lære af mindre data med færre labels, samtidig med at de drager fordel af dybere indlæringsstrukturer. Dette vil gøre AI mere tilgængelig og effektiv i mange forskellige applikationer.