Kort nyt

Tech-virksomheder laver symbolsk aftale 


   Læsetid 1 minut
Array

For nyligt udpegede World Economic Forums ”The Global Risk Report 2024” misinformation og desinformation som den største globale risiko. Derfor satte en gruppe af tyve ledende tech-virksomheder sig ned under Munich Security Conference i sidste uge og fandt sammen om en aftale – ”AI Elections accord”.  Blandt de tyve er Meta, Microsoft, Google, Amazon, IBM, OpenAI, Anthropic og Stability AI.

Aftalen baserer sig på syv hovedmål:

  1. Forebyggelse
  2. Herkomst
  3. Sporing
  4. Responsiv beskyttelse
  5. Evaluering
  6. Offentlig bevågenhed
  7. Modstandsdygtighed

Det centrale budskab i aftalen er, at de tyve underskrivende firmaer vil fremme teknologi, der kan spore og modvirke falske materiale genereret med AI. I aftalen taler man om værktøjer som ”metada, vandmærkning og classifiers”, der skal tages i brug. 

Aftalen er dog foreløbigt mest et symbolsk dokument, for teknologierne der skal finde og vandmærke deepfakes er endnu ikke på højde med den teknologi, der bruges at producere materialet. 

Samtidigt lægger aftalen vægt på responsiv beskyttelse – sporing af materiale, der allerede er offentliggjort. Der lægges altså vægt på en responsiv og ikke en proaktiv tilgang til bekæmpelse af falks AI-genereret materiale. Der lægges heller ikke nødvendigvis op til i aftalen, at platformene skal fjerne falsk materiale, men blot markere dem, som falske eller som AI-genereret. 

0 notes
38 views

Write a comment...

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *