Platon Data Intelligence.
Vertikalt søk og Ai.

Deepfakes i det globale valgåret 2024: Et massebedragsvåpen?

Dato:

Digital sikkerhet

Ettersom fabrikkerte bilder, videoer og lydklipp av virkelige mennesker blir mainstream, er utsiktene til en brannslange av AI-drevet desinformasjon en årsak til økende bekymring

Deepfakes i det globale valgåret 2024: Et massebedragsvåpen?

Falske nyheter har dominert valgoverskriftene siden den gang ble en stor historie under kappløpet om Det hvite hus tilbake i 2016. Men åtte år senere er det en kanskje større trussel: en kombinasjon av desinformasjon og deepfakes som kan lure selv ekspertene. Sjansene er store som nylig eksempler av AI-generert innhold med valgtema – inkludert en rekke bilder og videoer som sirkulerer i forkant av Argentinas nåværende valg og en doktorert lyd av USAs president Joe Biden – var varslere om hva som sannsynligvis vil komme i større skala.

Med rundt en fjerdedel av verdens befolkning På vei til valgurnene i 2024 øker bekymringen for at desinformasjon og AI-drevet lureri kan bli brukt av ondskapsfulle aktører for å påvirke resultatene, med mange eksperter som frykter konsekvensene av at deepfakes blir mainstream.

Den dypfalske desinformasjonstrusselen

Som nevnt er ikke mindre enn to milliarder mennesker i ferd med å dra til sine lokale valglokaler i år for å stemme på sine favorittrepresentanter og statsledere. Ettersom store valg er satt til å finne sted i mer enn land, inkludert USA, Storbritannia og India (så vel som for Europaparlamentet), har dette potensialet til å endre det politiske landskapet og retningen for geopolitikk de neste årene – og bortenfor.

Samtidig var imidlertid feilinformasjon og desinformasjon nylig rangert av World Economic Forum (WEF) som verdens største risiko for de neste to årene.

Utfordringen med deepfakes er at den AI-drevne teknologien nå blir billig, tilgjengelig og kraftig nok til å forårsake skade i stor skala. Den demokratiserer muligheten til nettkriminelle, statlige aktører og hacktivister til å lansere overbevisende desinformasjonskampanjer og mer ad hoc, engangssvindel. Det er en del av grunnen til at WEF nylig rangerte feilinformasjon/desinformasjon som den største globale risikoen for de kommende to årene, og nummer to nåværende risiko, etter ekstremvær. Det er ifølge 1,490 eksperter fra akademia, næringsliv, myndigheter, det internasjonale samfunnet og sivilsamfunnet som WEF konsulterte.

Rapporten advarer:"Syntetisk innhold vil manipulere enkeltpersoner, skade økonomier og bryte samfunn på mange måter i løpet av de neste to årene ... det er en risiko for at noen regjeringer vil handle for sakte, og står overfor en avveining mellom å forhindre feilinformasjon og å beskytte ytringsfriheten."

deepfakes-desinformasjon-politikk

(Dyp) fake det

Utfordringen er at verktøy som ChatGPT og fritt tilgjengelig generativ AI (GenAI) har gjort det mulig for et bredere spekter av individer å engasjere seg i å lage desinformasjonskampanjer drevet av dypfalsk teknologi. Med alt det harde arbeidet som er gjort for dem, har ondsinnede aktører mer tid til å jobbe med meldingene sine og forsterke innsatsen for å sikre at deres falske innhold blir sett og hørt.

I valgsammenheng kan deepfakes åpenbart brukes for å tære på velgernes tillit til en bestemt kandidat. Det er tross alt lettere å overbevise noen om ikke å gjøre noe enn omvendt. Hvis tilhengere av et politisk parti eller en kandidat kan la seg påvirke av falsk lyd eller video, vil det være en klar seier for rivaliserende grupper. I noen situasjoner kan useriøse stater se ut til å undergrave troen på hele den demokratiske prosessen, slik at den som vinner vil ha vanskelig for å styre med legitimitet.

I kjernen av utfordringen ligger en enkel sannhet: når mennesker behandler informasjon, har de en tendens til å verdsette kvantitet og enkel forståelse. Det betyr at jo mer innhold vi ser med et lignende budskap, og jo lettere det er å forstå, jo større er sjansen for at vi tror det. Det er derfor markedsføringskampanjer har en tendens til å være sammensatt av korte og kontinuerlig gjentatte meldinger. Legg til dette at deepfakes blir stadig vanskeligere å skille ut fra ekte innhold, og du har en potensiell oppskrift på demokratisk katastrofe.

Fra teori til praksis

Bekymringsfullt nok vil deepfakes sannsynligvis ha en innvirkning på velgernes sentiment. Ta dette ferske eksemplet: I januar 2024, en dypfalsk lyd av USAs president Joe Biden ble sirkulert via en robocall til et ukjent antall primærvelgere i New Hampshire. I meldingen ba han dem tilsynelatende ikke å møte opp, og i stedet «spare stemmen din til valget i november». Oppringer-ID-nummeret som ble vist ble også forfalsket for å se ut som om den automatiserte meldingen ble sendt fra det personlige nummeret til Kathy Sullivan, en tidligere leder av det demokratiske partiet i staten som nå driver en pro-Biden super-PAC.

Det er ikke vanskelig å se hvordan slike oppfordringer kan brukes til å fraråde velgere å stille opp på sin foretrukne kandidat foran presidentvalget i november. Risikoen vil være spesielt akutt ved tett omstridte valg, der flytting av et lite antall velgere fra en side til en annen avgjør resultatet. Med bare titusenvis av velgere i en håndfull svingstater som sannsynligvis vil avgjøre utfallet av valget, kan en målrettet kampanje som dette gjøre uendelig skade. Og ved å legge fornærmelse til skade, som i tilfellet ovenfor, spres det via robocalls i stedet for sosiale medier, det er enda vanskeligere å spore eller måle effekten.

Hva gjør teknologiselskapene med det?

Både YouTube og Facebook er det sies å ha vært treg i å svare på noen deepfakes som var ment å påvirke et nylig valg. Det til tross for en ny EU-lov (loven om digitale tjenester) som pålegger sosiale mediefirmaer å slå ned på forsøk på valgmanipulasjon.

OpenAI har på sin side sagt at de vil implementere den digitale legitimasjonen til Coalition for Content Provenance and Authenticity (C2PA) for bilder generert av DALL-E3. Den kryptografiske vannmerketeknologien – også utprøvd av Meta og Google – er designet for å gjøre det vanskeligere å produsere falske bilder.

Men dette er fortsatt bare små skritt og det er det berettigede bekymringer at den teknologiske responsen på trusselen vil være for liten, for sent ettersom valgfeberen griper kloden. Spesielt når de spres i relativt lukkede nettverk som WhatsApp-grupper eller robocall, vil det være vanskelig å raskt spore og avkrefte falsk lyd eller video.

Teorien om "forankringsskjevhet" antyder at den første informasjonen mennesker hører er den som fester seg i tankene våre, selv om den viser seg å være falsk. Hvis deepfakers kommer til å svinge velgere først, er alle spill avgjort på hvem den endelige vinneren blir. I en tid med sosiale medier og AI-drevet desinformasjon, får Jonathan Swifts ordtak «usannhet flyr, og sannheten kommer haltende etter den» en helt ny betydning.

spot_img

Siste etterretning

spot_img

Chat med oss

Hei der! Hvordan kan jeg hjelpe deg?