Platonova podatkovna inteligenca.
Navpično iskanje in Ai.

Deepfake Democracy: tehnologija umetne inteligence otežuje varnost volitev

Datum:

Nedavni dogodki, vključno z globokim ponarejanjem, ki ga je ustvarila umetna inteligenca (AI). robotski klic, ki se predstavlja kot predsednik Biden pozivanje volivcev v New Hampshiru, naj se vzdržijo primarnih volitev, služi kot oster opomin, da zlonamerni akterji vedno bolj gledajo na sodobne generativne AI (GenAI) platforme kot na močno orožje za ciljanje na volitve v ZDA.

Platforme, kot so ChatGPT, Googlov Gemini (prej Bard) ali poljubno število namensko zgrajenih velikih jezikovnih modelov temnega spleta (LLM), bi lahko imele vlogo pri motnjah demokratičnega procesa z napadi, ki vključujejo kampanje za množični vpliv, avtomatizirano trolanje in širjenje deepfake vsebine.

Pravzaprav direktor FBI Christopher Wray nedavno izraženih pomislekov o nenehni informacijski vojni z uporabo globokih ponaredkov, ki bi lahko sejali dezinformacije med prihajajočo predsedniško kampanjo, saj akterji s podporo države poskušajo zamajati geopolitična ravnovesja.

GenAI bi lahko tudi avtomatiziral vzpon "usklajeno nepristno vedenje” omrežij, ki poskušajo razviti občinstvo za svoje dezinformacijske kampanje prek objav z lažnimi novicami, prepričljivih profilov na družbenih omrežjih in drugih načinov – s ciljem sejati razdor in spodkopati zaupanje javnosti v volilni proces.

Vpliv na volitve: znatna tveganja in scenariji nočne more

Z vidika Padraica O'Reillyja, glavnega direktorja za inovacije pri CyberSaint, je tveganje "znatno", ker se tehnologija tako hitro razvija.

»Obljublja, da bo zanimivo in morda tudi nekoliko zaskrbljujoče, saj vidimo nove različice dezinformacij, ki izkoriščajo tehnologijo deepfake,« pravi.

Natančneje, pravi O'Reilly, je "scenarij nočne more" ta, da se bo mikrotargetiranje z vsebino, ki jo ustvari umetna inteligenca, razširilo na platformah družbenih medijev. To je znana taktika iz Skandal Cambridge Analytica, kjer je podjetje zbralo podatke o psiholoških profilih 230 milijonov ameriških volivcev, da bi posameznikom posredovalo zelo prilagojena sporočila prek Facebooka in poskušalo vplivati ​​na njihova prepričanja – in glasove. Toda GenAI bi lahko avtomatiziral ta proces v velikem obsegu in ustvaril zelo prepričljivo vsebino, ki bi imela le malo, če sploh, lastnosti »botov«, ki bi lahko odvrnile ljudi.

»Ukradeni ciljni podatki [posnetki osebnosti uporabnika in njegovih interesov], združeni z vsebino, ustvarjeno z umetno inteligenco, so resnično tveganje,« pojasnjuje. »Ruske dezinformacijske kampanje 2013–2017 namigujejo na to, kaj bi se še lahko zgodilo in se bo še zgodilo, in poznamo globoke ponaredke, ki so jih ustvarili državljani ZDA [kot je tisti], v katerem je Biden, in Elizabeth Warren«.

Mešanica družbenih medijev in lahko dostopna tehnologija deepfake bi lahko bila orožje sodnega dne za polarizacijo državljanov ZDA v že tako globoko razdeljeni državi, dodaja.

»Demokracija temelji na določenih skupnih tradicijah in informacijah, nevarnost pa je vse večja balkanizacija med državljani, kar vodi k temu, kar je Stanfordska raziskovalka Renée DiResta poimenovala 'resničnost po meri',« pravi O'Reilly, ali ljudje, ki verjamejo v »alternativna dejstva«.

Platforme, ki jih akterji groženj uporabljajo za sejanje delitev, bodo verjetno v malo pomoči: dodaja, da je na primer platforma družbenih medijev X, prej znana kot Twitter, iztrebila svoje zagotavljanje kakovosti (QA) vsebine.

"Druge platforme so zagotovile standardna zagotovila, da bodo obravnavale dezinformacije, vendar zaščita svobode govora in pomanjkanje predpisov še vedno puščata široko polje za slabe akterje," opozarja.

AI krepi obstoječe TTP-je lažnega predstavljanja

GenAI se že uporablja za ustvarjanje verjetnejših, ciljno usmerjenih lažnih kampanj v velikem obsegu – toda v kontekstu volilne varnosti je ta pojav še bolj zaskrbljujoč, pravi Scott Small, direktor obveščevalnih podatkov o kibernetskih grožnjah pri Tidal Cyber.

»Pričakujemo, da bodo kibernetski nasprotniki sprejeli generativno umetno inteligenco, da bodo napadi z lažnim predstavljanjem in družbenim inženiringom – vodilne oblike napadov, povezanih z volitvami v smislu doslednega obsega v mnogih letih – bolj prepričljivi, zaradi česar je bolj verjetno, da bodo tarče sodelovale z zlonamerno vsebino, « pojasnjuje.

Small pravi, da uvedba umetne inteligence prav tako znižuje vstopno oviro za izvajanje takšnih napadov, dejavnik, ki bo letos verjetno povečal obseg kampanj, ki se med drugim poskušajo infiltrirati v kampanje ali prevzeti račune kandidatov za namene lažnega predstavljanja.

»Nasprotniki kriminalcev in nacionalnih držav redno prilagajajo lažno predstavljanje in vabe družbenega inženiringa aktualnim dogodkom in priljubljenim temam in ti akterji bodo skoraj zagotovo poskušali izkoristiti razcvet digitalne vsebine, povezane z volitvami, ki se na splošno distribuira v tem letu, da bi poskušali zagotoviti zlonamerno vsebino nič hudega slutečim uporabnikom,« pravi.

Obramba pred volilnimi grožnjami z umetno inteligenco

Za obrambo pred temi grožnjami se morajo volilni uradniki in volilne kampanje zavedati tveganj, ki jih poganja GenAI, in kako se ubraniti pred njimi.

»Volilni uradniki in kandidati nenehno dajejo intervjuje in tiskovne konference, iz katerih lahko akterji groženj potegnejo zvočne utrinke za globoke ponaredke, ki temeljijo na umetni inteligenci,« pravi James Turgal, podpredsednik oddelka za kibernetska tveganja pri Optivu. "Zato je njihova dolžnost zagotoviti, da imajo osebo ali ekipo, ki je odgovorna za zagotavljanje nadzora nad vsebino."

Prav tako morajo zagotoviti, da so prostovoljci in delavci usposobljeni za grožnje, ki jih poganja umetna inteligenca, kot je izboljšan socialni inženiring, akterji groženj, ki stojijo za njimi, in kako se odzvati na sumljivo dejavnost.

V ta namen bi moralo osebje sodelovati pri usposabljanju o socialnem inženiringu in videoposnetku deepfake, ki vključuje informacije o vseh oblikah in vektorjih napadov, vključno z elektronskimi (e-pošta, besedila in platforme družbenih medijev), osebnimi in telefonskimi poskusi.

»To je tako pomembno – zlasti pri prostovoljcih –, ker nimajo vsi dobre kibernetske higiene,« pravi Turgal.

Poleg tega morajo biti prostovoljci pri kampanjah in volitvah usposobljeni za varno posredovanje informacij na spletu in zunanjim subjektom, vključno z objavami v družabnih medijih, in pri tem biti previdni.

"Akterji kibernetskih groženj lahko zberejo te informacije, da prilagodijo družbeno zasnovane vabe specifičnim ciljem," opozarja.

O'Reilly pravi, da dolgoročna ureditev vključuje vodni žig za avdio in video deepfake bo ključnega pomena, pri čemer je treba opozoriti, da zvezna vlada sodeluje z lastniki LLM, da bi vzpostavila zaščito.

Dejansko je Zvezna komisija za komunikacije (FCC) je pravkar objavila Glasovni klici, ustvarjeni z umetno inteligenco, so v skladu z Zakonom o varstvu telefonskih potrošnikov (TCPA) »umetni«, zaradi česar je uporaba tehnologije kloniranja glasu nezakonita in državnim pravobranilcem po vsej državi zagotavlja nova orodja za boj proti takim goljufivim dejavnostim.

»Umetna inteligenca se premika tako hitro, da obstaja neločljiva nevarnost, da bi vsa predlagana pravila z napredkom tehnologije postala neučinkovita in bi lahko zgrešila cilj,« pravi O'Reilly. "V nekaterih pogledih je to Divji zahod in umetna inteligenca prihaja na trg z zelo malo zaščitnih ukrepov."

spot_img

Najnovejša inteligenca

spot_img

Klepetajte z nami

Zdravo! Kako vam lahko pomagam?