Platonova podatkovna inteligenca.
Navpično iskanje in Ai.

Microsoft razkriva tehnologijo deepfake, ki je predobra, da bi jo izdali

Datum:

Microsoft je ta teden predstavil VASA–1, okvir za ustvarjanje videoposnetkov ljudi, ki se pogovarjajo iz mirujoče slike, zvočnega vzorca in besedilnega scenarija, in trdi – upravičeno – da je prenevarno, da bi bilo objavljeno javnosti.

Ti videoposnetki, ustvarjeni z umetno inteligenco, v katerih je mogoče prepričljivo animirati ljudi, da govorijo napisane besede s kloniranim glasom, so nekaj takega, kot je ameriška zvezna komisija za trgovino opozoril na prejšnji mesec, po prejšnjem predlaganje pravila preprečiti, da bi se tehnologija umetne inteligence uporabljala za lažno predstavljanje.

Microsoftova ekipa to priznava v svojih Objava, ki pojasnjuje, da tehnologija ni objavljena zaradi etičnih razlogov. Vztrajajo, da predstavljajo raziskavo za ustvarjanje virtualnih interaktivnih likov in ne za lažno predstavljanje kogar koli. Kot tak ni načrtovan izdelek ali API.

»Naša raziskava se osredotoča na ustvarjanje vizualnih čustvenih veščin za virtualne avatarje AI, s ciljem pozitivnih aplikacij,« navajajo boffini iz Redmonda. »Ni namenjeno ustvarjanju vsebine, ki se uporablja za zavajanje ali zavajanje.

»Vendar bi jo lahko, tako kot druge povezane tehnike ustvarjanja vsebine, še vedno potencialno zlorabili za lažno predstavljanje ljudi. Nasprotujemo kakršnemu koli vedenju za ustvarjanje zavajajoče ali škodljive vsebine resničnih oseb in nas zanima uporaba naše tehnike za izboljšanje odkrivanja ponarejanja.«

Kevin Surace, predsednik podjetja Token, podjetja za biometrično avtentikacijo in pogost govornik o generativni umetni inteligenci, je povedal Register v e-poštnem sporočilu, da čeprav so bile predhodne tehnološke predstavitve obrazov, animiranih iz slike in klonirane glasovne datoteke, Microsoftova predstavitev odraža stanje tehnike.

"Posledice za personalizacijo elektronske pošte in druge poslovne množične komunikacije so čudovite," je menil. »Tudi animiranje starejših slik. Do neke mere je to samo zabava, do druge pa ima dobre poslovne aplikacije, ki jih bomo vsi uporabljali v prihodnjih mesecih in letih.«

"Zabava" globokih ponaredkov je bila 96 odstotkov pornografije brez privolitve ocenili [PDF] leta 2019 s strani podjetja za kibernetsko varnost Deeptrace.

Kljub temu Microsoftovi raziskovalci menijo, da ima sposobnost ustvarjanja ljudi realističnega videza in polaganja besed v njihova usta pozitiven učinek.

"Takšna tehnologija obljublja obogatitev digitalne komunikacije, povečanje dostopnosti za tiste s komunikacijskimi motnjami, preoblikovanje izobraževanja, metode z interaktivnim poučevanjem umetne inteligence ter zagotavljanje terapevtske podpore in socialne interakcije v zdravstvu," predlagajo v raziskovalna naloga ki ne vsebuje besed »porno« ali »napačne informacije«.

Čeprav je sporno, da video, ustvarjen z umetno inteligenco, ni povsem enak globokemu ponarejanju, slednji opredeljen z digitalno manipulacijo v nasprotju z generativno metodo postane razlikovanje nepomembno, ko je mogoče pričarati prepričljiv ponaredek brez cepljenja izreži in prilepi.

Na vprašanje, kaj meni o dejstvu, da Microsoft te tehnologije ne daje v javnost zaradi strahu pred zlorabo, je Surace izrazil dvom o upravičenosti omejitev.

"Microsoft in drugi so se za zdaj vzdržali, dokler ne rešijo težav z zasebnostjo in uporabo," je dejal. "Kako bo kdo reguliral, kdo to uporablja iz pravih razlogov?"

Surace je dodal, da že obstajajo odprtokodni modeli, ki so podobno izpopolnjeni, pri čemer je opozoril na EMO. "Izvirno kodo lahko potegnemo iz GitHuba in okoli nje zgradimo storitev, ki bi verjetno konkurirala Microsoftovim rezultatom," je opazil. »Zaradi odprtokodnosti prostora bo njegovo urejanje v vsakem primeru nemogoče.«

Vendar pa države po vsem svetu poskušajo regulirati ljudi, ki jih izdeluje umetna inteligenca. Kanada, KitajskaIn UK, med drugimi narodi imajo vsi predpise, ki se lahko uporabljajo za deepfake, od katerih nekateri izpolnjujejo širše politične cilje. Velika Britanija samo ta teden naredila nezakonito za ustvarjanje spolno eksplicitne slike deepfake brez privolitve. Skupna raba takšnih slik je že bila prepovedana po zakonu Združenega kraljestva o spletni varnosti iz leta 2023.

Januarja je dvostrankarska skupina ameriških zakonodajalcev Uvedeno Zakon o motenju eksplicitnih ponarejenih slik in urejanju brez soglasja iz leta 2024 (zakon DEFIANCE), predlog zakona, ki žrtvam globoko ponarejenih slik brez soglasja omogoča vložitev civilne tožbe na sodišču.

In v torek, 16. aprila, je odbor ameriškega senata za pravosodje, pododbor za zasebnost, tehnologijo in pravo zaslišanje z naslovom "Nadzor nad AI: Election Deepfakes."

V pripravljenih pripombah je Rijul Gupta, izvršni direktor DeepMedia, podjetja za odkrivanje globokih ponaredkov, dejal:

[N]ajbolj zaskrbljujoč vidik globokih ponaredkov je njihova zmožnost, da slabim akterjem zagotovijo verjetno zanikanje, kar jim omogoča, da zavrnejo pristno vsebino kot lažno. Ta erozija javnega zaupanja prizadene samo jedro naše družbene strukture in temelje naše demokracije. Človeški možgani, naravnani tako, da verjamejo temu, kar vidijo in slišijo, so še posebej ranljivi za prevare globokih ponaredkov. Ker te tehnologije postajajo vse bolj izpopolnjene, grozijo, da bodo spodkopale skupni občutek realnosti, ki je temelj naše družbe, ter ustvarjajo ozračje negotovosti in skepticizma, kjer državljani dvomijo o resničnosti vsake informacije, na katero naletijo.

Toda pomislite na marketinške aplikacije. ®

spot_img

Najnovejša inteligenca

spot_img

Klepetajte z nami

Zdravo! Kako vam lahko pomagam?