Platon Data Intelligence.
Vertikal søgning & Ai.

Microsoft afslører deepfake-teknologi, der er for god til at frigive

Dato:

Microsoft demonstrerede i denne uge VASA–1, en ramme til at skabe videoer af folk, der taler fra et stillbillede, lydeksempel og tekstscript, og hævder – med rette – det er for farligt til at blive frigivet til offentligheden.

Disse AI-genererede videoer, hvor folk overbevisende kan animeres til at tale scriptede ord med en klonet stemme, er lige den slags ting, som US Federal Trade Commission advarede om sidste måned, efter tidligere foreslår en regel at forhindre AI-teknologi i at blive brugt til falsk identitet.

Microsofts team anerkender så meget i deres meddelelse, hvilket forklarer, at teknologien ikke bliver frigivet på grund af etiske overvejelser. De insisterer på, at de præsenterer forskning for at generere virtuelle interaktive karakterer og ikke for at efterligne nogen. Som sådan er der intet produkt eller API planlagt.

"Vores forskning fokuserer på at generere visuelle affektive færdigheder til virtuelle AI-avatarer med sigte på positive applikationer," siger Redmond-boffins. "Det er ikke meningen at skabe indhold, der bruges til at vildlede eller bedrage.

"Men ligesom andre relaterede teknikker til indholdsgenerering, kan det stadig potentielt misbruges til at efterligne mennesker. Vi er modstandere af enhver adfærd for at skabe vildledende eller skadeligt indhold af rigtige personer, og er interesserede i at anvende vores teknik til at fremme forfalskningsdetektering."

Kevin Surace, Chair of Token, en biometrisk autentificeringsvirksomhed og hyppig taler om generativ AI, fortalte Registret i en e-mail om, at selvom der tidligere har været teknologidemonstrationer af ansigter animeret fra et stillbillede og klonet stemmefil, afspejler Microsofts demonstration det nyeste.

"Konsekvenserne for personalisering af e-mails og anden virksomheds massekommunikation er fabelagtig," mente han. "Selv også at animere ældre billeder. Til en vis grad er det bare sjovt, og i et andet omfang har det solide forretningsapplikationer, som vi alle vil bruge i de kommende måneder og år."

Det "sjove" ved deepfakes var 96 procent porno uden samtykke, når vurderes [PDF] i 2019 af cybersikkerhedsfirmaet Deeptrace.

Ikke desto mindre antyder Microsofts forskere, at det at være i stand til at skabe realistisk udseende mennesker og lægge ord i munden på dem har positive fordele.

"Sådan teknologi rummer løftet om at berige digital kommunikation, øge tilgængeligheden for personer med kommunikative handicap, transformere uddannelse, metoder med interaktiv AI-undervisning og give terapeutisk støtte og social interaktion i sundhedsvæsenet," foreslår de i en forskningsartikel der ikke indeholder ordene "porno" eller "misinformation".

Selvom det kan diskuteres, er AI-genereret video ikke helt det samme som en deepfake, sidstnævnte definerede ved digital manipulation i modsætning til en generativ metode, bliver skelnen uvæsentlig, når en overbevisende falsk kan fremtrylles uden klip-og-klistre podning.

På spørgsmålet om, hvad han mener om, at Microsoft ikke frigiver denne teknologi til offentligheden af ​​frygt for misbrug, udtrykte Surace tvivl om begrænsningernes levedygtighed.

"Microsoft og andre har holdt tilbage for nu, indtil de har løst spørgsmålene om privatliv og brug," sagde han. "Hvordan vil nogen regulere, hvem der bruger dette af de rigtige grunde?"

Surace tilføjede, at der allerede er open source-modeller, der er tilsvarende sofistikerede, hvilket peger på EMO. "Man kan trække kildekoden fra GitHub og bygge en tjeneste omkring den, der uden tvivl ville konkurrere med Microsofts output," bemærkede han. "På grund af rummets open source-karakter vil det under alle omstændigheder være umuligt at regulere det."

Når det er sagt, forsøger lande rundt om i verden at regulere AI-fremstillede mennesker. Canada, Kina, og UK, blandt andre nationer, har alle regler, der kan anvendes på deepfakes, hvoraf nogle opfylder bredere politiske mål. Storbritannien i denne uge gjorde det ulovligt at skabe et seksuelt eksplicit deepfake billede uden samtykke. Deling af sådanne billeder var allerede forbudt i henhold til den britiske onlinesikkerhedslov fra 2023.

I januar, en bipartisan gruppe af amerikanske lovgivere introduceret loven Disrupt Explicit Forged Images and Non-Consensual Edits Act af 2024 (DEFIANCE Act), et lovforslag, der skaber en måde for ofre for deepfake-billeder uden samtykke til at indgive et civilt krav i retten.

Og tirsdag den 16. april holdt det amerikanske senatudvalg for retsvæsenet, underudvalget for privatliv, teknologi og loven en høring med titlen "Oversight of AI: Election Deepfakes."

I forberedte bemærkninger sagde Rijul Gupta, administrerende direktør for DeepMedia, en deepfake detektionsbiz:

[D]et mest alarmerende aspekt ved deepfakes er deres evne til at give dårlige skuespillere plausibel benægtelse, hvilket giver dem mulighed for at afvise ægte indhold som falsk. Denne udhuling af offentlighedens tillid rammer selve kernen af ​​vores sociale struktur og grundlaget for vores demokrati. Den menneskelige hjerne, der er kablet til at tro, hvad den ser og hører, er særligt sårbar over for bedrageri af deepfakes. Efterhånden som disse teknologier bliver mere og mere sofistikerede, truer de med at underminere den fælles følelse af virkelighed, der understøtter vores samfund, hvilket skaber et klima af usikkerhed og skepsis, hvor borgerne sætter spørgsmålstegn ved rigtigheden af ​​hver eneste information, de møder.

Men tænk på markedsføringsapplikationerne. ®

spot_img

Seneste efterretninger

spot_img

Chat med os

Hej! Hvordan kan jeg hjælpe dig?