Platonova podatkovna inteligenca.
Navpično iskanje in Ai.

Če želite regulirati AI, začnite s strojno opremo, trdijo boffini

Datum:

V našem prizadevanju, da bi omejili uničevalni potencial umetne inteligence, je nov članek Univerze v Cambridgeu predlagal, da bi v strojno opremo, ki ga poganja, vključili daljinska izklopna stikala in zaklepe, kot so tisti, ki so bili razviti za zaustavitev nepooblaščenega izstrelitve jedrskega orožja.

Papir [PDF], ki vključuje glasove številnih akademskih ustanov in več iz OpenAI, trdi, da je lahko uravnavanje strojne opreme, na katero se ti modeli opirajo, najboljši način za preprečevanje njene zlorabe.

»Računalništvo, ki je pomembno za AI, je še posebej učinkovita točka posega: zaznati ga je, izključiti in merljivo ter se proizvaja prek izjemno koncentrirane dobavne verige,« trdijo raziskovalci.

Usposabljanje najplodnejših modelov, za katere se domneva, da presegajo bilijon parametrov, zahteva neizmerno fizično infrastrukturo: več deset tisoč grafičnih procesorjev ali pospeševalnikov in tedne ali celo mesece časa obdelave. Zaradi tega je po mnenju raziskovalcev obstoj in relativno uspešnost teh virov težko skriti.

Še več, najnaprednejše čipe, ki se uporabljajo za treniranje teh modelov, proizvaja razmeroma majhno število podjetij, kot so Nvidia, AMD in Intel, kar oblikovalcem politik omogoča, da prodajo teh izdelkov omejijo osebam ali državam, ki vzbujajo zaskrbljenost.

Ti dejavniki, skupaj z drugimi, kot so omejitve dobavne verige pri proizvodnji polprevodnikov, oblikovalcem politik ponujajo sredstva za boljše razumevanje, kako in kje je nameščena infrastruktura umetne inteligence, kdo sme in ne sme dostopati do nje, ter uveljavljajo kazni za njeno zlorabo, trdi časopis. .

Nadzor nad infrastrukturo

Prispevek izpostavlja številne načine, na katere bi oblikovalci politik lahko pristopili k regulaciji strojne opreme AI. Številni predlogi – vključno s tistimi, namenjenimi izboljšanju prepoznavnosti in omejitvi prodaje pospeševalnikov umetne inteligence – se že izvajajo na nacionalni ravni.

Lansko leto je ameriški predsednik Joe Biden predlagal izvršilni red namenjen prepoznavanju podjetij, ki razvijajo velike modele umetne inteligence z dvojno rabo, in prodajalcev infrastrukture, ki so sposobni jih usposobiti. Če niste seznanjeni, se »dvojna raba« nanaša na tehnologije, ki imajo dvojno funkcijo v civilnih in vojaških aplikacijah.

Nedavno Ministrstvo za trgovino ZDA predlagano predpis, ki bi od ameriških ponudnikov oblakov zahteval izvajanje strožjih politik »poznaj svojo stranko«, da bi preprečili osebam ali zadevnim državam, da bi se izognili izvoznim omejitvam.

Raziskovalci ugotavljajo, da je tovrstna vidnost dragocena, saj bi lahko pomagala preprečiti še eno oboroževalno tekmo, kot je tista, ki jo je sprožil spor o raketni vrzeli, kjer so napačna poročila povzročila množično kopičenje balističnih izstrelkov. Čeprav so dragoceni, opozarjajo, da izvajanje teh zahtev za poročanje tvega poseg v zasebnost strank in celo vodi do uhajanja občutljivih podatkov.

Medtem je Ministrstvo za trgovino na trgovinski fronti nadaljevalo stopi gor omejitve, ki omejujejo delovanje pospeševalnikov, prodanih na Kitajsko. Toda, kot smo že poročali, čeprav so ta prizadevanja državam, kot je Kitajska, težje pridobila ameriške čipe, še zdaleč niso popolna.

Da bi odpravili te omejitve, so raziskovalci predlagali uvedbo globalnega registra za prodajo čipov AI, ki bi jih spremljal v njihovem življenjskem ciklu, tudi potem, ko so zapustili državo izvora. Predlagajo, da bi tak register lahko v vsak čip vključil edinstven identifikator, kar bi lahko pomagalo v boju proti Tihotapljenje komponent.

Na bolj skrajnem koncu spektra so raziskovalci predlagali, da bi lahko stikala za izklop vdelali v silicij, da bi preprečili njihovo uporabo v zlonamernih aplikacijah.

Teoretično bi to regulatorjem lahko omogočilo, da se hitreje odzovejo na zlorabe občutljivih tehnologij tako, da na daljavo prekinejo dostop do čipov, vendar avtorji opozarjajo, da to ni brez tveganja. Posledica tega je, da bi takšno stikalo za izklop lahko postalo tarča kibernetskih kriminalcev, če bi se izvajalo nepravilno.

Drugi predlog bi zahteval, da se več strank prijavi na potencialno tvegane naloge usposabljanja umetne inteligence, preden jih je mogoče uporabiti v velikem obsegu. "Jedrsko orožje uporablja podobne mehanizme, imenovane permisivne akcijske povezave," so zapisali.

Pri jedrskem orožju so te varnostne ključavnice zasnovane tako, da preprečijo, da bi ena oseba prevarala in začela prvi udarec. Za umetno inteligenco pa je zamisel, da če želi posameznik ali podjetje usposobiti model nad določenim pragom v oblaku, mora najprej pridobiti dovoljenje za to.

Čeprav gre za močno orodje, raziskovalci opažajo, da bi lahko imelo negativne posledice, saj bi preprečilo razvoj zaželene umetne inteligence. Zdi se, da je argument, da čeprav ima uporaba jedrskega orožja precej jasen rezultat, umetna inteligenca ni vedno tako črno-bela.

Če pa se vam to zdi preveč distopično za vaš okus, časopis posveča cel razdelek prerazporeditvi virov umetne inteligence za izboljšanje družbe kot celote. Zamisel je, da bi oblikovalci politik lahko stopili skupaj, da bi naredili računalništvo z umetno inteligenco bolj dostopno skupinam, ki jih verjetno ne bodo uporabljale za zlo, koncept, opisan kot "dodeljevanje".

Kaj je narobe z regulacijo razvoja AI?

Zakaj bi se tako trudil? No, avtorji prispevka trdijo, da je fizično strojno opremo samo po sebi lažje nadzorovati.

V primerjavi s strojno opremo so "drugi vhodni in izhodni podatki razvoja umetne inteligence – podatki, algoritmi in usposobljeni modeli – lahko deliti, nekonkurenčno neopredmeteno blago, zaradi česar jih je samo po sebi težko nadzorovati," piše v dokumentu.

Argument je bil, da ko je model objavljen, bodisi odprt ali razkrit, duha ni več mogoče vrniti v steklenico in ustaviti njegovega širjenja po omrežju.

Raziskovalci so tudi poudarili, da so se prizadevanja za preprečevanje zlorabe modelov izkazala za nezanesljiva. V enem primeru so avtorji poudarili lahkoto, s katero so raziskovalci lahko odstranili zaščitne ukrepe v Metini Llami 2, ki naj bi preprečili modelu ustvarjanje žaljivega jezika.

Skrajno se bojijo, da bi lahko uporabili dovolj napreden model dvojne rabe za pospešitev Razvoj kemičnega ali biološkega orožja.

Prispevek priznava, da regulacija strojne opreme AI ni srebrna paša in ne odpravlja potrebe po regulaciji v drugih vidikih industrije.

Vendar je sodelovanje več raziskovalcev OpenAI težko prezreti glede na sodelovanje izvršnega direktorja Sama Altmana poskusi nadzorovati pripoved o regulaciji umetne inteligence. ®

spot_img

Najnovejša inteligenca

spot_img

Klepetajte z nami

Zdravo! Kako vam lahko pomagam?