Platón adatintelligencia.
Vertical Search & Ai.

Az OpenAI globális ügynökséget kér a szuperintelligencia szabályozására

Találka:

A GPT-4-et gyártó OpenAI felső vezetői szerint egy nemzetközi ügynökségnek kellene felügyelnie és auditálnia a mesterséges általános intelligenciát, hogy biztosítsa a technológia biztonságát az emberiség számára.

Sam Altman vezérigazgató, valamint a társalapítók, Greg Brockman és Ilya Sutskever szerint „elképzelhető”, hogy a mesterséges intelligencia olyan rendkívüli képességekre tesz szert, amelyek felülmúlják az embert a következő évtizedben.

“In terms of both potential upsides and downsides, superintelligence will be more powerful than other technologies humanity has had to contend with in the past. We can have a dramatically more prosperous future; but we have to manage risk to get there,” the trio said in a blogbejegyzés kedden.

Az ilyen nagy teljesítményű technológia kiépítésének költségei csak csökkennek, ahogy egyre többen dolgoznak a fejlesztésén – érveltek. Az előrehaladás ellenőrzése érdekében a fejlesztést egy olyan nemzetközi szervezetnek kell felügyelnie, mint a Nemzetközi Atomenergia Ügynökség (NAÜ).

A NAÜ-t 1957-ben hozták létre, amikor a kormányok attól tartottak, hogy a hidegháború idején atomfegyvereket fognak kifejleszteni. Az ügynökség segít az atomenergia szabályozásában, és biztosítékokat határoz meg annak biztosítására, hogy az atomenergiát ne használják katonai célokra.

„Valószínűleg szükségünk lesz valamire, például a NAÜ-re a szuperintelligencia erőfeszítéseihez; egy bizonyos képesség (vagy erőforrások, például számítási) küszöbérték felett minden erőfeszítést egy nemzetközi hatóságnak kell alávetni, amely ellenőrizheti a rendszereket, auditokat írhat elő, tesztelheti a biztonsági előírásoknak való megfelelést, korlátozásokat írhat elő a telepítési és biztonsági szintekre stb. " azt mondták.

Egy ilyen csoport feladata lenne a számítástechnika és az energiafelhasználás nyomon követése, amelyek a nagy és nagy teljesítményű modellek betanításához és futtatásához szükséges létfontosságú erőforrások.

„Közösen megállapodhatnánk abban, hogy az AI-képesség növekedési üteme a határon egy bizonyos éves ütemre korlátozódik” – javasolta az OpenAI vezető munkatársa. A vállalatoknak önként kellene beleegyezniük az ellenőrzésekbe, és az ügynökségnek az „egzisztenciális kockázat csökkentésére” kell összpontosítania, nem pedig az adott ország egyedi törvényei által meghatározott és meghatározott szabályozási kérdésekre.

A múlt héten Altman felvetette azt az ötletet, hogy a vállalatoknak engedélyt kell szerezniük egy meghatározott küszöbérték feletti fejlett képességekkel rendelkező modellek gyártására a szenátusban. hallás. Javaslatát később bírálták, mivel méltánytalanul befolyásolhatja a kisebb cégek vagy a nyílt forráskódú közösség által épített mesterséges intelligencia-rendszereket, amelyek kevésbé valószínű, hogy rendelkeznek a jogi követelmények teljesítéséhez szükséges erőforrásokkal.

"Fontosnak tartjuk, hogy lehetővé tegyük a vállalatoknak és a nyílt forráskódú projekteknek, hogy egy jelentős képességi küszöb alatti modelleket fejlesszenek ki, az itt leírt szabályozás nélkül (beleértve az olyan terhes mechanizmusokat, mint a licencek vagy az auditok)" - mondták.

Elon Musk március végén egyike volt annak az 1,000 nyílt levélnek, amely aláírt egy hat hónapos szünetet a GPT4-nél erősebb mesterséges intelligencia fejlesztésében és képzésében az emberiséget fenyegető lehetséges kockázatok miatt, amit Altman is mondott. megerősített április közepén csinálta.

„Erőteljes AI-rendszereket csak akkor szabad kifejleszteni, ha biztosak vagyunk abban, hogy hatásaik pozitívak lesznek, és kockázataik kezelhetők lesznek” – áll a levélben.

Az Alphabet és a Google vezérigazgatója, Sundar Pichai írt egy cikket a Financial Timesban a hétvégén, mondás: „Még mindig úgy gondolom, hogy a mesterséges intelligencia túl fontos ahhoz, hogy ne szabályozzuk, és túl fontos ahhoz, hogy ne szabályozzuk jól”. ®

spot_img

Legújabb intelligencia

spot_img

Beszélj velünk

Szia! Miben segíthetek?