Platon Data Intelligence.
Pystyhaku ja Ai.

Vitalik Buterin korostaa tekoälyn mahdollista käyttötapausta Ethereumissa

Treffi:

Vitalik Buterin korostaa tekoälyn mahdollista käyttötapausta Ethereumissa

Mainos

 

 

Ethereumin toinen perustaja Vitalik Buterin on ilmaissut innostuneisuutensa mahdollisuudesta tehdä tekoälyn avulla muodollinen koodin ja virheiden havaitseminen.

Maanantai-tweetissä Buterin totesi, että Ethereumin merkittävin tekninen riski johtuu koodin virheistä, ja kaikki, mikä voisi merkittävästi muuttaa peliä tällä rintamalla, olisi uraauurtavaa.

"Yksi tekoälyn sovellus, josta olen innoissani, on tekoälyavusteinen koodin ja virheiden havaitseminen. Tällä hetkellä Ethereumin suurin tekninen riski on luultavasti koodivirheet, ja kaikki, mikä voisi merkittävästi muuttaa pelin toimintaa, olisi uskomatonta. hän kirjoitti.

Erityisesti yksi suurimmista edessä olevista haasteista Ethereum protokollat ​​on bugien hyväksikäyttöä, mikä johtaa miljoonien dollarien tappioihin sijoittajille hakkerointitapausten vuoksi. Chainalysisin raportin mukaan vuonna 2023 varastetut kryptovarat saavuttivat hämmästyttävät 1.7 miljardia dollaria, ja noin kaksi kolmasosaa kaikista varastetuista varoista johtui hakkeroista, jotka kohdistuivat DeFi-protokolliin. Ja vaikka varkauksien kokonaismäärä on vähentynyt edellisiin vuosiin verrattuna, DeFi-hakkeroinnin uhka on edelleen merkittävä huolenaihe.

Vaikka Buterin ilmaisee optimismia tekoälyn mahdollisuuksista, hän on myös huomauttanut varovaisuudesta. Tammikuun 30. päivänä päivätyssä blogissa Ethereumin toinen perustaja neuvoi varovaisuutta integroitaessa tekoälyä lohkoketjuteknologiaan ja korosti kriittisen huolellisen ja mitatun lähestymistavan tarvetta erityisesti käytettäessä tekoälyä yhteyksissä, joissa on merkittävää arvoa ja riskejä.

MainosCoinbase 

 

Erityisesti viime vuonna älykkäiden sopimusten kehitysyhtiö OpenZeppelinin kokeilu OpenAI:n GPT-4:n avulla Solidity-älysopimusten tietoturvaongelmien havaitsemiseen tuotti ristiriitaisia ​​tuloksia. Yrityksen raportin mukaan GPT-4 tunnisti tarkasti haavoittuvuuksia 20:ssa 28:sta haasteesta, mutta joskus se keksi myös olemattomia haavoittuvuuksia.

Samoin Kang Li, lohkoketjuturvallisuusyrityksen CertiK:n turvallisuuspäällikkö, on varoittanut luottamasta yksinomaan tekoälykäyttöisiin työkaluihin koodauksessa. Puhuessaan viime syyskuussa Korean lohkoketjuviikon aikana Li totesi, että tekoälytyökalut voivat aiheuttaa enemmän tietoturvaongelmia kuin mitä ne ratkaisevat, jos niitä käytetään ilman varovaisuutta. 

Li korosti lisäksi, että esimerkiksi ChatGPT ei välttämättä pysty havaitsemaan loogisen koodin virheitä yhtä taitavasti kuin kokeneet kehittäjät. Sen sijaan asiantuntija ehdotti tekoälyassistenttien käyttöä kokeneiden kehittäjien tukityökaluina, jotta he voivat ymmärtää koodia tehokkaammin.

spot_img

Uusin älykkyys

spot_img

Keskustele kanssamme

Hei siellä! Kuinka voin olla avuksi?