Platonova podatkovna inteligenca.
Navpično iskanje in Ai.

Veliki jezikovni modeli vam lahko lažejo – ta profesor želi, da veste, kdaj lažejo – Mass Tech Leadership Council

Datum:

Pogovarjajte se skoraj s komer koli – to je z vsakim človekom – in vaš pogovor bo naletel na kaj Malihe Alikhani imenuje »zdrava trenja«, trenutke, ko se vaš cilj v pogovoru spopade s partnerjevim, trenutke, ki zahtevajo razjasnitev, povzročajo zmedo ali vodijo v nestrinjanje.

Pri velikih jezikovnih modelih ni tako.

Alikhani, docent na Khoury College of Computer Sciences na Northeastern University, pravi, da imajo veliki jezikovni modeli, kot je ChatGPT, resne težave z gotovostjo.

Alikhanijev novi projekt, imenovan Friction for Accountability in Conversational Transactions (FACT), je plod sodelovanja med Northeastern University, University of Illinois Urbana-Champaign in University of Southern California.

Cilj projekta FACT, ki ga financira agencija za raziskovanje umetne inteligence prek Agencije za napredne obrambne raziskave, je razviti preglednejša in pravičnejša orodja umetne inteligence.

»Ena od stvari, zaradi katerih je človeška komunikacija plodno orodje,« pravi Alikhani, »je dejstvo, da svojo negotovost predstavljamo v svojem govoru, v svojem tonu. To izrazimo v obrazni mimiki.”

Zdrava trenja, ki izhajajo iz negotovosti v komunikaciji med človekom, pomagajo ohranjati raznolikost mnenj in stališč, nadaljuje.

Toda veliki jezikovni modeli (ali LLM-ji) niso zainteresirani za izražanje svoje negotovosti, kar ima za posledico tisto, kar Alikhani imenuje "podliznično vedenje". Veliki jezikovni modeli "želijo čim bolj povečati zadovoljstvo" svojih uporabnikov, pravi, in "nikoli ne vnašajo trenja v pogovor, ne glede na to, ali je [model] prepričan" o svojih izjavah ali ne.

Dodatne težave nastanejo pri velikih jezikovnih modelih zaradi njihove nagnjenosti k halucinacijam. LLM »izmišljujejo dejstva. Zelo dobri so pri prepričevanju ljudi o izmišljenih dejstvih.«

Kljub tem težavam Alikhani tudi pravi, da so ljudje nagnjeni k pretiranemu zanašanju na "dejstva", ki jih ustvarijo ti modeli umetne inteligence, ki "lahko izmislijo dejstva, da bi bili srečni."

Del tega, kar prispeva k pretirani odvisnosti uporabnikov od LLM, je njihovo »človeško podobno vedenje,« pravi. "To bo manipuliralo z našim spoznanjem."

Zdi se tudi, da veliki jezikovni modeli ustvarijo svoje odgovore v trenutku, kar je še en dejavnik, zaradi katerega uporabniki domnevajo, da so pravilni. »Za nas znanstvenike AI je težko ljudem reči: 'Ja, to je skladno. Ja, hitro je. Da, prilagaja se vašemu stilu. Ampak halucinira," pravi Alikhani.

V okviru svoje nove donacije bodo Alikhani in njena ekipa oblikovali orodja, ki bodo prikazovala stopnje gotovosti, ki jih ima doktor znanosti o izjavi, ki jo daje, in v pogovore med človekom in umetno inteligenco vnesli zdrava trenja.

"Kako lahko predvidimo in verbaliziramo zaupanje sistema?" Alikhani vpraša. Če je model AI "samo 2% samozavesten, bi moral to eksternalizirati."

»Eden od glavnih ciljev raziskave je modelirati negotovost, eksternalizirati negotovost« in naučiti LLM-je, kako prikazati to negotovost v pogovoru med človekom in umetno inteligenco. To se lahko prikaže v uporabniškem vmesniku kot percentilna ocena gotovosti modela ali pa model odraža negotovost v svojih odzivih na bolj človeški način.

Na primer, Alikhani si predstavlja situacijo, v kateri lahko pacient velikemu jezikovnemu modelu postavi vprašanje o svojem zdravju. Trenutna generacija LLM-jev bo poskušala dati odgovor, tudi če bi se ta odgovor izkazal za nevarnega. Alikhani upa, da bo zgradil modele, ki bodo lahko rekli: »Ne vem. Moral bi poklicati svojo medicinsko sestro.'"

»Trobnost je ključnega pomena za odgovornost v AI,« pravi Alikhani. Trenutno je običajno, da LLM odgovori z enim odgovorom na vprašanje v času postavljanja vprašanja in popolnoma drugačnim odgovorom nekaj minut kasneje.

Ko gre za oblikovanje varne in odgovorne umetne inteligence, prejšnji sistemi umetne inteligence, ki bi lahko pomagali pri preprostih nalogah, »niso imeli dostopa do kopice drugih naborov podatkov,« pravi Alikhani, »in niso mogli povedati stvari, ki bi lahko bile nevarne. , ker tega ni bilo v njihovih podatkih.”

Točno to, kar ti nabori podatkov vključujejo - ali izključujejo - je ključnega pomena za premagovanje pristranskosti, ki jo LLM-ji kažejo do "spolnih, pa tudi subtilnejših pristranskosti, kot so nasprotne skupine in različne kognitivne pristranskosti, ki se odražajo v [velikih jezikovnih] modelih."

Zdaj Alikhani upa, da bo oblikovala modele, ki bodo služili ljudem z "različnimi možnostmi in preferencami", pravi.

"Ne želimo samo še naprej graditi sistemov za prebivalstvo, za katerega imamo podatke, ampak razmišljamo o tem, koga puščamo za sabo, in kako lahko zaustavimo to ogromno vrzel neenakosti, namesto da bi jo poslabšali?" vpraša ona. "Cilj mojega laboratorija je, da se premaknem v to smer."

spot_img

Najnovejša inteligenca

spot_img

Klepetajte z nami

Zdravo! Kako vam lahko pomagam?