Platón adatintelligencia.
Vertical Search & Ai.

Az AI chatbotok 82%-kal nagyobb eséllyel nyernek vitát, mint egy ember

Találka:

Ha azon töröd a fejed, hogy mi haszna van ezeknek a chatbotoknak, íme egy ötlet: Kiderült, hogy jobban tudják meggyőzni az embereket érvekkel. 

Valójában sokkal jobb, hogy korlátozott demográfiai adatok birtokában a GPT-4 állítólag 81.7 százalékkal gyakrabban tudja meggyőzni az emberi vita ellenfeleit, hogy egyetértsenek álláspontjával, mint egy emberi ellenfél. kutatás svájci és olasz akadémikusok csoportjától. 

A csapat több vitatémával is előállt – például, hogy továbbra is forgalomban kell-e lenni a fillérekért, érdemes-e laboratóriumi vizsgálatokat végezni állatokon, vagy a faji hovatartozás szerepeljen-e az egyetemi felvételinél. Az emberi résztvevők véletlenszerűen kiosztottak egy témát, egy pozíciót és egy emberi vagy mesterséges intelligencia ellenfelet, és kérték, hogy érveljenek. 

A résztvevőket arra is felkérték, hogy adjanak meg néhány demográfiai információt, és adjanak meg információkat nemükről, életkorukról, etnikai hovatartozásukról, iskolai végzettségükről, foglalkoztatási helyzetükről és politikai hovatartozásukról. Egyes esetekben ezt az információt az ellenfelek (emberi és mesterséges intelligencia) megvitatására adták, hogy az érveket az egyénre szabják, míg más esetekben elhallgatták. 

Amikor a GPT-4-et (a kísérletben használt LLM-et) demográfiai információkkal látták el, az egy mérfölddel felülmúlta az emberekét. Ezen információk nélkül a mesterséges intelligencia „még mindig felülmúlja az embereket” – bár kisebb mértékben, és statisztikailag nem volt szignifikáns. Érdekes módon, amikor az embereket demográfiai adatokkal látták el, az eredmények valójában rosszabbak lettek – állapította meg a csapat. 

„Más szóval, az LLM-ek nemcsak hogy képesek hatékonyan kihasználni a személyes információkat érveik személyre szabására, de ezt sokkal hatékonyabban is teszik, mint az emberek” – összegezte a csapat. 

A csapat elismerte, hogy nem ez a kutatás az első, amely az LLM-ek meggyőző erejét vizsgálja, de azt vizsgálja, hogy a mesterséges intelligencia mennyire lehet meggyőző valós idejű forgatókönyvekben – amiről azt mondják, hogy „még mindig korlátozottak az ismeretek”.  

A csapat elismerte, hogy kutatásuk nem tökéletes – az embereket véletlenszerűen jelölték ki a vita témájában, így például nem feltétlenül fektették be a pozíciójukat. De azzal érveltek, hogy még mindig bőven van ok arra, hogy az eredményeket komoly aggodalomra adják. 

„A szakértők széles körben fejezték ki aggodalmukat azzal kapcsolatban, hogy az LLM-eket az online beszélgetések manipulálására és az információs ökoszisztéma félretájékoztatásával való szennyezésére használják fel” – áll a lapban. 

Vannak bőven of példák más kutatási projektek ilyen jellegű eredményeiből – és néhányan azt is megállapították, hogy az LLM-ek azok jobb, mint az emberek meggyőző hamis információk létrehozásában. Még az OpenAI vezérigazgatója, Sam Altman is felvételt nyer a mesterséges intelligencia meggyőző képességeire érdemes odafigyelni a jövőre nézve.

Ha ehhez hozzáadjuk a modern mesterséges intelligencia modellekben rejlő lehetőségeket, hogy a Meta, a Google vagy más adatgyűjtők bizonyos emberekről szerzett ismereteihez kapcsolódjanak, a probléma csak súlyosbodik, ha a GPT-4 sokkal meggyőzőbb, csak korlátozott személyes információval rendelkezik. vitapartnerek, mit kezdhet mindazzal, amit a Google tud? 

„Tanulmányunk azt sugallja, hogy a személyre szabással és a mesterséges intelligencia meggyőzésével kapcsolatos aggodalmak jelentőségteljesek” – jelentette ki a csapat. „Azok a rosszindulatú szereplők, akik érdekeltek a chatbotok nagyszabású dezinformációs kampányokhoz való telepítésében, még erősebb hatást érhetnek el, ha kihasználják a finomszemcsés digitális nyomokat és viselkedési adatokat, kihasználva az azonnali tervezést vagy a nyelvi modellek finomhangolását sajátos hatókörükre.” 

A boffinok azt remélik, hogy az online platformok és a közösségi oldalak komolyan megfontolják a mesterséges intelligencia meggyőző képessége által jelentett veszélyeket, és lépéseket tesznek a lehetséges hatások ellen.

„Az, hogy az olyan platformoknak, mint a Facebook, a Twitter és a TikTok alkalmazkodniuk kell a mesterséges intelligenciához, a kontextustól függenek. Csalókról beszélünk? Vagy külföldi ügynökök próbálják befolyásolni a választásokat? A megoldások valószínűleg eltérőek lesznek” – mondta Manoel Ribeiro, a lap egyik szerzője A regisztráció. „Általában azonban az egyik összetevő, amely nagy segítséget jelentene a beavatkozások során, az lenne, ha jobb módszereket dolgoznának ki a mesterséges intelligencia használatának kimutatására. Ilyenkor különösen nehéz beavatkozni nehéz megmondani melyik tartalom AI által generált.”

Ribeiro elmondta, hogy a csapat további kutatásokat tervez, amelyek során emberi alanyok vitatkoznak a szorosabb pozíciók alapján, hogy kiderüljön, ez hogyan változtatja meg az eredményt. A folyamatos kutatás elengedhetetlen, mondta Ribeiro, mert a mesterséges intelligencia milyen drasztikusan megváltoztatja az emberek online interakcióját. 

„Még ha tanulmányunknak nem lennének korlátai, akkor is azt állítanám, hogy folytatnunk kell az ember-AI interakció tanulmányozását, mivel ez mozgó célpont. Ahogy a nagy nyelvi modellek egyre népszerűbbek és egyre hatékonyabbak lesznek, valószínű, hogy az emberek online tartalmakkal való interakciója drasztikusan megváltozik” – jósolta Ribeiro. 

Ribeiro és csapata nem beszélt az OpenAI-val vagy más kulcsfontosságú fejlesztőkkel az eredményeikről, de azt mondták, hogy örömmel fogadják a lehetőséget. „A mesterséges intelligencia társadalomra gyakorolt ​​kockázatainak felmérése olyan vállalkozás, amely kiválóan alkalmas az ipar és a tudományos élet közötti együttműködésre” – mondta Ribeiro. ®

spot_img

Legújabb intelligencia

spot_img

Beszélj velünk

Szia! Miben segíthetek?