Platon Data Intelligence.
Vertikal sökning & Ai.

AI Chatbots spyr ut vallögner 2024 som vilseleder väljare

Datum:

En nyligen genomförd studie har fastställt att AI-chatbotar ger falsk och vilseledande information om valet 2024, inklusive information som kan vara skadlig eller ofullständig.

Enligt en studie av AI Democracy Projects och ett icke-vinstdrivande mediaställe, Proof News, är AI-modeller benägna att föreslå väljare att gå till vallokaler som inte finns eller hitta på ologiska svar.

Dessa missöden uppstår vid en tidpunkt då kongressen ännu inte har antagit lagar som reglerar AI i politiken, vilket låter teknikföretagen "styra sig själva".

En rad fel och falskheter

Enligt resultaten av studien, som citeras av CBS News, producerar AI-chatbotarna felaktig information vid en tidpunkt då USA går igenom presidentval.

Ändå händer detta i en tid då många människor vänder sig till AI-verktyg för valinformation, en situation som experter anser är skadlig eftersom verktygen tillhandahåller halvsanningar eller fullständiga lögner.

"Chatbotarna är inte redo för bästa sändningstid när det gäller att ge viktig, nyanserad information om val", säger Seth Bluestein, en republikansk stadskommissarie i Philadelphia.

Bluestein var bland dem som tillsammans med valförrättare och forskare genomförde en provkörning av chatbotarna som en del av studien.

Förutom felaktig information slog den också ihop verktygen, vilket kan avskräcka väljarna från att utöva sin rösträtt. Förra månaden, väljarna in New Hampshire fick robocalls med president Bidens röst som avskräckte dem från att rösta i presidentens primärval, och bad dem att spara sina krafter till novemberomröstningarna.

Ett annat exempel är Metas Llama 2, som felaktigt sa att väljare i Kalifornien kunde lägga sina röster via textmeddelanden.

"I Kalifornien kan du rösta via SMS med hjälp av en tjänst som heter Rösta via SMS", svarade Llama 2.

"Den här tjänsten låter dig rösta med hjälp av ett säkert och lättanvänt system som är tillgängligt från vilken mobil enhet som helst."

Forskarna upptäckte dock att detta är olagligt i USA.

Forskarna upptäckte också att av alla fem AI-modeller som testades - OpenAI:s ChatGPT-4, Llama 2, Antropics Claude, Googles Gemini och det franska företaget Mistral's Mixtral – ingen av dem "uppgav korrekt att det är förbjudet att bära kläder med kampanjlogotyper, såsom MAGA-hattar, vid vallokalerna i Texas enligt statens lagar. "

Av dessa chatbots upptäckte forskarna att Llama 2, Mixtral och Gemini hade de "högsta andelen fel svar."

tvillingarna fick nästan två tredjedelar av alla sina svar fel.

Läs också: Mistral AI släpper LLM och Chatbot för att konkurrera med GPT-4 och ChatGPT

Hallucinationerna skrämmer användarna

En annan upptäckt som forskarna gjorde är att fyra av de fem chatbotarna felaktigt sa att väljare skulle blockeras från att registrera sig veckor före valet i Nevada, där registrering samma dag har varit tillåten sedan 2019.

"Det skrämde mig, mer än något annat, eftersom informationen som lämnades var felaktig," sa Nevadas utrikesminister Francisco Aguilar, en demokrat som deltog i förra månadens testverkstad.

Enligt en undersökning från Associated Press-NORC Center for Public Affairs Research och University of Chicago Harris School of Public Policy, är flera personer i USA rädda att AI-verktygen kommer att underblåsa spridningen av "falsk och vilseledande information under årets val."

Det är inte bara valinformationen som har varit vilseledande, utan nyligen har Googles AI-bildgenerator, Gemini, skapade rubriker för att skapa bilder fulla av historiska felaktigheter och rasnyanser.

Vad ägarna sa

Medan andra erkände felen och lovade att rätta till misstagen, sa Metas talesman Daniel Roberts till Associated Press att resultaten är "meningslösa." Detta, sa Roberts, beror på att de inte exakt "speglar hur människor interagerar med chatbots."

Å andra sidan indikerade Anthropic planer på att rulla ut en uppdaterad version av sitt AI-verktyg med korrekt valinformation.

"Stora språkmodeller kan ibland "hallucinera" felaktig information," sa Anthropics Trust and Safety Lead, Alex Sanderford, till AP.

ChatGPT Tillverkaren OpenAI lyfte också fram planer på att "fortsätta att utveckla vårt tillvägagångssätt när vi lär oss mer om hur våra verktyg används."

Men trots dessa löften väcker resultaten av studien fortfarande frågor om teknikföretag villighet att "efterleva sina egna löften".

För ungefär två veckor sedan undertecknade teknikföretag en pakt om att frivilligt vidta "rimliga försiktighetsåtgärder" för att förhindra att deras verktyg används för att skapa allt mer "realistiskt" innehåll som ger "falsk information till väljarna om när, var och hur de lagligen kan rösta. ”

plats_img

Senaste intelligens

plats_img

Chatta med oss

Hallå där! Hur kan jag hjälpa dig?