Νοημοσύνη δεδομένων Πλάτωνα.
Κάθετη Αναζήτηση & Αι.

AI Chatbots που εκτοξεύουν ψέματα εκλογών 2024 παραπλανούν τους ψηφοφόρους

Ημερομηνία:

Μια πρόσφατη μελέτη έδειξε ότι τα chatbots AI παρέχουν ψευδείς και παραπλανητικές πληροφορίες σχετικά με τις εκλογές του 2024, συμπεριλαμβανομένων πληροφοριών που θα μπορούσαν να είναι επιβλαβείς ή ελλιπείς.

Σύμφωνα με μια μελέτη της AI Democracy Projects και ενός μη κερδοσκοπικού μέσου, το Proof News, τα μοντέλα τεχνητής νοημοσύνης είναι επιρρεπή στο να προτείνουν στους ψηφοφόρους να πάνε σε εκλογικά μέρη που δεν υπάρχουν ή να επινοούν παράλογες απαντήσεις.

Αυτές οι ατυχίες εμφανίζονται σε μια εποχή που το Κογκρέσο δεν έχει ακόμη εγκρίνει νόμους που ρυθμίζουν την τεχνητή νοημοσύνη στην πολιτική, αφήνοντας τις εταιρείες τεχνολογίας «να αυτοκυβερνούνται».

Μια σειρά από λάθη και ψέματα

Σύμφωνα με τα αποτελέσματα της μελέτης, τα οποία επικαλείται το CBS News, τα chatbot AI παράγουν ανακριβείς πληροφορίες σε μια περίοδο που οι ΗΠΑ περνούν από τις προκριματικές εκλογές για τις προεδρικές εκλογές.

Ωστόσο, αυτό συμβαίνει σε μια εποχή που πολλά οι άνθρωποι στρέφονται στα εργαλεία AI για εκλογικές πληροφορίες, μια κατάσταση που οι ειδικοί πιστεύουν ότι είναι επιζήμια καθώς τα εργαλεία παρέχουν μισές αλήθειες ή πλήρη ψέματα.

«Τα chatbots δεν είναι έτοιμα για primetime όταν πρόκειται να δώσουν σημαντικές, λεπτές πληροφορίες σχετικά με τις εκλογές», δήλωσε ο Seth Bluestein, ένας Ρεπουμπλικανός επίτροπος της πόλης στη Φιλαδέλφεια.

Ο Bluestein ήταν μεταξύ εκείνων που, μαζί με εκλογικούς αξιωματούχους και ερευνητές, πραγματοποίησαν μια δοκιμαστική κίνηση στα chatbots ως μέρος της μελέτης.

Εκτός από τις λανθασμένες πληροφορίες, συγχώνευσε και τα εργαλεία, τα οποία μπορεί να αποθαρρύνουν τους ψηφοφόρους να ασκήσουν το εκλογικό τους δικαίωμα. Τον περασμένο μήνα, οι ψηφοφόροι Νιου Χάμσαϊρ έλαβαν ρομπότ με τη φωνή του προέδρου Μπάιντεν να τους αποθαρρύνει από το να ψηφίσουν στις προκριματικές εκλογές, ζητώντας τους να εξοικονομήσουν τις δυνάμεις τους για τις εκλογές του Νοεμβρίου.

Ένα άλλο παράδειγμα είναι το Llama 2 του Meta, το οποίο ανακριβώς είπε ότι οι ψηφοφόροι στην Καλιφόρνια θα μπορούσαν να ψηφίσουν μέσω μηνυμάτων κειμένου.

«Στην Καλιφόρνια, μπορείτε να ψηφίσετε μέσω SMS χρησιμοποιώντας μια υπηρεσία που ονομάζεται Vote by Text», απάντησε ο Llama 2.

"Αυτή η υπηρεσία σάς επιτρέπει να ψηφίσετε χρησιμοποιώντας ένα ασφαλές και εύχρηστο σύστημα που είναι προσβάσιμο από οποιαδήποτε κινητή συσκευή."

Οι ερευνητές, ωστόσο, ανακάλυψαν ότι αυτό είναι παράνομο στις ΗΠΑ.

Οι ερευνητές ανακάλυψαν επίσης ότι από τα πέντε μοντέλα τεχνητής νοημοσύνης που δοκιμάστηκαν—το ChatGPT-4 του OpenAI, το Llama 2, Anthropic's Claude, η Gemini της Google και η γαλλική εταιρεία Mistral's Mixtral — κανένας από αυτούς «δεν δήλωσε σωστά ότι η χρήση ρούχων με λογότυπα καμπάνιας, όπως καπέλα MAGA, απαγορεύεται στις κάλπες του Τέξας σύμφωνα με το νόμους του κράτους. "

Από αυτά τα chatbot, οι ερευνητές ανακάλυψαν ότι το Llama 2, το Mixtral και το Gemini είχαν τα «υψηλά ποσοστά λανθασμένων απαντήσεων».

Gemini πήρε λάθος σχεδόν τα δύο τρίτα όλων των απαντήσεών του.

Διαβάστε επίσης: Το Mistral AI κυκλοφορεί το LLM και το Chatbot στο Rival GPT-4 και το ChatGPT

Οι παραισθήσεις τρομάζουν τους χρήστες

Μια άλλη ανακάλυψη που έκαναν οι ερευνητές είναι ότι τέσσερα από τα πέντε chatbots είπαν λανθασμένα ότι οι ψηφοφόροι θα αποκλειστούν από την εγγραφή τους εβδομάδες πριν από τις εκλογές στη Νεβάδα, όπου η εγγραφή αυθημερόν επιτρέπεται από το 2019.

«Με τρόμαξε περισσότερο από οτιδήποτε άλλο, επειδή οι πληροφορίες που δόθηκαν ήταν λανθασμένες», είπε ο υπουργός Εξωτερικών της Νεβάδα, Φρανσίσκο Αγκιλάρ, ένας Δημοκρατικός που συμμετείχε στο εργαστήριο δοκιμών του περασμένου μήνα.

Σύμφωνα με μια δημοσκόπηση από το Κέντρο Έρευνας Δημοσίων Υποθέσεων Associated Press-NORC και τη Σχολή Δημόσιας Πολιτικής Harris του Πανεπιστημίου του Σικάγο, αρκετοί άνθρωποι στις ΗΠΑ φοβούνται ότι τα εργαλεία AI θα τροφοδοτήσουν τη διάδοση «ψευδών και παραπλανητικών πληροφοριών κατά τις φετινές εκλογές».

Δεν είναι μόνο οι πληροφορίες για τις εκλογές που είναι παραπλανητικές, αλλά πρόσφατα, η δημιουργία εικόνων AI της Google, Δίδυμοι, έγινε πρωτοσέλιδο για τη δημιουργία εικόνων γεμάτες ιστορικές ανακρίβειες και φυλετικές αποχρώσεις.

Τι είπαν οι ιδιοκτήτες

Ενώ άλλοι αναγνώρισαν τα λάθη και υποσχέθηκαν να διορθώσουν τα λάθη, ο εκπρόσωπος του Meta Ντάνιελ Ρόμπερτς είπε στο Associated Press ότι τα ευρήματα είναι «χωρίς νόημα». Αυτό, είπε ο Roberts, συμβαίνει επειδή δεν αντικατοπτρίζουν ακριβώς τον τρόπο με τον οποίο οι άνθρωποι αλληλεπιδρούν με τα chatbots.

Από την άλλη πλευρά, η Anthropic έδειξε σχέδια για την κυκλοφορία μιας ενημερωμένης έκδοσης του εργαλείου AI με τις σωστές εκλογικές πληροφορίες.

«Τα μεγάλα γλωσσικά μοντέλα μπορεί μερικές φορές να «παραισθάνονται» εσφαλμένες πληροφορίες», είπε στο AP ο επικεφαλής της Anthropic Trust and Safety, Alex Sanderford.

ChatGPT Ο κατασκευαστής OpenAI τόνισε επίσης τα σχέδια «να συνεχίσουμε να εξελίσσουμε την προσέγγισή μας καθώς μαθαίνουμε περισσότερα για το πώς χρησιμοποιούνται τα εργαλεία μας».

Ωστόσο, παρά αυτές τις δεσμεύσεις, τα ευρήματα της μελέτης εξακολουθούν να εγείρουν ερωτήματα σχετικά με το εταιρείες τεχνολογίας» προθυμία να «συμμορφωθούν με τις δικές τους δεσμεύσεις».

Πριν από περίπου ένα δεκαπενθήμερο, οι εταιρείες τεχνολογίας υπέγραψαν ένα σύμφωνο για να υιοθετήσουν οικειοθελώς «εύλογες προφυλάξεις» για να σταματήσουν τη χρήση των εργαλείων τους για τη δημιουργία όλο και πιο «ρεαλιστικού» περιεχομένου που παρέχει «ψευδείς πληροφορίες στους ψηφοφόρους για το πότε, πού και πώς μπορούν να ψηφίσουν νόμιμα. ”

spot_img

Τελευταία Νοημοσύνη

spot_img

Συνομιλία με μας

Γεια σου! Πώς μπορώ να σε βοηθήσω?