Νοημοσύνη δεδομένων Πλάτωνα.
Κάθετη Αναζήτηση & Αι.

Η Αστυνομία της Νότιας Κορέας χρησιμοποιεί το εργαλείο Deepfake Detection πριν από τις εκλογές

Ημερομηνία:

Εν μέσω μιας απότομης αύξησης των deepfakes με πολιτικά κίνητρα, η Εθνική Αστυνομική Υπηρεσία της Νότιας Κορέας (KNPA) ανέπτυξε και ανέπτυξε ένα εργαλείο για τον εντοπισμό περιεχομένου που δημιουργείται από AI για χρήση σε πιθανές ποινικές έρευνες.

Σύμφωνα με το Εθνικό Γραφείο Ερευνών (NOI) του KNPA, το πρόγραμμα βαθιάς μάθησης εκπαιδεύτηκε σε περίπου 5.2 εκατομμύρια δεδομένα που προέρχονται από 5,400 Κορεάτες πολίτες. Μπορεί να προσδιορίσει εάν ένα βίντεο (στο οποίο δεν έχει προπονηθεί) είναι πραγματικό ή όχι μόνο σε πέντε έως 10 λεπτά, με ποσοστό ακρίβειας περίπου 80%. Το εργαλείο δημιουργεί αυτόματα ένα φύλλο αποτελεσμάτων που μπορεί να χρησιμοποιήσει η αστυνομία σε ποινικές έρευνες.

Όπως αναφέρουν κορεατικά μέσα ενημέρωσης, αυτά τα αποτελέσματα θα χρησιμοποιηθούν για την ενημέρωση των ερευνών, αλλά δεν θα χρησιμοποιηθούν ως άμεσες αποδείξεις σε ποινικές δίκες. Η αστυνομία θα δημιουργήσει επίσης χώρο για συνεργασία με ειδικούς της τεχνητής νοημοσύνης στον ακαδημαϊκό και επιχειρηματικό χώρο.

Οι ειδικοί σε θέματα ασφάλειας της τεχνητής νοημοσύνης έχουν ζητήσει τη χρήση της τεχνητής νοημοσύνης για τα καλά, συμπεριλαμβανομένης της ανίχνευσης παραπληροφόρησης και ψεύτικων στοιχείων.

«Αυτό είναι το θέμα: η τεχνητή νοημοσύνη μπορεί να μας βοηθήσει να αναλύσουμε [ψευδές περιεχόμενο] σε οποιαδήποτε κλίμακα», είπε ο Gil Shwed, Διευθύνων Σύμβουλος της Check Point, στο Dark Reading σε μια συνέντευξη αυτή την εβδομάδα. Αν και η τεχνητή νοημοσύνη είναι η ασθένεια, είπε, είναι και η θεραπεία: «[Η ανίχνευση απάτης] απαιτούσε πολύ περίπλοκες τεχνολογίες, αλλά με την τεχνητή νοημοσύνη μπορείτε να κάνετε το ίδιο πράγμα με έναν ελάχιστο όγκο πληροφοριών — όχι μόνο καλές και μεγάλες ποσότητες πληροφορίες."

Πρόβλημα Deepfake της Κορέας

Ενώ ο υπόλοιπος κόσμος περιμένει εν αναμονή των deepfakes εισβολή σε προεκλογικές περιόδους, οι Κορεάτες έχουν ήδη αντιμετωπίσει το πρόβλημα από κοντά και προσωπικά.

Το καναρίνι στο ανθρακωρυχείο εμφανίστηκε κατά τη διάρκεια των επαρχιακών εκλογών το 2022, όταν ένα βίντεο διαδόθηκε στα μέσα κοινωνικής δικτύωσης που δείχνει τον Πρόεδρο Yoon Suk Yeol να υποστηρίζει έναν τοπικό υποψήφιο για το κυβερνών κόμμα.

Αυτό το είδος εξαπάτησης έχει γίνει πιο διαδεδομένο τον τελευταίο καιρό. Τον περασμένο μήνα, η Εθνική Εκλογική Επιτροπή της χώρας αποκάλυψε ότι μεταξύ 29 Ιανουαρίου και 16 Φεβρουαρίου, εντόπισε 129 deepfakes κατά παράβαση των εκλογικών νόμων — αριθμός που αναμένεται να αυξηθεί μόνο όσο πλησιάζει η ημέρα των εκλογών της 10ης Απριλίου. Όλα αυτά παρά τον αναθεωρημένο νόμο που τέθηκε σε ισχύ στις 29 Ιανουαρίου, ο οποίος δηλώνει ότι η χρήση deepfake βίντεο, φωτογραφιών ή ήχου σε σχέση με εκλογές μπορεί να οδηγήσει σε ποινή φυλάκισης έως και επτά ετών και πρόστιμα έως και 50 εκατομμύρια γουόν (περίπου $37,500). 

Όχι μόνο παραπληροφόρηση

Ο Shwed της Check Point προειδοποίησε ότι, όπως κάθε νέα τεχνολογία, η τεχνητή νοημοσύνη έχει τους κινδύνους της. «Λοιπόν, ναι, υπάρχουν άσχημα πράγματα που μπορούν να συμβούν και πρέπει να αμυνθούμε εναντίον τους», είπε.

Οι ψευδείς πληροφορίες δεν είναι τόσο το πρόβλημα, πρόσθεσε. «Το μεγαλύτερο ζήτημα στην ανθρώπινη σύγκρουση γενικά είναι ότι δεν βλέπουμε την πλήρη εικόνα – επιλέγουμε τα στοιχεία [στις ειδήσεις] που θέλουμε να δούμε και μετά με βάση αυτά παίρνουμε μια απόφαση», είπε.

«Δεν έχει να κάνει με την παραπληροφόρηση, αλλά με το τι πιστεύεις. Και με βάση αυτά που πιστεύεις, επιλέγεις ποιες πληροφορίες θέλεις να δεις. Οχι αντίστροφα."

spot_img

Τελευταία Νοημοσύνη

spot_img

Συνομιλία με μας

Γεια σου! Πώς μπορώ να σε βοηθήσω?