Νοημοσύνη δεδομένων Πλάτωνα.
Κάθετη Αναζήτηση & Αι.

Τρία κορυφαία ζητήματα απορρήτου δεδομένων που αντιμετωπίζει η AI σήμερα – The Daily Hodl

Ημερομηνία:

HodlX Επισκέπτης Δημοσίευση  Υποβάλετε την ανάρτησή σας

 

Το AI (τεχνητή νοημοσύνη) έχει προκαλέσει φρενήρη ενθουσιασμό τόσο στους καταναλωτές όσο και στις επιχειρήσεις - οδηγούμενοι από μια παθιασμένη πεποίθηση ότι τα LLM (μεγάλα γλωσσικά μοντέλα) και εργαλεία όπως το ChatGPT θα μεταμορφώσουν τον τρόπο με τον οποίο σπουδάζουμε, εργαζόμαστε και ζούμε.

Αλλά όπως και στις πρώτες μέρες του Διαδικτύου, οι χρήστες πηδούν χωρίς να εξετάζουν πώς χρησιμοποιούνται τα προσωπικά τους δεδομένα - ένακαι τον αντίκτυπο που θα μπορούσε να έχει αυτό στο απόρρητό τους.

Έχουν ήδη υπάρξει αμέτρητα παραδείγματα παραβιάσεων δεδομένων στον χώρο της τεχνητής νοημοσύνης. Τον Μάρτιο του 2023, το OpenAI πήρε προσωρινά το ChatGPT offline μετά από ένα «σημαντικό» σφάλμα σήμαινε ότι οι χρήστες μπορούσαν να δουν τα ιστορικά συνομιλιών αγνώστων.

Το ίδιο σφάλμα σήμαινε τις πληροφορίες πληρωμής των συνδρομητών - συμπεριλαμβανομένων ονομάτων, διευθύνσεων email και μερικών αριθμών πιστωτικών καρτών - ήταν επίσης δημόσια.

Τον Σεπτέμβριο του 2023, ένα εκπληκτικό 38 terabyte δεδομένων της Microsoft ήταν ακούσια διαρρεύσει από έναν υπάλληλο, με ειδικούς σε θέματα κυβερνοασφάλειας να προειδοποιούν ότι αυτό θα μπορούσε να είχε επιτρέψει στους εισβολείς να διεισδύσουν σε μοντέλα τεχνητής νοημοσύνης με κακόβουλο κώδικα.

Οι ερευνητές μπόρεσαν επίσης χειραγωγήσουν Συστήματα AI στην αποκάλυψη εμπιστευτικών αρχείων.

Μέσα σε λίγες μόνο ώρες, μια ομάδα που ονομάζεται Robust Intelligence μπόρεσε να ζητήσει προσωπικά αναγνωρίσιμες πληροφορίες από το λογισμικό Nvidia και να παρακάμψει τις διασφαλίσεις που είχαν σχεδιαστεί για να εμποδίζουν το σύστημα να συζητά ορισμένα θέματα.

Από όλα αυτά τα σενάρια αντλήθηκαν διδάγματα, αλλά κάθε παραβίαση απεικονίζει δυναμικά τις προκλήσεις που πρέπει να ξεπεραστούν για να γίνει η τεχνητή νοημοσύνη αξιόπιστη και αξιόπιστη δύναμη στη ζωή μας.

Το Gemini, το chatbot της Google, παραδέχεται ακόμη ότι όλες οι συνομιλίες επεξεργάζονται από ανθρώπινους αναθεωρητές - υπογραμμίζοντας την έλλειψη διαφάνειας στο σύστημά της.

"Μην εισάγετε τίποτα που δεν θα θέλατε να ελεγχθεί ή να χρησιμοποιηθεί", λέει μια ειδοποίηση προς τους χρήστες προειδοποιεί.

Η τεχνητή νοημοσύνη κινείται γρήγορα πέρα ​​από ένα εργαλείο που χρησιμοποιούν οι μαθητές για την εργασία τους ή στο οποίο βασίζονται οι τουρίστες για συστάσεις κατά τη διάρκεια ενός ταξιδιού στη Ρώμη.

Εξαρτάται όλο και περισσότερο για ευαίσθητες συζητήσεις - και τροφοδότησε τα πάντα, από ιατρικές ερωτήσεις μέχρι τα ωράρια εργασίας μας.

Εξαιτίας αυτού, είναι σημαντικό να κάνουμε ένα βήμα πίσω και να αναλογιστούμε τα τρία κορυφαία ζητήματα απορρήτου δεδομένων που αντιμετωπίζει η τεχνητή νοημοσύνη σήμερα και γιατί έχουν σημασία για όλους μας.

1. Τα μηνύματα προτροπής δεν είναι ιδιωτικά

Εργαλεία όπως το ChatGPT απομνημονεύουν προηγούμενες συνομιλίες για να ανατρέξουν σε αυτές αργότερα. Αν και αυτό μπορεί να βελτιώσει την εμπειρία του χρήστη και να βοηθήσει στην εκπαίδευση των LLM, ενέχει κίνδυνο.

Εάν ένα σύστημα παραβιαστεί με επιτυχία, υπάρχει πραγματικός κίνδυνος να εκτεθούν μηνύματα σε ένα δημόσιο φόρουμ.

Θα μπορούσαν να διαρρεύσουν δυνητικά ενοχλητικές λεπτομέρειες από το ιστορικό ενός χρήστη, καθώς και εμπορικά ευαίσθητες πληροφορίες όταν η τεχνητή νοημοσύνη αναπτύσσεται για εργασιακούς σκοπούς.

Όπως είδαμε από την Google, όλες οι υποβολές μπορεί επίσης να καταλήξουν να ελέγχονται από την ομάδα ανάπτυξής της.

Η Samsung ανέλαβε δράση για αυτό τον Μάιο του 2023, όταν απαγόρευσε στους υπαλλήλους να χρησιμοποιούν εντελώς εργαλεία τεχνητής νοημοσύνης. Αυτό ήρθε μετά από έναν υπάλληλο Φορτώθηκε εμπιστευτικό πηγαίο κώδικα στο ChatGPT.

Ο τεχνολογικός γίγαντας ανησυχούσε ότι αυτές οι πληροφορίες θα ήταν δύσκολο να ανακτηθούν και να διαγραφούν, πράγμα που σημαίνει ότι η IP (πνευματική ιδιοκτησία) θα μπορούσε να καταλήξει να διανεμηθεί στο ευρύ κοινό.

Η Apple, η Verizon και η JPMorgan έχουν λάβει παρόμοια μέτρα, με αναφορές να υποδηλώνουν ότι η Amazon ξεκίνησε μια καταστολή μετά τις απαντήσεις από το ChatGPT που παρουσίασαν ομοιότητες με τα δικά της εσωτερικά δεδομένα.

Όπως μπορείτε να δείτε, οι ανησυχίες εκτείνονται πέρα ​​από το τι θα συνέβαινε εάν υπάρξει παραβίαση δεδομένων, αλλά στην προοπτική ότι οι πληροφορίες που εισάγονται σε συστήματα τεχνητής νοημοσύνης θα μπορούσαν να επανατοποθετηθούν και να διανεμηθούν σε ένα ευρύτερο κοινό.

Εταιρείες όπως το OpenAI είναι ήδη αντιμέτωπος πολλαπλές αγωγές εν μέσω ισχυρισμών ότι τα chatbot τους εκπαιδεύτηκαν χρησιμοποιώντας υλικό που προστατεύεται από πνευματικά δικαιώματα.

2. Τα προσαρμοσμένα μοντέλα AI που εκπαιδεύονται από οργανισμούς δεν είναι ιδιωτικά

Αυτό μας φέρνει τακτοποιημένα στο επόμενο σημείο μας - Ενώ τα άτομα και οι εταιρείες μπορούν να δημιουργήσουν τα προσαρμοσμένα μοντέλα LLM με βάση τις δικές τους πηγές δεδομένων, δεν θα είναι πλήρως ιδιωτικά εάν υπάρχουν εντός των ορίων μιας πλατφόρμας όπως το ChatGPT.

Δεν υπάρχει τελικά κανένας τρόπος να γνωρίζουμε εάν χρησιμοποιούνται εισροές για την εκπαίδευση αυτών των ογκωδών συστημάτων - ή εάν προσωπικές πληροφορίες θα μπορούσαν τελικά να χρησιμοποιηθούν σε μελλοντικά μοντέλα.

Όπως ένα παζλ, τα σημεία δεδομένων από πολλές πηγές μπορούν να συγκεντρωθούν για να σχηματίσουν μια ολοκληρωμένη και ανησυχητικά λεπτομερή εικόνα για την ταυτότητα και το υπόβαθρο κάποιου.

Οι μεγάλες πλατφόρμες ενδέχεται επίσης να μην προσφέρουν λεπτομερείς εξηγήσεις σχετικά με τον τρόπο αποθήκευσης και επεξεργασίας αυτών των δεδομένων, με αδυναμία εξαίρεσης από λειτουργίες με τις οποίες ο χρήστης δεν αισθάνεται άνετα.

Πέρα από την ανταπόκριση στις προτροπές ενός χρήστη, τα συστήματα τεχνητής νοημοσύνης έχουν όλο και περισσότερο τη δυνατότητα να διαβάζουν μεταξύ των γραμμών και να συνάγουν τα πάντα, από την τοποθεσία ενός ατόμου μέχρι την προσωπικότητά του.

Σε περίπτωση παραβίασης δεδομένων, είναι πιθανές τρομερές συνέπειες. Θα μπορούσαν να ενορχηστρωθούν απίστευτα εξελιγμένες επιθέσεις phishing - και χρήστες στόχευσαν με πληροφορίες που είχαν τροφοδοτήσει εμπιστευτικά σε ένα σύστημα AI.

Άλλα πιθανά σενάρια περιλαμβάνουν αυτά τα δεδομένα που χρησιμοποιούνται για να υποθέσουμε την ταυτότητα κάποιου, είτε μέσω εφαρμογών για άνοιγμα τραπεζικών λογαριασμών είτε μέσω ψεύτικα βίντεο.

Οι καταναλωτές πρέπει να παραμείνουν σε επαγρύπνηση ακόμα κι αν δεν χρησιμοποιούν οι ίδιοι την τεχνητή νοημοσύνη. Η τεχνητή νοημοσύνη χρησιμοποιείται όλο και περισσότερο για την τροφοδοσία συστημάτων επιτήρησης και την ενίσχυση της τεχνολογίας αναγνώρισης προσώπου σε δημόσιους χώρους.

Εάν μια τέτοια υποδομή δεν δημιουργηθεί σε ένα πραγματικά ιδιωτικό περιβάλλον, οι πολιτικές ελευθερίες και το απόρρητο αμέτρητων πολιτών θα μπορούσαν να παραβιαστούν εν αγνοία τους.

3. Τα ιδιωτικά δεδομένα χρησιμοποιούνται για την εκπαίδευση συστημάτων AI

Υπάρχουν ανησυχίες ότι μεγάλα συστήματα τεχνητής νοημοσύνης έχουν συγκεντρώσει τη νοημοσύνη τους εξετάζοντας αμέτρητες ιστοσελίδες.

Σύμφωνα με εκτιμήσεις, χρησιμοποιήθηκαν 300 δισεκατομμύρια λέξεις για την εκπαίδευση του ChatGPT - αυτό είναι 570 gigabyte δεδομένων - με βιβλία και εγγραφές της Wikipedia μεταξύ των συνόλων δεδομένων.

Είναι επίσης γνωστό ότι οι αλγόριθμοι εξαρτώνται από σελίδες κοινωνικής δικτύωσης και διαδικτυακά σχόλια.

Με ορισμένες από αυτές τις πηγές, θα μπορούσατε να υποστηρίξετε ότι οι κάτοχοι αυτών των πληροφοριών θα είχαν εύλογες προσδοκίες για το απόρρητο.

Αλλά εδώ είναι το θέμα - Πολλά από τα εργαλεία και τις εφαρμογές με τα οποία αλληλεπιδρούμε καθημερινά έχουν ήδη επηρεαστεί σε μεγάλο βαθμό από την τεχνητή νοημοσύνη - και αντιδρούν στις συμπεριφορές μας.

Το Face ID στο iPhone σας χρησιμοποιεί AI για να παρακολουθεί τις ανεπαίσθητες αλλαγές στην εμφάνισή σας.

Οι αλγόριθμοι του TikTok και του Facebook που υποστηρίζονται από AI κάνουν προτάσεις περιεχομένου με βάση τα κλιπ και τις αναρτήσεις που έχετε δει στο παρελθόν.

Οι βοηθοί φωνής όπως η Alexa και η Siri εξαρτώνται επίσης σε μεγάλο βαθμό από τη μηχανική εκμάθηση.

Ένας ιλιγγιώδης αστερισμός από νεοφυείς επιχειρήσεις τεχνητής νοημοσύνης είναι εκεί έξω και η καθεμία έχει έναν συγκεκριμένο σκοπό. Ωστόσο, ορισμένα είναι πιο διαφανή από άλλα σχετικά με τον τρόπο συλλογής, αποθήκευσης και εφαρμογής των δεδομένων χρήστη.

Αυτό είναι ιδιαίτερα σημαντικό καθώς η τεχνητή νοημοσύνη έχει αντίκτυπο στον τομέα της υγειονομικής περίθαλψης - από την ιατρική απεικόνιση και τις διαγνώσεις μέχρι την τήρηση αρχείων και τα φαρμακευτικά προϊόντα.

Πρέπει να αντληθούν διδάγματα από τις επιχειρήσεις του Διαδικτύου που εμπλέκονται σε σκάνδαλα προστασίας της ιδιωτικής ζωής τα τελευταία χρόνια.

Το Flo, μια εφαρμογή για την υγεία των γυναικών, ήταν κατηγορούμενος από τις ρυθμιστικές αρχές της κοινής χρήσης προσωπικών στοιχείων σχετικά με τους χρήστες του σε άτομα όπως το Facebook και η Google τη δεκαετία του 2010.

Πού πάμε από εδώ

Το AI πρόκειται να έχει ανεξίτηλο αντίκτυπο στη ζωή όλων μας τα επόμενα χρόνια. Τα LLM γίνονται καλύτερα κάθε μέρα που περνά και συνεχίζουν να εμφανίζονται νέες περιπτώσεις χρήσης.

Ωστόσο, υπάρχει πραγματικός κίνδυνος οι ρυθμιστικές αρχές να δυσκολευτούν να συμβαδίσουν καθώς ο κλάδος κινείται με ιλιγγιώδη ταχύτητα.

Και αυτό σημαίνει ότι οι καταναλωτές πρέπει να αρχίσουν να διασφαλίζουν τα δικά τους δεδομένα και να παρακολουθούν τον τρόπο χρήσης τους.

Η αποκέντρωση μπορεί να διαδραματίσει ζωτικό ρόλο εδώ και να αποτρέψει μεγάλο όγκο δεδομένων από το να πέσουν στα χέρια μεγάλων πλατφορμών.

Τα DePIN (αποκεντρωμένα δίκτυα φυσικής υποδομής) έχουν τη δυνατότητα να διασφαλίζουν ότι οι καθημερινοί χρήστες απολαμβάνουν πλήρως τα οφέλη της τεχνητής νοημοσύνης χωρίς να τίθεται σε κίνδυνο το απόρρητό τους.

Όχι μόνο τα κρυπτογραφημένα μηνύματα μπορούν να προσφέρουν πολύ πιο εξατομικευμένα αποτελέσματα, αλλά τα LLM που διατηρούν το απόρρητο θα εξασφαλίσουν ότι οι χρήστες έχουν τον πλήρη έλεγχο των δεδομένων τους ανά πάσα στιγμή - και προστασία από την κακή χρήση του.


Ο Chris Were είναι Διευθύνων Σύμβουλος της Verida, ένα αποκεντρωμένο, αυτοκυρίαρχο δίκτυο δεδομένων που δίνει τη δυνατότητα στα άτομα να ελέγχουν την ψηφιακή τους ταυτότητα και τα προσωπικά τους δεδομένα. Ο Chris είναι ένας Αυστραλός επιχειρηματίας τεχνολογίας που έχει αφιερώσει περισσότερα από 20 χρόνια στην ανάπτυξη καινοτόμων λύσεων λογισμικού.

 

Ελέγξτε τις τελευταίες ειδήσεις στον HodlX

Ακολουθήστε μας στο Twitter Facebook Telegram

Ελέγξτε το Τελευταίες ανακοινώσεις της βιομηχανίας  

Αποποίηση: Οι απόψεις που εκφράζονται στο The Daily Hodl δεν είναι επενδυτικές συμβουλές. Οι επενδυτές θα πρέπει να κάνουν τη δέουσα επιμέλεια πριν προβούν σε επενδύσεις υψηλού κινδύνου σε Bitcoin, κρυπτογράφηση ή ψηφιακά περιουσιακά στοιχεία. Λάβετε υπόψη σας ότι οι μεταφορές και οι συναλλαγές σας είναι με δική σας ευθύνη και τυχόν απώλειες που μπορεί να υποστούν είναι ευθύνη σας. Το Daily Hodl δεν συνιστά την αγορά ή πώληση τυχόν κρυπτογραφημάτων ή ψηφιακών περιουσιακών στοιχείων ούτε το The Daily Hodl ως σύμβουλος επενδύσεων. Παρακαλώ σημειώστε ότι το The Daily Hodl συμμετέχει στο μάρκετινγκ θυγατρικών.

Δημιουργημένη εικόνα: Midjourney

spot_img

Τελευταία Νοημοσύνη

spot_img

Συνομιλία με μας

Γεια σου! Πώς μπορώ να σε βοηθήσω?