Νοημοσύνη δεδομένων Πλάτωνα.
Κάθετη Αναζήτηση & Αι.

Πώς θα μπορούσε να είναι η χρήση της ασφάλειας για τη ρύθμιση των τσιπ AI

Ημερομηνία:

Ερευνητές από το OpenAI, το Πανεπιστήμιο του Κέμπριτζ, το Πανεπιστήμιο του Χάρβαρντ και το Πανεπιστήμιο του Τορόντο προσέφεραν «διερευνητικά» ιδέες για το πώς να ρυθμίσετε τα τσιπ και το υλικό AI, και πώς οι πολιτικές ασφαλείας θα μπορούσαν να αποτρέψουν την κατάχρηση προηγμένης τεχνητής νοημοσύνης.

Οι συστάσεις παρέχουν τρόπους μέτρησης και ελέγχου της ανάπτυξης και χρήσης προηγμένων συστημάτων τεχνητής νοημοσύνης και των τσιπ που τα τροφοδοτούν. Οι συστάσεις επιβολής πολιτικής περιλαμβάνουν τον περιορισμό της απόδοσης των συστημάτων και την εφαρμογή χαρακτηριστικών ασφαλείας που μπορούν να απενεργοποιήσουν εξ αποστάσεως αδίστακτα τσιπ.

«Η εκπαίδευση συστημάτων τεχνητής νοημοσύνης με υψηλή ικανότητα απαιτεί επί του παρόντος τη συγκέντρωση και την ενορχήστρωση χιλιάδων τσιπ τεχνητής νοημοσύνης», έγραψαν οι ερευνητές. «[I]Εάν αυτά τα συστήματα είναι δυνητικά επικίνδυνα, τότε ο περιορισμός αυτής της συσσωρευμένης υπολογιστικής ισχύος θα μπορούσε να χρησιμεύσει στον περιορισμό της παραγωγής δυνητικά επικίνδυνων συστημάτων τεχνητής νοημοσύνης».

Οι κυβερνήσεις έχουν επικεντρωθεί σε μεγάλο βαθμό στο λογισμικό για την πολιτική τεχνητής νοημοσύνης και το έγγραφο είναι ένα συνοδευτικό κομμάτι που καλύπτει την πλευρά του υλικού της συζήτησης, λέει ο Nathan Brookwood, κύριος αναλυτής του Insight 64.

Ωστόσο, η βιομηχανία δεν θα καλωσορίσει κανένα χαρακτηριστικό ασφαλείας που επηρεάζει την απόδοση της τεχνητής νοημοσύνης, προειδοποιεί. Το να κάνουμε το AI ασφαλές μέσω υλικού «είναι μια ευγενής φιλοδοξία, αλλά δεν μπορώ να δω κανέναν από αυτούς να το κάνει. Το τζίνι είναι έξω από τη λάμπα και καλή τύχη να το ξαναμπεί», λέει.

Στραγγαλιστικές συνδέσεις μεταξύ συστάδων

Μία από τις προτάσεις που προτείνουν οι ερευνητές είναι ένα όριο για τον περιορισμό της υπολογιστικής ικανότητας επεξεργασίας που είναι διαθέσιμη στα μοντέλα τεχνητής νοημοσύνης. Η ιδέα είναι να τεθούν σε εφαρμογή μέτρα ασφαλείας που μπορούν να εντοπίσουν την κατάχρηση συστημάτων τεχνητής νοημοσύνης και τον περιορισμό και τον περιορισμό της χρήσης των τσιπ.

Συγκεκριμένα, προτείνουν μια στοχευμένη προσέγγιση περιορισμού του εύρους ζώνης μεταξύ της μνήμης και των συστάδων τσιπ. Η ευκολότερη εναλλακτική – η διακοπή της πρόσβασης σε τσιπ – δεν ήταν ιδανική καθώς θα επηρέαζε τη συνολική απόδοση της τεχνητής νοημοσύνης, έγραψαν οι ερευνητές.

Το έγγραφο δεν πρότεινε τρόπους εφαρμογής τέτοιων προστατευτικών κιγκλιδωμάτων ή πώς θα μπορούσε να εντοπιστεί η κατάχρηση συστημάτων τεχνητής νοημοσύνης.

«Ο καθορισμός του βέλτιστου ορίου εύρους ζώνης για εξωτερική επικοινωνία είναι ένας τομέας που αξίζει περαιτέρω έρευνα», έγραψαν οι ερευνητές.

Τα συστήματα τεχνητής νοημοσύνης μεγάλης κλίμακας απαιτούν τεράστιο εύρος ζώνης δικτύου και συστήματα τεχνητής νοημοσύνης όπως το Eagle της Microsoft και το Eos της Nvidia είναι μεταξύ των Οι 10 πιο γρήγοροι υπερυπολογιστές στον κόσμο. Υπάρχουν τρόποι περιορισμού της απόδοσης του δικτύου για συσκευές που υποστηρίζουν τη γλώσσα προγραμματισμού P4, η οποία μπορεί να αναλύσει την κυκλοφορία του δικτύου και να επαναδιαμορφώσει τους δρομολογητές και τους διακόπτες.

Αλλά καλή τύχη ζητώντας από τους κατασκευαστές τσιπ να εφαρμόσουν μηχανισμούς ασφαλείας AI που θα μπορούσαν να επιβραδύνουν τα τσιπ και τα δίκτυα, λέει ο Brookwood.

«Η Arm, η Intel και η AMD είναι όλες απασχολημένες με την κατασκευή των πιο γρήγορων, πιο άθλιων τσιπ που μπορούν να δημιουργήσουν για να είναι ανταγωνιστικές. Δεν ξέρω πώς μπορείς να επιβραδύνεις», λέει.

Οι απομακρυσμένες δυνατότητες ενέχουν κάποιο κίνδυνο

Οι ερευνητές πρότειναν επίσης την απενεργοποίηση των τσιπ εξ αποστάσεως, κάτι που έχει ενσωματώσει η Intel στα νεότερα τσιπ διακομιστών της. Η δυνατότητα κατ' απαίτηση είναι μια συνδρομητική υπηρεσία που θα επιτρέπει στους πελάτες της Intel να ενεργοποιούν και να απενεργοποιούν λειτουργίες όπως οι επεκτάσεις τεχνητής νοημοσύνης όπως θερμαινόμενα καθίσματα σε Tesla.

Οι ερευνητές πρότειναν επίσης ένα σύστημα βεβαίωσης όπου τα τσιπ επιτρέπουν μόνο σε εξουσιοδοτημένα μέρη να έχουν πρόσβαση σε συστήματα τεχνητής νοημοσύνης μέσω κρυπτογραφικά υπογεγραμμένων ψηφιακών πιστοποιητικών. Το υλικολογισμικό θα μπορούσε να παρέχει οδηγίες για εξουσιοδοτημένους χρήστες και εφαρμογές, οι οποίες θα μπορούσαν να αλλάξουν με ενημερώσεις.

Αν και οι ερευνητές δεν παρείχαν τεχνικές συστάσεις για το πώς θα γίνει αυτό, η ιδέα είναι παρόμοια με το πώς ο εμπιστευτικός υπολογισμός ασφαλίζει τις εφαρμογές σε τσιπ βεβαίωση εξουσιοδοτημένων χρηστών. Intel και AMD έχουν εμπιστευτικούς υπολογισμούς στα τσιπ τους, αλλά είναι ακόμα νωρίς ακόμη για την αναδυόμενη τεχνολογία.

Υπάρχουν επίσης κίνδυνοι για την εξ αποστάσεως επιβολή πολιτικών. «Οι μηχανισμοί απομακρυσμένης επιβολής έχουν σημαντικά μειονεκτήματα και μπορεί να δικαιολογούνται μόνο εάν η αναμενόμενη βλάβη από την τεχνητή νοημοσύνη είναι εξαιρετικά υψηλή», έγραψαν οι ερευνητές.

Ο Μπρούκγουντ συμφωνεί.

«Ακόμα κι αν μπορούσες, θα υπάρξουν κακοί που θα το επιδιώξουν. Η επιβολή τεχνητών περιορισμών για τα καλά παιδιά θα είναι αναποτελεσματική», λέει.

spot_img

Τελευταία Νοημοσύνη

spot_img

Συνομιλία με μας

Γεια σου! Πώς μπορώ να σε βοηθήσω?