Νοημοσύνη δεδομένων Πλάτωνα.
Κάθετη Αναζήτηση & Αι.

Είναι 10 μ.μ. Ξέρετε πού βρίσκονται τα μοντέλα AI σας απόψε;

Ημερομηνία:

Αν νομίζατε ότι το πρόβλημα ασφάλειας της εφοδιαστικής αλυσίδας λογισμικού ήταν αρκετά δύσκολο σήμερα, κουμπώστε. Η εκρηκτική ανάπτυξη της χρήσης τεχνητής νοημοσύνης (AI) πρόκειται να καταστήσει εκθετικά δυσκολότερη την πλοήγηση αυτών των ζητημάτων της εφοδιαστικής αλυσίδας τα επόμενα χρόνια. 

Οι προγραμματιστές, οι επαγγελματίες ασφαλείας εφαρμογών και οι επαγγελματίες του DevSecOps καλούνται να διορθώσουν τα ελαττώματα υψηλότερου κινδύνου που κρύβονται σε κάτι που φαίνεται σαν τους ατελείωτους συνδυασμούς ανοιχτού κώδικα και ιδιόκτητων στοιχείων που είναι συνυφασμένα στις εφαρμογές τους και στην υποδομή cloud. Αλλά είναι μια διαρκής μάχη που προσπαθεί να καταλάβει ακόμη και ποια στοιχεία έχουν, ποια είναι ευάλωτα και ποια ελαττώματα τα θέτουν σε μεγαλύτερο κίνδυνο. Σαφώς, ήδη αγωνίζονται να διαχειριστούν λογικά αυτές τις εξαρτήσεις στο λογισμικό τους ως έχει.

Αυτό που πρόκειται να γίνει πιο δύσκολο είναι το πολλαπλασιαστικό αποτέλεσμα που η τεχνητή νοημοσύνη πρόκειται να προσθέσει στην κατάσταση.

Μοντέλα AI ως αυτοεκτελούμενος κώδικας

Τα εργαλεία με δυνατότητα τεχνητής νοημοσύνης και μηχανικής μάθησης (ML) είναι λογισμικό το ίδιο με κάθε άλλο είδος εφαρμογής — και ο κώδικάς τους είναι εξίσου πιθανό να υποφέρει από ανασφάλειες της εφοδιαστικής αλυσίδας. Ωστόσο, προσθέτουν μια άλλη μεταβλητή περιουσιακών στοιχείων στο μείγμα που αυξάνει σημαντικά την επιφάνεια επίθεσης της αλυσίδας εφοδιασμού λογισμικού AI: μοντέλα AI/ML.

«Αυτό που διαχωρίζει τις εφαρμογές τεχνητής νοημοσύνης από κάθε άλλη μορφή λογισμικού είναι ότι [στηρίζονται] με κάποιο τρόπο ή τρόπο σε ένα πράγμα που ονομάζεται μοντέλο μηχανικής μάθησης», εξηγεί ο Daryan Dehghanpisheh, συνιδρυτής του Protect AI. «Ως αποτέλεσμα, αυτό το ίδιο το μοντέλο μηχανικής εκμάθησης είναι πλέον πλεονέκτημα στην υποδομή σας. Όταν έχετε ένα στοιχείο στην υποδομή σας, χρειάζεστε τη δυνατότητα να σαρώσετε το περιβάλλον σας, να προσδιορίσετε πού βρίσκονται, τι περιέχουν, ποιος έχει δικαιώματα και τι κάνει. Και αν δεν μπορείς να το κάνεις αυτό με τα μοντέλα σήμερα, δεν μπορείς να τα διαχειριστείς».

Τα μοντέλα AI/ML παρέχουν τη βάση για την ικανότητα ενός συστήματος AI να αναγνωρίζει μοτίβα, να κάνει προβλέψεις, να λαμβάνει αποφάσεις, να ενεργοποιεί ενέργειες ή να δημιουργεί περιεχόμενο. Αλλά η αλήθεια είναι ότι οι περισσότεροι οργανισμοί δεν ξέρουν καν πώς να αρχίσουν να αποκτούν προβολή σε όλα τα μοντέλα AI που είναι ενσωματωμένα στο λογισμικό τους. Τα μοντέλα και η υποδομή γύρω από αυτά είναι κατασκευασμένα διαφορετικά από άλλα στοιχεία λογισμικού και τα παραδοσιακά εργαλεία ασφάλειας και λογισμικού δεν είναι κατασκευασμένα για να σαρώνουν ή να κατανοούν πώς λειτουργούν τα μοντέλα τεχνητής νοημοσύνης ή πώς έχουν ελαττώματα. Αυτό είναι που τα κάνει μοναδικά, λέει ο Dehghanpisheh, ο οποίος εξηγεί ότι ουσιαστικά είναι κρυμμένα κομμάτια αυτοεκτελούμενου κώδικα.

«Ένα μοντέλο, από τη σχεδίασή του, είναι ένα αυτοεκτελούμενο κομμάτι κώδικα. Έχει ένα συγκεκριμένο πρακτορείο», λέει ο Dehghanpisheh. «Αν σας έλεγα ότι έχετε στοιχεία σε όλη την υποδομή σας που δεν μπορείτε να δείτε, δεν μπορείτε να αναγνωρίσετε, δεν ξέρετε τι περιέχουν, δεν ξέρετε ποιος είναι ο κώδικας και εκτελούνται μόνοι τους και να έχετε εξωτερικές κλήσεις, αυτό ακούγεται ύποπτα σαν ιός άδειας, έτσι δεν είναι;»

Ένας πρώιμος παρατηρητής των ανασφαλειών της AI

Το να ξεπεράσει αυτό το ζήτημα ήταν η μεγάλη ώθηση πίσω από αυτόν και τους συνιδρυτές του να λανσάρουν το Protect AI το 2022, το οποίο είναι ένα από τα πλήθη νέων εταιρειών που εμφανίζονται για να αντιμετωπίσουν ζητήματα ασφάλειας μοντέλων και γενεαλογίας δεδομένων που διαφαίνονται στην εποχή της τεχνητής νοημοσύνης. Ο Dehghanpisheh και ο συνιδρυτής Ian Swanson είδαν μια γεύση από το μέλλον όταν συνεργάστηκαν προηγουμένως δημιουργώντας λύσεις AI/ML στην AWS. Ο Dehghanpisheh ήταν ο παγκόσμιος ηγέτης για τους αρχιτέκτονες λύσεων AI/ML.

«Κατά τη διάρκεια του χρόνου που περάσαμε μαζί στο AWS, είδαμε πελάτες να κατασκευάζουν συστήματα AI/ML με απίστευτα γρήγορους ρυθμούς, πολύ πριν η γενετική τεχνητή νοημοσύνη αιχμαλωτίσει τις καρδιές και τα μυαλά όλων από το C-suite μέχρι το Κογκρέσο», λέει, εξηγώντας ότι Συνεργάστηκε με μια σειρά μηχανικών και ειδικών στην επιχειρηματική ανάπτυξη, καθώς και εκτενώς με πελάτες. «Τότε συνειδητοποιήσαμε πώς και πού βρίσκονται τα τρωτά σημεία ασφαλείας που είναι μοναδικά στα συστήματα AI/ML».

Παρατήρησαν τρία βασικά πράγματα σχετικά με την AI/ML που είχαν απίστευτες επιπτώσεις για το μέλλον της κυβερνοασφάλειας, λέει. Το πρώτο ήταν ότι ο ρυθμός υιοθέτησης ήταν τόσο γρήγορος που είδαν από πρώτο χέρι πόσο γρήγορα εμφανίζονταν σκιώδεις οντότητες πληροφορικής γύρω από την ανάπτυξη τεχνητής νοημοσύνης και την επιχειρηματική χρήση που ξέφευγε από το είδος της διακυβέρνησης που θα επέβλεπε κάθε άλλο είδος ανάπτυξης στην επιχείρηση.

Το δεύτερο ήταν ότι η πλειονότητα των εργαλείων που χρησιμοποιούνταν - είτε εμπορικά είτε ανοιχτού κώδικα - κατασκευάστηκαν από επιστήμονες δεδομένων και ανερχόμενους μηχανικούς ML που δεν είχαν ποτέ εκπαιδευτεί σε έννοιες ασφάλειας.

«Ως αποτέλεσμα, είχατε πραγματικά χρήσιμα, πολύ δημοφιλή, πολύ διανεμημένα, ευρέως διαδεδομένα εργαλεία που δεν δημιουργήθηκαν με νοοτροπία για την ασφάλεια», λέει.

Τα συστήματα AI δεν έχουν κατασκευαστεί «Πρώτα η ασφάλεια»

Ως αποτέλεσμα, πολλά συστήματα AI/ML και κοινά εργαλεία δεν διαθέτουν τα βασικά στοιχεία στον έλεγχο ταυτότητας και την εξουσιοδότηση και συχνά παρέχουν υπερβολική πρόσβαση ανάγνωσης και εγγραφής σε συστήματα αρχείων, εξηγεί. Σε συνδυασμό με τις ανασφαλείς διαμορφώσεις δικτύου και, στη συνέχεια, με αυτά τα εγγενή προβλήματα στα μοντέλα, οι οργανισμοί αρχίζουν να παγιδεύονται σε διαδοχικά ζητήματα ασφάλειας σε αυτά τα εξαιρετικά περίπλοκα, δυσνόητα συστήματα.

«Αυτό μας έκανε να συνειδητοποιήσουμε ότι τα υπάρχοντα εργαλεία ασφαλείας, οι διαδικασίες, τα πλαίσια – ανεξάρτητα από το πόσο μετατόπισες αριστερά, έλειπαν το πλαίσιο που θα χρειάζονταν οι μηχανικοί μηχανικής μάθησης, οι επιστήμονες δεδομένων και οι κατασκευαστές τεχνητής νοημοσύνης», λέει.

Τέλος, η τρίτη σημαντική παρατήρηση που έκανε ο ίδιος και ο Swanson κατά τη διάρκεια εκείνων των ημερών AWS ήταν ότι δεν ήρθαν παραβιάσεις AI. Είχαν ήδη φτάσει.

«Είδαμε πελάτες να έχουν παραβιάσεις σε μια ποικιλία συστημάτων AI/ML που θα έπρεπε να είχαν εντοπιστεί αλλά δεν έγιναν», λέει. «Αυτό που μας είπε είναι ότι το σύνολο και οι διεργασίες, καθώς και τα στοιχεία διαχείρισης απόκρισης περιστατικών, δεν κατασκευάστηκαν ειδικά για τον τρόπο αρχιτεκτονικής του AI/ML. Αυτό το πρόβλημα έχει γίνει πολύ χειρότερο καθώς η γενετική τεχνητή νοημοσύνη ανέκτησε δυναμική».

Τα μοντέλα AI μοιράζονται ευρέως

Οι Dehghanpisheh και Swanson άρχισαν επίσης να βλέπουν πώς τα μοντέλα και τα δεδομένα εκπαίδευσης δημιουργούσαν μια μοναδική νέα αλυσίδα εφοδιασμού με τεχνητή νοημοσύνη που θα έπρεπε να εξεταστεί εξίσου σοβαρά με την υπόλοιπη αλυσίδα εφοδιασμού λογισμικού. Όπως και με την υπόλοιπη σύγχρονη ανάπτυξη λογισμικού και την εγγενή καινοτομία στο cloud, οι επιστήμονες δεδομένων και οι ειδικοί της τεχνητής νοημοσύνης έχουν τροφοδοτήσει τις εξελίξεις στα συστήματα AI/ML μέσω της αχαλίνωτης χρήσης ανοιχτού κώδικα και κοινόχρηστων εξαρτημάτων — συμπεριλαμβανομένων μοντέλων AI και δεδομένων που χρησιμοποιούνται για την εκπαίδευσή τους. Τόσα πολλά συστήματα AI, είτε ακαδημαϊκά είτε εμπορικά, κατασκευάζονται χρησιμοποιώντας το μοντέλο κάποιου άλλου. Και όπως συμβαίνει με την υπόλοιπη σύγχρονη ανάπτυξη, η έκρηξη στην ανάπτυξη της τεχνητής νοημοσύνης οδηγεί σε μια τεράστια καθημερινή εισροή νέων περιουσιακών στοιχείων μοντέλων που πολλαπλασιάζονται σε όλη την αλυσίδα εφοδιασμού, πράγμα που σημαίνει ότι η παρακολούθηση τους γίνεται όλο και πιο δύσκολη.

Πάρτε το Hugging Face, για παράδειγμα. Αυτό είναι ένα από τα πιο ευρέως χρησιμοποιούμενα αποθετήρια μοντέλων τεχνητής νοημοσύνης ανοιχτού κώδικα στο διαδίκτυο σήμερα - οι ιδρυτές του λένε ότι θέλουν να γίνουν το GitHub της AI. Τον Νοέμβριο του 2022, οι χρήστες του Hugging Face είχαν μοιραστεί 93,501 διαφορετικά μοντέλα με την κοινότητα. Τον επόμενο Νοέμβριο, ο αριθμός των μοντέλων έφτασε τα 414,695. Τώρα, μόλις τρεις μήνες αργότερα, αυτός ο αριθμός έχει επεκταθεί σε 527,244. Αυτό είναι ένα θέμα του οποίου η εμβέλεια χιονίζει μέρα με τη μέρα. Και πρόκειται να θέσει το πρόβλημα ασφάλειας της αλυσίδας εφοδιασμού λογισμικού «στα στεροειδή», λέει ο Dehghanpisheh.

A πρόσφατη ανάλυση από την εταιρεία του βρήκε χιλιάδες μοντέλα που κοινοποιούνται ανοιχτά στο Hugging Face μπορούν να εκτελέσουν αυθαίρετο κώδικα κατά τη φόρτωση ή το συμπέρασμα μοντέλου. Ενώ το Hugging Face κάνει κάποια βασική σάρωση του αποθετηρίου του για ζητήματα ασφαλείας, πολλά μοντέλα χάνονται στην πορεία — τουλάχιστον τα μισά από τα μοντέλα υψηλού κινδύνου που ανακαλύφθηκαν στην έρευνα δεν θεωρήθηκαν μη ασφαλή από την πλατφόρμα και το Hugging Face το καθιστά σαφές στην τεκμηρίωση ότι ο καθορισμός της ασφάλειας ενός μοντέλου είναι τελικά ευθύνη των χρηστών του. 

Βήματα για την αντιμετώπιση της Εφοδιαστικής Αλυσίδας AI

Ο Dehghanpisheh πιστεύει ότι το λυχνάρι της κυβερνοασφάλειας στην εποχή της τεχνητής νοημοσύνης θα ξεκινήσει πρώτα δημιουργώντας μια δομημένη κατανόηση της γενεαλογίας της τεχνητής νοημοσύνης. Αυτό περιλαμβάνει τη σειρά μοντέλων και τη γενεαλογία δεδομένων, τα οποία είναι ουσιαστικά η προέλευση και το ιστορικό αυτών των στοιχείων, ο τρόπος με τον οποίο έχουν αλλάξει και τα μεταδεδομένα που σχετίζονται με αυτά.

«Αυτό είναι το πρώτο μέρος για να ξεκινήσετε. Δεν μπορείς να διορθώσεις αυτό που δεν μπορείς να δεις και αυτό που δεν μπορείς να ξέρεις και αυτό που δεν μπορείς να ορίσεις, σωστά;» αυτος λεει.

Εν τω μεταξύ, σε καθημερινό λειτουργικό επίπεδο, ο Dehghanpisheh πιστεύει ότι οι οργανισμοί πρέπει να αναπτύξουν δυνατότητες για τη σάρωση των μοντέλων τους, αναζητώντας ελαττώματα που μπορούν να επηρεάσουν όχι μόνο τη σκλήρυνση του συστήματος αλλά και την ακεραιότητα της παραγωγής του. Αυτό περιλαμβάνει ζητήματα όπως η προκατάληψη της τεχνητής νοημοσύνης και η δυσλειτουργία που θα μπορούσαν να προκαλέσουν πραγματική σωματική βλάβη από, για παράδειγμα, ένα αυτόνομο αυτοκίνητο που συγκρούεται με πεζό.

«Το πρώτο πράγμα είναι ότι πρέπει να σαρώσετε», λέει. «Το δεύτερο πράγμα είναι ότι πρέπει να καταλάβετε αυτές τις σαρώσεις. Και το τρίτο είναι ότι όταν έχετε κάτι που έχει επισημανθεί, ουσιαστικά πρέπει να σταματήσετε την ενεργοποίηση αυτού του μοντέλου. Πρέπει να περιορίσετε την αντιπροσωπεία της».

Το Push για MLSecOps

Το MLSecOps είναι μια κίνηση ουδέτερη ως προς τον προμηθευτή που αντικατοπτρίζει την κίνηση DevSecOps στον παραδοσιακό κόσμο του λογισμικού.

«Παρόμοια με τη μετάβαση από το DevOps στο DevSecOps, πρέπει να κάνετε δύο πράγματα ταυτόχρονα. Το πρώτο πράγμα που πρέπει να κάνετε είναι να ενημερώσετε τους ασκούμενους ότι η ασφάλεια είναι μια πρόκληση και ότι είναι μια κοινή ευθύνη», λέει ο Dehghanpisheh. «Το δεύτερο πράγμα που πρέπει να κάνετε είναι να δώσετε το πλαίσιο και να βάλετε την ασφάλεια σε εργαλεία που κρατούν τους επιστήμονες δεδομένων, τους μηχανικούς μηχανικής μάθησης, [και] τους κατασκευαστές τεχνητής νοημοσύνης σε αιχμή και συνεχώς καινοτομούν, αλλά αφήνοντας τις ανησυχίες για την ασφάλεια να εξαφανιστούν στο παρασκήνιο .»

Επιπλέον, λέει ότι οι οργανισμοί θα πρέπει να αρχίσουν να προσθέτουν πολιτικές διακυβέρνησης, κινδύνου και συμμόρφωσης και δυνατότητες επιβολής και διαδικασίες αντιμετώπισης συμβάντων που βοηθούν στη ρύθμιση των ενεργειών και των διαδικασιών που λαμβάνουν χώρα όταν ανακαλύπτονται ανασφάλειες. Όπως συμβαίνει με ένα συμπαγές οικοσύστημα DevSecOps, αυτό σημαίνει ότι το MLSecOps θα χρειαστεί ισχυρή συμμετοχή από τα ενδιαφερόμενα μέρη της επιχείρησης σε όλη τη διαδρομή μέχρι την εκτελεστική κλίμακα.

Τα καλά νέα είναι ότι η ασφάλεια AI/ML επωφελείται από ένα πράγμα που καμία άλλη ταχεία τεχνολογική καινοτομία δεν είχε αμέσως - δηλαδή, ρυθμιστικές εντολές αμέσως έξω από την πύλη. 

«Σκεφτείτε οποιαδήποτε άλλη τεχνολογική μετάβαση», λέει ο Dehghanpisheh. «Ονομάστε μια φορά που μια ομοσπονδιακή ρυθμιστική αρχή ή ακόμη και ρυθμιστικές αρχές της πολιτείας είπαν από νωρίς: «Ουάου, ουάου, ουάου, πρέπει να μου πεις ό,τι υπάρχει. Πρέπει να δώσετε προτεραιότητα στη γνώση αυτού του συστήματος. Πρέπει να δώσετε προτεραιότητα σε έναν λογαριασμό υλικών. Δεν υπάρχει κανένα.”

Αυτό σημαίνει ότι πολλοί ηγέτες ασφάλειας είναι πιο πιθανό να λάβουν συμμετοχή για να αναπτύξουν τις δυνατότητες ασφάλειας AI πολύ νωρίτερα στον κύκλο ζωής της καινοτομίας. Ένα από τα πιο προφανή σημάδια αυτής της υποστήριξης είναι η ταχεία στροφή προς τη χορηγία νέων θέσεων εργασίας σε οργανισμούς.

«Η μεγαλύτερη διαφορά που έφερε στο τραπέζι η ρυθμιστική νοοτροπία είναι ότι τον Ιανουάριο του 2023, η έννοια του διευθυντή ασφάλειας AI ήταν νέα και δεν υπήρχε. Αλλά μέχρι τον Ιούνιο, άρχισες να βλέπεις αυτούς τους ρόλους», λέει ο Dehghanpisheh. «Τώρα είναι παντού — και χρηματοδοτούνται».

spot_img

Τελευταία Νοημοσύνη

spot_img

Συνομιλία με μας

Γεια σου! Πώς μπορώ να σε βοηθήσω?