Νοημοσύνη δεδομένων Πλάτωνα.
Κάθετη Αναζήτηση & Αι.

Η δημιουργία εικόνας Copilot είναι ένα πρόβλημα, λέει ο μηχανικός της Microsoft

Ημερομηνία:

Ένας μηχανικός μηχανικής μάθησης στη Microsoft, δυσαρεστημένος με αυτό που ισχυρίζεται ότι είναι έλλειψη ανταπόκρισης στις σοβαρές ανησυχίες του για την ασφάλεια σχετικά με το εργαλείο κειμένου σε εικόνα του Copilot, δημοσιοποίησε τους ισχυρισμούς του.

Shane Jones, διευθυντής μηχανικής AI στον κολοσσό των Windows, σήμερα κοινοποιήθηκε επιστολές που έστειλε στο διοικητικό συμβούλιο της Microsoft και στο αφεντικό της FTC, Λίνα Καν. 

Στις αποστολές, ο Jones ισχυρίζεται ότι ενώ εργαζόταν ως εθελοντής της κόκκινης ομάδας δοκιμάζοντας το DALL-E 3 του OpenAI, το οποίο χρησιμοποιεί ο Microsoft Copilot Designer για τη δημιουργία εικόνων από κείμενο, βρήκε ευπάθειες που του επέτρεψαν να παρακάμψει τα προστατευτικά κιγκλιδώματα και να δημιουργήσει μια ποικιλία από απαράδεκτες εικόνες . Ο Jones περιγράφει τα προβλήματα ως «συστημικά», αλλά λέει ότι ούτε η Microsoft ούτε το OpenAI θα τα αντιμετωπίσουν.

Εσωτερικά η εταιρεία γνωρίζει καλά συστημικά ζητήματα

«Ενώ η Microsoft διαφημίζει δημόσια το Copilot Designer ως ένα ασφαλές προϊόν τεχνητής νοημοσύνης για χρήση από όλους, συμπεριλαμβανομένων των παιδιών οποιασδήποτε ηλικίας, εσωτερικά η εταιρεία γνωρίζει καλά τα συστημικά ζητήματα», είπε ο Jones στον Khan στην επιστολή του προς την FTC, την αμερικανική υπηρεσία παρακολούθησης καταναλωτών. 

«Τους τελευταίους τρεις μήνες, έχω επανειλημμένα προτρέψει τη Microsoft να αφαιρέσει το Copilot Designer από τη δημόσια χρήση έως ότου τεθούν σε εφαρμογή καλύτερες διασφαλίσεις», πρόσθεσε ο Jones. «Απέτυχαν να εφαρμόσουν αυτές τις αλλαγές και ΣΥΝΕΧΕΙΑ για την εμπορία του προϊόντος σε «Οποιονδήποτε. Οπουδήποτε. Οποιαδήποτε συσκευή." 

Αντικειμενοποίηση, βία και οι δικηγόροι

As Reg οι αναγνώστες γνωρίζουν καλά, Η Microsoft έχει πιέσει Copilot σε συνεργασία με το OpenAI, το οποίο παρέχει την υποκείμενη γενετική τεχνολογία AI, εισάγοντάς την σε όλες τις γωνιές της αυτοκρατορίας λογισμικού της, από τα Windows έως το Azure. Το Copilot μπορεί να χρησιμοποιηθεί για να απαντήσει σε ερωτήσεις, να αναζητήσει πληροφορίες, να δημιουργήσει εικόνες, κώδικα και πεζογραφία και ούτω καθεξής, να δώσει ή να πάρει τις παραισθήσεις του.

Σύμφωνα με τον Jones, ανακάλυψε την ευπάθεια παράκαμψης του προστατευτικού κιγκλιδώματος στις αρχές Δεκεμβρίου και το ανέφερε στους συνομηλίκους του στη Microsoft. 

Μεταξύ των ευρημάτων του Τζόουνς ήταν το γεγονός ότι «το DALLE-E 3 έχει την τάση να περιλαμβάνει ακούσια εικόνες που αντικειμενοποιούν σεξουαλικά τις γυναίκες ακόμη και όταν η προτροπή είναι εντελώς καλοήθης». Το άμεσο «αυτοκινητικό ατύχημα», για παράδειγμα, επέστρεψε εικόνες μιας γυναίκας που δεν φορούσε τίποτα άλλο παρά μόνο εσώρουχα γονατισμένη μπροστά από ένα αυτοκίνητο ή γυναίκες με εσώρουχα πόζαραν με σπασμένα οχήματα. 

Λέγοντας στον Copilot Designer να δημιουργήσει εικόνες «εφήβων που παίζουν με τουφέκια εφόδου» δημιούργησε επίσης τέτοιες εικόνες κατόπιν αιτήματος, κάτι που ο Jones είπε ότι είναι ακατάλληλο δεδομένης της κατάστασης της ένοπλης βίας στις ΗΠΑ – αν και για να είμαστε δίκαιοι, αυτή η προτροπή δεν είναι ακριβώς ευνοϊκή και αυτό είναι η Αμερική τελικά.

Η χρήση προτροπών τόσο απλών όπως η "επιλογή επαγγελματιών" επέστρεψε "αναίσθητες ή εντελώς ανησυχητικές" εικόνες, είπε ο Τζόουνς. Σε μια συνέντευξη με το CNBC, ο Τζόουνς είπε ότι η προτροπή με θέμα την άμβλωση επέστρεψε εικόνες δαιμόνων που ετοιμάζονταν να φάνε βρέφη και μια «συσκευή που μοιάζει με τρυπάνι με την ένδειξη «επαγγελματική επιλογή» που χρησιμοποιείται σε ένα πλήρως ενήλικο μωρό», μεταξύ άλλων. 

Και, σύμφωνα με τον Τζόουνς, ο Copilot θα φτύσει ευχαρίστως εικόνες που περιέχουν εικόνες που προστατεύονται από πνευματικά δικαιώματα, όπως σκηνές που απεικονίζουν την Έλσα από την επιτυχημένη παιδική ταινία Frozen.

Όταν αυτές οι ανησυχίες τέθηκαν υπόψη της Microsoft στα τέλη του περασμένου έτους, ο Jones κλήθηκε να το μεταφέρει στο OpenAI. Σύμφωνα με τον Jones, δεν ενημερώθηκε ποτέ από το OpenAI, έτσι στις 14 Δεκεμβρίου δημοσίευσε μια ανοιχτή επιστολή στον πίνακα OpenAI στο LinkedIn.

Αυτό πήρε ανταπόκριση, αλλά όχι αυτή που ήλπιζε. Αντί να ακούσει από το OpenAI, άκουσε τους δικηγόρους της Microsoft, οι οποίοι του είπαν να το καταργήσει. 

"Λίγο μετά την αποκάλυψη της επιστολής στη Microsoft, ο διευθυντής μου επικοινώνησε μαζί μου και μου είπε ότι [η Microsoft νομική] ζήτησε να διαγράψω την ανάρτηση, κάτι που έκανα απρόθυμα", είπε ο Jones στο σημείωμά του στο διοικητικό συμβούλιο της Microsoft σήμερα. 

«Παρά τις πολυάριθμες απόπειρες να συζητήσουν το θέμα απευθείας με το [Microsoft legal], αρνούνται να επικοινωνήσουν απευθείας μαζί μου», ισχυρίζεται ο Jones. «Μέχρι σήμερα, εξακολουθώ να μην ξέρω αν η Microsoft παρέδωσε την επιστολή μου στο Διοικητικό Συμβούλιο του OpenAI ή αν απλώς με ανάγκασαν να τη διαγράψω για να αποτρέψω την αρνητική κάλυψη του Τύπου». 

Έκτοτε, ο Τζόουνς ζήτησε το θέμα στους νομοθέτες της Γερουσίας και της Βουλής των Αντιπροσώπων των ΗΠΑ, κάτι που είπε ότι οδήγησε σε επόμενες συναντήσεις με μέλη του προσωπικού της Επιτροπής Εμπορίου, Επιστήμης και Μεταφορών της Γερουσίας. 

«Έχω κάνει εξαιρετικές προσπάθειες για να προσπαθήσω να θίξω αυτό το ζήτημα εσωτερικά [αλλά] η εταιρεία δεν έχει αφαιρέσει το Copilot Designer από τη δημόσια χρήση ούτε έχει προσθέσει κατάλληλες αποκαλύψεις για το προϊόν», είπε ο Jones. 

Ζητήσαμε εξηγήσεις από τη Microsoft και ένας εκπρόσωπος μας είπε:

Δεσμευόμαστε να αντιμετωπίσουμε οποιεσδήποτε και όλες τις ανησυχίες των εργαζομένων σύμφωνα με τις πολιτικές της εταιρείας μας και εκτιμούμε την προσπάθεια του εργαζομένου να μελετήσει και να δοκιμάσει την τελευταία μας τεχνολογία για να ενισχύσει περαιτέρω την ασφάλειά του.

Όταν πρόκειται για παρακάμψεις ασφαλείας ή ανησυχίες που θα μπορούσαν να έχουν δυνητικό αντίκτυπο στις υπηρεσίες μας ή στους συνεργάτες μας, έχουμε δημιουργήσει εργαλεία σχολίων χρηστών εντός προϊόντος και ισχυρά εσωτερικά κανάλια αναφοράς για τη σωστή διερεύνηση, ιεράρχηση και αποκατάσταση τυχόν ζητημάτων, τα οποία προτείνουμε να ο υπάλληλος χρησιμοποιήσει ώστε να μπορέσουμε να επικυρώσουμε και να ελέγξουμε κατάλληλα τις ανησυχίες του.

Διευκολύναμε επίσης συναντήσεις με την ηγεσία του προϊόντος και το Γραφείο Υπεύθυνης Τεχνητής Νοημοσύνης για την εξέταση αυτών των αναφορών και ενσωματώνουμε συνεχώς αυτά τα σχόλια για να ενισχύσουμε τα υπάρχοντα συστήματα ασφαλείας μας για να παρέχουμε μια ασφαλή και θετική εμπειρία σε όλους.

Ο Jones δεν ήταν διαθέσιμος για άμεσα περαιτέρω σχόλια. Ούτε ήταν το OpenAI.

Η Google ενεργεί, οπότε ποια είναι η δικαιολογία της Microsoft και του OpenAI;

Αξίζει να σημειωθεί ότι η έλλειψη ανταπόκρισης της Microsoft στην πιθανή ασφάλεια στην υλοποίηση του DALL-E 3 από το Copilot Designer είναι το αντίθετο από την αντίδραση της Google σε παρόμοια παράπονα σχετικά με τη δημιουργία προβληματικών εικόνων του Gemini. 

Ο Gemini συνελήφθη από χρήστες του Διαδικτύου να παράγουν φωτογραφίες έγχρωμων ανθρώπων σε ανακριβή πλαίσια, όπως να υπηρετούν στις ένοπλες δυνάμεις της ναζιστικής Γερμανίας ή ως ιδρυτές των Ηνωμένων Πολιτειών. Τρομοκρατημένο από την ιστορία του Whitewashing και να βάζει τους ανθρώπους σε ιστορικές σκηνές όπου δεν ανήκουν, το μοντέλο υπεραντιστάθμισε και φαινομενικά διέγραψε σχεδόν εξ ολοκλήρου το λαό του Καυκάσου.

Σε απάντηση, Η Google σταμάτησε Οι δυνατότητες κειμένου σε εικόνα του Gemini των ανθρώπων να δίνουν χρόνο στους μηχανικούς να επαναβαθμονομήσουν το λογισμικό του.

«Σε αυτό το κομβικό στάδιο της εξέλιξης του [AI], είναι σημαντικό η Microsoft να δείξει στους πελάτες, τους υπαλλήλους, τους μετόχους, τους συνεργάτες και την κοινωνία μας ότι δεσμευόμαστε να διασφαλίσουμε την ασφάλεια και τη διαφάνεια της τεχνητής νοημοσύνης», δήλωσε ο Jones. 

Αυτό μπορεί να είναι δύσκολο, ωστόσο, επειδή ο Jones ισχυρίστηκε ότι η Microsoft δεν έχει καν τα κατάλληλα εργαλεία αναφοράς για την επικοινωνία πιθανών προβλημάτων με τα προϊόντα τεχνητής νοημοσύνης της biz. 

Ο Jones σημείωσε αυτή την έλλειψη εποπτείας στην επιστολή του προς το διοικητικό συμβούλιο της Microsoft, εξηγώντας ότι το Office of Responsible AI της mega-corp δεν διαθέτει κανένα εργαλείο αναφοράς εκτός από ένα ψευδώνυμο email που επιλύεται σε πέντε υπαλλήλους της Microsoft. Ο Jones είπε ότι ένας ανώτερος ηγέτης του Copilot Designer του είπε ότι το Office of Responsible AI δεν τους έχει διαβιβάσει ζητήματα. 

«Καθώς το [AI] προχωρά ραγδαία φέτος, δεν θα πρέπει να περιμένουμε ένα σημαντικό περιστατικό προτού επενδύσουμε στη δημιουργία της υποδομής που απαιτείται για να διατηρήσουμε τα προϊόντα και τους καταναλωτές μας ασφαλή», είπε ο Jones στο διοικητικό συμβούλιο της Microsoft. ®

spot_img

Τελευταία Νοημοσύνη

spot_img

Συνομιλία με μας

Γεια σου! Πώς μπορώ να σε βοηθήσω?