Νοημοσύνη δεδομένων Πλάτωνα.
Κάθετη Αναζήτηση & Αι.

Το OpenAI προειδοποιεί τους χρήστες σχετικά με τα όρια και τα ελαττώματα του GPT-4 Vision

Ημερομηνία:

AI Εν συντομία Το OpenAI κυκλοφορεί αναβαθμίσεις για το GPT-4 που, μεταξύ άλλων, θα επιτρέψουν στο μοντέλο τεχνητής νοημοσύνης να απαντά σε ερωτήματα από έναν χρήστη σχετικά με μια υποβληθείσα εικόνα – και το υπερ-εργαστήριο έχει τουλάχιστον τεκμηριώσει ορισμένους κινδύνους ασφαλείας που σχετίζονται με αυτήν την ικανότητα.

Ο στόχος αυτής της νέας λειτουργικότητας είναι απλός: ένας χρήστης μπορεί να ανεβάσει ένα αρχείο εικόνας και μέσω ChatGPT να κάνει τις αναβαθμισμένες ερωτήσεις GPT-4 σχετικά με αυτήν την εικόνα, στις οποίες θα προσπαθήσει να απαντήσει. Μια εγγραφή OpenAI που περιγράφει αυτήν την ενημέρωση GPT-4V (όπου το V σημαίνει όραση) αποκάλυψε ότι η biz εργάζεται για την προσθήκη διασφαλίσεων για τον περιορισμό της δυνατότητας του νευρωνικού δικτύου να εκθέτει ιδιωτικά δεδομένα ή να δημιουργεί ακατάλληλες εξόδους κατά το χειρισμό των υποβαλλόμενων εικόνων.

Το OpenAI προσπάθησε, για παράδειγμα, να εμποδίσει την ικανότητα του μοντέλου να αναγνωρίζει πρόσωπα ή ακριβείς τοποθεσίες από φωτογραφίες που έχουν ανέβει, καθώς και να απέχει από το να σχολιάζει τις εμφανίσεις των ανθρώπων στα υποβληθέντα στιγμιότυπα, όπως μας λένε. Πρόσθετες άμυνες περιλαμβάνουν την αποτροπή του LLM από την αυτόματη επίλυση CAPTCHA ή την περιγραφή της παράνομης συμπεριφοράς και την προσπάθεια μείωσης της τάσης του να δημιουργεί ψευδείς πληροφορίες.

«Σε ορισμένες περιπτώσεις, θα μπορούσε επίσης να αποτύχει να αναγνωρίσει πληροφορίες από εικόνες. Θα μπορούσε να χάσει κείμενο ή χαρακτήρες, να παραβλέπει μαθηματικά σύμβολα και να μην μπορεί να αναγνωρίσει χωρικές τοποθεσίες και χρωματικές αντιστοιχίσεις», προειδοποίησε η στολή. χαρτί [PDF] που περιγράφει το GPT-4V.

Οι περιορισμοί του μοντέλου σημαίνουν ότι το LLM δεν είναι κατάλληλο για την εκτέλεση ορισμένων εργασιών, ειδικά εκείνων που είναι επικίνδυνες, όπως ο εντοπισμός παράνομων ναρκωτικών ή ασφαλών για κατανάλωση μανιταριών. Το OpenAI προειδοποίησε επίσης ότι το GPT-4V, όπως συνήθως για ένα μοντέλο GPT-4, έχει τη δυνατότητα να δημιουργεί κείμενο και εικόνες που θα μπορούσαν να χρησιμοποιηθούν για τη διάδοση αποτελεσματικής παραπληροφόρησης σε μεγάλη κλίμακα.

«Προηγούμενες εργασίες έχουν δείξει ότι οι άνθρωποι είναι πιο πιθανό να πιστεύουν αληθείς και ψεύτικες δηλώσεις όταν παρουσιάζονται δίπλα σε μια εικόνα και έχουν ψευδή ανάκληση επικεφαλίδων όταν συνοδεύονται από φωτογραφία. Είναι επίσης γνωστό ότι η ενασχόληση με το περιεχόμενο αυξάνεται όταν σχετίζεται με μια εικόνα», ανέφερε. 

In πρακτικούς όρους, το GPT-4V και οι δυνατότητες επεξεργασίας εικόνας του μπορούν να χρησιμοποιηθούν μέσω του ChatGPT του OpenAI από τους χρήστες Plus. Εν τω μεταξύ, το OpenAI αναπτύσσει υποστήριξη φωνητικής εισαγωγής σε iOS και Android για χρήστες ChatGPT Plus. «Μπορείτε τώρα να χρησιμοποιήσετε τη φωνή για να συμμετάσχετε σε μια συνομιλία πέρα ​​δώθε με τον βοηθό σας», είπε ο biz.

We έγραψε νωρίτερα για τη μυστηριώδη γαλλική startup τεχνητής νοημοσύνης Mistral, και τώρα η μπιζ έχει κυκλοφόρησε - μέσω συνδέσμου Magnet – ένα μοντέλο μεγάλης γλώσσας 7.3 δισεκατομμυρίων παραμέτρων που ισχυρίζεται ότι υπερέχει ορισμένων αντιπάλων. Λέγεται επίσης ότι δεν είναι εποπτευόμενο και χωρίς λογοκρισία, επομένως μπορεί να χρησιμοποιηθεί για την παραγωγή αμφισβητήσιμων αποτελεσμάτων καθώς και για τα συνηθισμένα πράγματα που μπορούν να κάνουν αυτά τα LLM από τα μηνύματα προτροπής. Χρησιμοποιήστε… όπως θέλετε, υποθέτουμε.

«Το μοντέλο Mistral 7B Instruct είναι μια γρήγορη απόδειξη ότι το βασικό μοντέλο μπορεί εύκολα να ρυθμιστεί με ακρίβεια για να επιτύχει συναρπαστική απόδοση», είπε η biz. «Δεν έχει κανένα μηχανισμό μετριοπάθειας. Ανυπομονούμε να συνεργαστούμε με την κοινότητα σχετικά με τρόπους ώστε το μοντέλο να σέβεται τα προστατευτικά κιγκλιδώματα, επιτρέποντας την ανάπτυξη σε περιβάλλοντα που απαιτούν μέτριες εξόδους.»

Το Meta αυξάνει το παράθυρο περιβάλλοντος για τα μοντέλα Llama 2

Το Meta έχει επεκτείνει το μήκος του κειμένου που μπορούν να εισάγουν οι χρήστες σε αυτό Λάμα 2 μοντέλα σε έως και 32,768 μάρκες ή κομμάτια λέξεων, μεταγλωττίζοντας τα προκύπτοντα συστήματα Llama 2 Long.

Η αύξηση του μήκους της προτροπής εισαγωγής σημαίνει ότι τα μοντέλα μπορούν να επεξεργαστούν περισσότερα δεδομένα για να εκτελέσουν πιο σύνθετες εργασίες, όπως η σύνοψη μεγάλων αναφορών ή η αναζήτηση πληροφοριών σε μεγαλύτερα περιβάλλοντα.

Λάβετε υπόψη: Το μοντέλο Claude του Anthropic μπορεί να επεξεργαστεί έως και 100,000 μάρκες, ποσότητα κειμένου που ισοδυναμεί με 75,000 λέξεις ή εκατοντάδες σελίδες πεζογραφίας. Σε ένα χαρτί [PDF] που κυκλοφόρησε την περασμένη εβδομάδα, η Meta ισχυρίστηκε το κορυφαίο μοντέλο μεγάλης γλώσσας 70 δισεκατομμυρίων παραμέτρων Llama 2 Long, ίσως δεν αποτελεί έκπληξη, ξεπερνά το μοντέλο GPT-3.5-turbo του OpenAI με παράθυρο περιβάλλοντος 16,000 μάρκες.

Ο Μέτα έχει χειροκροτηθεί από κάποιους για απελευθερώνοντας Τα μοντέλα του Llama 2 για προγραμματιστές και ακαδημαϊκούς που μπορούν να τα δουν. Αλλά δεν είναι όλοι ευχαριστημένοι. Οι διαδηλωτές στάθηκαν έξω από το γραφείο του mega-corp στο Σαν Φρανσίσκο την Παρασκευή για να ευαισθητοποιήσουν τους κινδύνους και τους κινδύνους από την απελευθέρωση των βαρών των μοντέλων, κάτι που επιτρέπει στους κακούς να χρησιμοποιούν τα μοντέλα χωρίς πρόσθετες διασφαλίσεις.

«Η πολιτική κυκλοφορίας της Meta για μοντέλα τεχνητής νοημοσύνης συνόρων είναι θεμελιωδώς ανασφαλής… Προτού κυκλοφορήσει ακόμα πιο προηγμένα μοντέλα – τα οποία μπορεί να έχουν πιο επικίνδυνες δυνατότητες στα χέρια κακών ηθοποιών – καλούμε τη Meta να λάβει σοβαρά υπόψη την υπεύθυνη κυκλοφορία και να σταματήσει την μη αναστρέψιμη διάδοση», η διαμαρτυρία ομάδα είπε σε α δήλωση. Η ίδια η διαμαρτυρία οργανώθηκε στο Facebook του Meta και πολύ ελαφρά παρακολούθησαν.

Το Amazon exec επιβεβαιώνει ότι η Alexa μπορεί να χρησιμοποιήσει τη φωνή σας για εκπαίδευση τεχνητής νοημοσύνης

Ο αποχωρών στέλεχος της Amazon, Ντέιβ Λιμπ, είπε στο Bloomberg TV τις προάλλες ότι πιστεύει ότι ο ψηφιακός βοηθός Alexa του γίγαντα του Ιστού θα γίνονται όλο και περισσότερο μια υπηρεσία πληρωμής για παιχνίδι. Το πιο σημαντικό, είπε επίσης ότι η Alexa μπορεί να χρησιμοποιήσει τις συνομιλίες ορισμένων ανθρώπων με το σύστημα AI για να εκπαιδεύσει το μεγάλο γλωσσικό μοντέλο της Amazon Alexa LLM.

«Οι πελάτες μπορούν ακόμα να έχουν πρόσβαση στο ίδιο ισχυρό σύνολο εργαλείων και ελέγχων απορρήτου που τους δίνουν τον έλεγχο της εμπειρίας Alexa σήμερα», εκπρόσωπος της Amazon είπε NBC News. «Για παράδειγμα, οι πελάτες θα γνωρίζουν πάντα πότε η Alexa ακούει το αίτημά τους, επειδή η ένδειξη μπλε φωτός θα ανάψει και θα ακουστεί ένας προαιρετικός ηχητικός τόνος».

Ίσως ήρθε η ώρα να ελέγξετε και να αλλάξετε τις ρυθμίσεις σας.

Η Lab δημιουργεί ερευνητική πρωτοβουλία για τη μελέτη της ασφάλειας στην τεχνητή νοημοσύνη

Το Εθνικό Εργαστήριο Oak Ridge του Υπουργείου Ενέργειας των ΗΠΑ ανακοίνωσε την έναρξη του Κέντρου Έρευνας για την Ασφάλεια της Τεχνητής Νοημοσύνης (CAISER) για τη διερεύνηση επιθέσεων αντιπάλου σε συστήματα μηχανικής μάθησης. 

Οι ερευνητές θα συνεργαστούν με προσωπικό από άλλους φορείς, όπως η Διεύθυνση Πληροφοριών του Ερευνητικού Εργαστηρίου Πολεμικής Αεροπορίας και η Διεύθυνση Επιστήμης και Τεχνολογίας του Τμήματος Εσωτερικής Ασφάλειας, για να αξιολογήσουν και να μελετήσουν τα τρωτά σημεία ασφαλείας στην τεχνητή νοημοσύνη.

Το CAISER ασχολείται κυρίως με επιθέσεις αντιπάλου και πώς μπορούν να αξιοποιηθούν τα μοντέλα. Οι κακοί μπορούν να δηλητηριάσουν τα συστήματα τροφοδοτώντας ανεπιθύμητα δεδομένα που μπορούν να αναγκάσουν τους αλγόριθμους να κάνουν εσφαλμένες προβλέψεις. Οι επιθέσεις άμεσης έγχυσης, για παράδειγμα, μπορούν να κατευθύνουν ένα μεγάλο μοντέλο γλώσσας για να δημιουργήσει ακατάλληλο και προσβλητικό κείμενο. 

Με την κατανόηση των επιπτώσεων και την ανάλυση των κινδύνων, ελπίζουμε ότι η CAISER μπορεί να ενημερώσει καλύτερα τις ομοσπονδιακές υπηρεσίες σχετικά με το υπάρχον λογισμικό και τις δυνατότητες καθώς εξετάζουν το ενδεχόμενο να υιοθετήσουν την τεχνητή νοημοσύνη.

«Βρισκόμαστε σε ένα σταυροδρόμι. Τα εργαλεία τεχνητής νοημοσύνης και οι τεχνολογίες που βασίζονται στην τεχνητή νοημοσύνη είναι εγγενώς ευάλωτα και εκμεταλλεύσιμα, γεγονός που μπορεί να οδηγήσει σε απρόβλεπτες συνέπειες», δήλωσε ο Edmon Begoli, επικεφαλής του τμήματος Advanced Intelligent Systems του ORNL και ιδρυτικός διευθυντής της CAISER. είπε σε μια δήλωση.

«Ορίζουμε ένα νέο πεδίο έρευνας για την ασφάλεια της τεχνητής νοημοσύνης και δεσμευόμαστε για εντατική έρευνα και ανάπτυξη στρατηγικών και λύσεων μετριασμού έναντι των αναδυόμενων κινδύνων της τεχνητής νοημοσύνης».

Η AWS λανσάρει την πλατφόρμα AI Bedrock

Η μονάδα cloud της Amazon AWS νωρίτερα ανακοίνωσε Η πλατφόρμα του Bedrock, η οποία φιλοξενεί βασικά μοντέλα μέσω API για τις επιχειρήσεις που μπορούν να εκπαιδεύουν και να λειτουργούν με τους πόρους υλικού του γίγαντα του cloud, είναι πλέον γενικά διαθέσιμη.

Οι προγραμματιστές μπορούν πλέον να έχουν πρόσβαση σε διάφορα μοντέλα, από το Llama 2 της Meta έως το Titan Embeddings της Amazon, το οποίο μεταφράζει κείμενο σε διανυσματικές αντιστοιχίσεις για επεξεργασία από αλγόριθμους τεχνητής νοημοσύνης. το Amazon Titan Express που δημιουργεί κείμενο και το Amazon Titan Lite. και Amazon CodeWhisperer. Το AWS φιλοξενεί επίσης μοντέλα που κατασκευάστηκαν από άλλες εταιρείες, όπως η AI21 Labs, η Anthropic, η Cohere και η Stability AI.

«Με ισχυρές, νέες καινοτομίες, το AWS φέρνει μεγαλύτερη ασφάλεια, επιλογές και απόδοση στους πελάτες, ενώ τους βοηθά επίσης να ευθυγραμμίσουν στενά τη στρατηγική δεδομένων τους στον οργανισμό τους, ώστε να μπορούν να αξιοποιήσουν στο έπακρο τις δυνατότητες μετασχηματισμού της γενετικής τεχνητής νοημοσύνης», είπε. Swami Sivasubramanian, αντιπρόεδρος δεδομένων και AI στο AWS. 

Η AWS είπε ότι επιχειρήσεις από μια σειρά βιομηχανιών χρησιμοποιούν τις παραγωγικές υπηρεσίες τεχνητής νοημοσύνης της Bedrock, συμπεριλαμβανομένης της μάρκας αθλητικών ενδυμάτων Adidas, της αυτοκινητοβιομηχανίας BMW Group, της LexisNexis Legal & Professional και του μη κερδοσκοπικού οργανισμού τουρνουά γκολφ των ΗΠΑ PGA Tour. ®

spot_img

Τελευταία Νοημοσύνη

spot_img

Συνομιλία με μας

Γεια σου! Πώς μπορώ να σε βοηθήσω?