Νοημοσύνη δεδομένων Πλάτωνα.
Κάθετη Αναζήτηση & Αι.

Σίγουρα, Microsoft, ας θέσουμε το ChatGPT στον έλεγχο των ρομπότ

Ημερομηνία:

Βίντεο Η Microsoft, έχοντας δεσμευτεί για μια «πολυετή, πολλών δισεκατομμυρίων δολαρίων» επένδυση στο OpenAI, είναι τόσο κατακλυσμένη από μεγάλα γλωσσικά μοντέλα όπως το ChatGPT που βλέπει τόσο έξυπνο λογισμικό να απλοποιεί τον τρόπο επικοινωνίας με τα ρομπότ.

Το ChatGPT είναι ένα μεγάλο γλωσσικό μοντέλο (LLM) που εκπαιδεύεται στο σύνολο δεδομένων OpenAI GPT (Generative Pre-trained Transformer), το οποίο αποτελείται από κείμενο που έχει αφαιρεθεί από τον ιστό και άλλες πηγές. Συνδυάζεται με μια διεπαφή συνομιλίας, η ικανότητα του μοντέλου να απαντά σε ερωτήσεις ημι-συνεκτικά, ωστόσο όχι πάντα με ακρίβεια, του κέρδισε μια θέση στη μηχανή αναζήτησης Bing της Microsoft και έδειξε ότι η κυριαρχία των παιχνιδιών με διαφημίσεις SEO, στηρίζεται στην πληρωμή Η Αναζήτηση Google μπορεί επιτέλους να τελειώνει.

Ανεπαρκώς απασχολημένος κατάσβεση πυρκαγιών από τη συνένωση τεχνητής νοημοσύνης του Bing, η Microsoft προτείνει τώρα το ChatGPT ως έναν τρόπο να βοηθήσει τους ανθρώπους να κατευθύνουν τα ρομπότ στον φυσικό κόσμο.

«Στόχος μας με αυτήν την έρευνα είναι να δούμε αν το ChatGPT μπορεί να σκεφτεί πέρα ​​από το κείμενο και να σκεφτεί τον φυσικό κόσμο για να βοηθήσει σε εργασίες ρομποτικής», δήλωσε η εταιρεία στο μια θέση την Δευτέρα. «Θέλουμε να βοηθήσουμε τους ανθρώπους να αλληλεπιδρούν με τα ρομπότ πιο εύκολα, χωρίς να χρειάζεται να μάθουν περίπλοκες γλώσσες προγραμματισμού ή λεπτομέρειες για τα ρομποτικά συστήματα».

Προς το σκοπό αυτό, οι ερευνητές του Redmond απελευθέρωσαν PromptCraft, η οποία περιγράφεται ως μια συνεργατική πλατφόρμα ανοιχτού κώδικα για την κοινή χρήση των ερωτημάτων και εντολών LLM με τον καλύτερο τρόπο σε ρομπότ.

Αποδεικνύεται ότι δεν μπορείτε να πάτε κατευθείαν στο "Άνοιξε τις πόρτες του λοβού, σε παρακαλώ, Χαλ», εάν αλληλεπιδράτε με το ChatGPT ως κανάλι φωνητικού ελέγχου για ένα drone. Πρέπει να ορίσετε το σκηνικό για το μοντέλο. Αρχίζει κάτι σαν αυτό:

Φανταστείτε ότι με βοηθάτε να αλληλεπιδράσω με τον προσομοιωτή AirSim για drones. Σε οποιαδήποτε δεδομένη χρονική στιγμή, έχετε τις ακόλουθες ικανότητες, καθεμία από τις οποίες προσδιορίζεται από μια μοναδική ετικέτα. Απαιτείται επίσης να εξάγετε κωδικό για ορισμένα από τα αιτήματα.

Ερώτηση: Μπορείτε να μου κάνετε μια διευκρινιστική ερώτηση, αρκεί να την προσδιορίσετε συγκεκριμένα λέγοντας «Ερώτηση». Κώδικας: Εξαγωγή εντολής κώδικα που επιτυγχάνει τον επιθυμητό στόχο.

Αιτία: Αφού εξάγετε τον κώδικα, θα πρέπει να δώσετε μια εξήγηση γιατί κάνατε αυτό που κάνατε.

Ο προσομοιωτής περιέχει ένα drone, μαζί με πολλά αντικείμενα. Εκτός από το drone, κανένα από τα αντικείμενα δεν είναι κινητό. Μέσα στον κώδικα, έχουμε τις ακόλουθες εντολές στη διάθεσή μας. Δεν πρέπει να χρησιμοποιείτε άλλες υποθετικές συναρτήσεις.

...

Και υπάρχουν σημαντικές παράμετροι πλοήγησης που πρέπει να καθοριστούν. Αλλά μετά από κάποια προετοιμασία, μπορεί να φτάσετε στο σημείο όπου μπορείτε να συνομιλήσετε με το ChatGPT και να το κατευθύνετε με ένα drone για να σας βρει ένα ποτό στο περιβάλλον. Ή μπορεί να παράγει τον κώδικα Python που, αν δεν υπάρχουν σφάλματα, θα επιτρέψει στο drone να κάνει την προσφορά σας.

Βίντεο από το YouTube

«Το ChatGPT ξεκλειδώνει ένα νέο παράδειγμα ρομποτικής και επιτρέπει σε έναν (δυνητικά μη τεχνικό) χρήστη να καθίσει στο βρόχο, παρέχοντας ανατροφοδότηση υψηλού επιπέδου στο μοντέλο μεγάλης γλώσσας (LLM) ενώ παρακολουθεί την απόδοση του ρομπότ», εξηγεί η Microsoft. «Ακολουθώντας το σύνολο των αρχών σχεδιασμού μας, το ChatGPT μπορεί να δημιουργήσει κώδικα για σενάρια ρομποτικής».

Με άλλα λόγια, το ίδιο είδος κώδικα που παράγεται από το Github Copilot θα μπορούσε να τροφοδοτηθεί απευθείας σε ένα ρομπότ μέσω του ChatGPT για να το βοηθήσει να ολοκληρώσει μια συγκεκριμένη αποστολή.

Οι Sai Vemprala, Rogerio Bonatti, Arthur Bucker και Ashish Kapoor, από το Microsoft Autonomous Systems and Robots Research Group, περιγράφουν την προσπάθειά τους να κατευθύνουν ρομπότ μέσω ChatGPT στο μια ερευνητική εργασία [PDF] με τίτλο «ChatGPT για Ρομποτική: Αρχές Σχεδιασμού και Ικανότητες Μοντέλων».

Το έργο ορίζει ένα API υψηλού επιπέδου που το ChatGPT μπορεί να κατανοήσει και να το αντιστοιχίσει σε λειτουργίες ρομπότ χαμηλότερου επιπέδου. Στη συνέχεια, έγραψαν προτροπές κειμένου για το ChatGPT που περιγράφουν τους στόχους εργασιών, καθορίζουν τις διαθέσιμες λειτουργίες και ορίζουν περιορισμούς εργασιών.

Στη συνέχεια, το ChatGPT απάντησε δημιουργώντας κώδικα που να ισχύει για τη συσκευή για να επιτύχει οποιονδήποτε στόχο προσομοίωσης είχε τεθεί. Η ιδέα είναι ότι ένα άτομο που συνομιλεί με το ChatGPT μπορεί να δοκιμάσει σφάλματα σε οδηγίες ρομπότ μέχρι να λειτουργήσουν σωστά.

Τα boffins της Microsoft το κάνουν να ακούγεται σαν το ChatGPT να είναι ικανό για «χωροχρονικό συλλογισμό», με βάση την ικανότητά του να ελέγχει ένα ρομπότ με κάμερα, ώστε να μπορεί να χρησιμοποιεί οπτικούς αισθητήρες για να πιάσει μια μπάλα μπάσκετ.

«Βλέπουμε ότι το ChatGPT είναι σε θέση να χρησιμοποιεί κατάλληλα τις παρεχόμενες λειτουργίες API, να αιτιολογεί την εμφάνιση της μπάλας και να καλεί σχετικές συναρτήσεις OpenCV και να δίνει εντολή στην ταχύτητα του ρομπότ με βάση έναν αναλογικό ελεγκτή», εξηγούν στο έγγραφο.

Το σκεπτικό αυτού του είδους – έχοντας κάποιο μοντέλο κοινής λογικής του κόσμου – διευκολύνει πολύ τα ρομπότ να λειτουργούν αποτελεσματικά σε ένα φυσικό περιβάλλον, υποστηρίζεται. Η βιομηχανία αυτόνομων οχημάτων δεν είναι ακόμα εκεί και ούτε το ChatGPT φαίνεται.

Μόλις αυτή την εβδομάδα, ένα ζευγάρι ερευνητών από το Πανεπιστήμιο της Νότιας Καλιφόρνια, Zhisheng Tang και Mayank Kejriwal, κυκλοφόρησαν ένα χαρτί μέσω του ArXiv αμφισβητώντας την ικανότητα των ChatGPT και DALL•E 2 να βγάζουν λογικά συμπεράσματα για τον κόσμο.

Η εργασία, με τίτλο «A Pilot Evaluation of ChatGPT and DALL-E 2 on Decision Making and Spatial Reasoning», καταλήγει στο συμπέρασμα ότι τα δύο μοντέλα έχουν ασυνέπεια.

Όσον αφορά το ChatGPT, διαπίστωσαν ότι, «αν και δείχνει κάποιο επίπεδο ορθολογικής λήψης αποφάσεων, πολλές από τις αποφάσεις του παραβιάζουν τουλάχιστον ένα από τα αξιώματα ακόμη και κάτω από εύλογες κατασκευές προτιμήσεων, στοιχημάτων και προτροπών λήψης αποφάσεων». Και μερικές φορές, είπαν, το ChatGPT παίρνει τη σωστή απόφαση για λάθος λόγους.

Οι boffins της Microsoft αναγνωρίζουν ότι το ChatGPT έχει περιορισμούς και σημειώνουν ότι η έξοδος του μοντέλου δεν πρέπει να εφαρμόζεται σε ένα ρομπότ χωρίς έλεγχο.

«Τονίζουμε ότι σε αυτά τα εργαλεία δεν πρέπει να δοθεί πλήρης έλεγχος του αγωγού ρομποτικής, ειδικά για κρίσιμες για την ασφάλεια εφαρμογές», αναφέρουν στο έγγραφό τους. «Δεδομένης της τάσης των LLM να δημιουργούν τελικά λανθασμένες απαντήσεις, είναι αρκετά σημαντικό να διασφαλιστεί η ποιότητα της λύσης και η ασφάλεια του κώδικα με ανθρώπινη επίβλεψη πριν από την εκτέλεσή του στο ρομπότ». ®

spot_img

Τελευταία Νοημοσύνη

spot_img

Συνομιλία με μας

Γεια σου! Πώς μπορώ να σε βοηθήσω?