Νοημοσύνη δεδομένων Πλάτωνα.
Κάθετη Αναζήτηση & Αι.

Χρήσιμοι βοηθοί, ρομαντικοί συνεργάτες ή απατεώνες; Μέρος πρώτο » Blog CCC

Ημερομηνία:

Το CCC υποστήριξε τρεις επιστημονικές συνεδρίες στο φετινό Ετήσιο Συνέδριο AAAS και σε περίπτωση που δεν μπορέσατε να παρευρεθείτε αυτοπροσώπως, θα ανακεφαλαιώσουμε κάθε συνεδρία. Αυτή την εβδομάδα, θα συνοψίσουμε τα κυριότερα σημεία των παρουσιάσεων των συμμετεχόντων της συνεδρίας, "Μεγάλα μοντέλα γλωσσών: Χρήσιμοι βοηθοί, ρομαντικοί συνεργάτες ή απατεώνες;” Αυτό το πάνελ, με συντονιστή Δρ Μαρία Γκίνη, Μέλος του Συμβουλίου CCC και καθηγητής Επιστήμης και Μηχανικών Υπολογιστών στο Πανεπιστήμιο της Μινεσότα, παρουσιαζόταν Δρ Ece Kamar, Διευθύνων Σύμβουλος της AI Frontiers στη Microsoft Research, Dr. Hal Daumé III, καθηγητής Επιστήμης Υπολογιστών στο Πανεπιστήμιο του Μέριλαντ και Ο Δρ Τζόναθαν Μέι, καθηγητής Επιστήμης Υπολογιστών στο Ινστιτούτο Πληροφοριακών Επιστημών του Πανεπιστημίου της Νότιας Καλιφόρνια.

Τα μεγάλα γλωσσικά μοντέλα βρίσκονται στην πρώτη γραμμή των συζητήσεων στην κοινωνία σήμερα, και η κριτική επιτροπή είναι έξω αν ανταποκρίνεται στη διαφημιστική εκστρατεία που τα περιβάλλει. Οι συμμετέχοντες σε αυτή τη συνεδρία AAAS ασχολήθηκαν με τις δυνατότητες, τις προκλήσεις και τις δυνατότητες των LLMs.

Η πρώτη ομάδα ήταν η Δρ. Ece Kamar (Microsoft Research). Περιέγραψε την τρέχουσα κατάσταση της τεχνητής νοημοσύνης ως «Μετάβαση φάσης». Παρείχε μια μοναδική προοπτική ως κάποιος που έχει δει τις αλλαγές στην τεχνητή νοημοσύνη στη βιομηχανία και την εκθετική ανάπτυξη των μοντέλων βαθιάς μάθησης που πολύ λίγοι άνθρωποι περίμεναν ότι θα συνεχίζονταν το 2024.

Η ανάπτυξη προκλήθηκε από την αύξηση του όγκου των δεδομένων στα οποία εκπαιδεύονται τα LLM και τη μεγαλύτερη αρχιτεκτονική που ονομάζεται μετασχηματιστές. Μια ενδιαφέρουσα εικόνα που μοιράστηκε ο Δρ. Kamar στο γράφημα είναι ότι τα μοντέλα κλιμακώνονται τόσο γρήγορα επειδή αρχικά απλώς είχαν εκπαιδευτεί για μια συγκεκριμένη εργασία. μια εργασία που θα μπορούσαν να εκτελέσουν αξιόπιστα. Το ChatGPT έδειξε ότι εάν κλιμακωθείτε αρκετά, συμπεριλαμβανομένου του αριθμού των παραμέτρων που λαμβάνει υπόψη ένα μοντέλο, τα μοντέλα θα μπορούσαν να ξεκινήσουν να ολοκληρώνουν εργασίες με παρόμοια απόδοση ενός μοντέλου που είχε εκπαιδευτεί να ολοκληρώνει συγκεκριμένα τις ίδιες εργασίες.

Αυτός είναι ο ορισμός της μετάβασης φάσης LLM: τα μοντέλα δεν χρειάζεται πλέον να εκπαιδεύονται ειδικά για μια συγκεκριμένη εργασία, αλλά μπορούν γενικά να εκπαιδευτούν και στη συνέχεια να εκτελέσουν πολλές εργασίες. Και δεν υπάρχουν ενδείξεις ότι η ανάπτυξη αυτών των δυνατοτήτων επιβραδύνεται.

Η Δρ. Kamar είχε πρώιμη πρόσβαση στο GPT-4 και κατά τη διάρκεια του εκτεταμένου χρόνου που το δοκίμαζε, εντυπωσιάστηκε από τις σημαντικές βελτιώσεις του που συνόδευαν την κλίμακα και τα δεδομένα, και το γεγονός ότι μπορούσε να εκτελεί ταυτόχρονα διαφορετικές εργασίες.

Τι επιφυλάσσει το μέλλον για αυτά τα LLM; Ο Δρ. Kamar αναμένει ότι τα LLM θα υπερβούν την ανθρώπινη γλώσσα, θα μάθουν τη γλώσσα της μηχανής και θα μπορούν να μεταφράζουν μεταξύ των δύο γλωσσών. Αυτό θα ενίσχυε τις δυνατότητες των τροπολογιών στην είσοδο και την έξοδο, γεγονός που θα μπορούσε να οδηγήσει σε μοντέλα να μπορούν όχι μόνο να παράγουν γλώσσα, αλλά ενέργειες και προβλέψεις στις συμπεριφορές.

Στη συνέχεια, ο Δρ. Kamar επεκτάθηκε στη σημαντική μετάβαση φάσης που συμβαίνει στους υπολογιστές. Τα συστήματα αναπτύσσονται πολύ διαφορετικά σήμερα, και αυτή η εξέλιξη θα απαιτήσει τη δημιουργία ενός νέου υπολογιστικού παραδείγματος, του οποίου έχουμε μόνο γρατσουνίσει την επιφάνεια αυτή τη στιγμή. Ο τρόπος με τον οποίο αλληλεπιδρούμε με τους υπολογιστές θα είναι πολύ διαφορετικός τα επόμενα χρόνια και αυτό θα απαιτήσει επανεξέταση της αλληλεπίδρασης ανθρώπου-υπολογιστή (HCI).

Μια άλλη αλλαγή είναι ο τρόπος με τον οποίο οι άνθρωποι θα εργαστούν προχωρώντας. Η Microsoft έχει διεξαγάγει μελέτες ότι η παραγωγικότητα των εργαζομένων μπορεί να διπλασιαστεί από την άποψη των γραμμών κώδικα που γράφονται με τη βοήθεια της τεχνητής νοημοσύνης. Αυτό είναι ένα απίστευτο κατόρθωμα, αλλά ο τρόπος που λειτουργεί αυτή η τεχνολογία και από πού προέρχεται η ευφυΐα της είναι σε μεγάλο βαθμό άγνωστος, επομένως υπάρχουν πολλά ερευνητικά ερωτήματα σε αυτόν τον τομέα.

Υπάρχουν επίσης πολλές ερωτήσεις σχετικά με την πιθανή κακή χρήση LLM όπως αυτές. Υπάρχουν ανησυχίες σχετικά με τη δικαιοσύνη, διαφορετικούς δημογραφικούς κινδύνους και άλλες ακόμη πιο δραστικές συνέπειες. Ενώ υπάρχει μεγάλη δυνατότητα για επιστημονική ανακάλυψη, υπάρχει επίσης μεγάλη πιθανότητα για βλάβη. Για παράδειγμα, να πείσεις τους γονείς να μην εμβολιάσουν τα παιδιά τους, ένα παιδί να κάνει κάτι κακό ή να πείσεις κάποιον ότι ο κόσμος είναι ίσιος. Έχουν καταβληθεί πολλές προσπάθειες για την ασφάλεια για την ανάπτυξη LLM και η ανοιχτή προμήθεια μπορεί να είναι πολύ χρήσιμη για να σημειωθεί πρόοδος και σε αυτόν τον τομέα.  

Στη συνέχεια ο Δρ Kamar έθεσε ερωτήσεις στην επιστημονική κοινότητα:

  • Πώς θα αλλάξει η επιστήμη με τη διακοπή της τεχνητής νοημοσύνης;
  • Λαμβάνουμε μέτρα για να μεταμορφώσουμε τον τρόπο με τον οποίο εκπαιδεύουμε και εκπαιδεύουμε την επόμενη γενιά;
  • Κατασκευάζετε τεχνολογική υποδομή για να επωφεληθείτε από αυτή τη φάση μετάβασης;
  • Προετοιμάζουμε τις μελλοντικές γενιές για τον νέο κόσμο;

Τέλος, ο Δρ. Kamar τόνισε ότι μία από τις βασικές πτυχές της μετάβασης φάσης που είναι αξιοσημείωτη είναι η ταχύτητα με την οποία αναπτύσσονται τα LLM. Αυτά τα μοντέλα βελτιώνονται σημαντικά σε πολύ σύντομο χρονικό διάστημα και οι ερευνητές υπολογιστών έχουν πολλά να καλύψουν τη διαφορά.

Ο δεύτερος ομιλητής, ο Δρ. Hal Daumé III (Πανεπιστήμιο του Maryland), ξεκίνησε την ομιλία του εξηγώντας ότι πρέπει να αναπτυχθούν μοντέλα τεχνητής νοημοσύνης για να βοηθήσουν τους ανθρώπους να κάνουν τα πράγματα που θέλουν να κάνουν. αυξάνει την ανθρώπινη εργασία, όχι αυτοματοποίηση. Αυτό το όραμα του αυτοματισμού έχει διαποτίσει την κοινωνία από τη δεκαετία του '60. Αντί να βοηθούν τους ανθρώπους να παίζουν σκάκι καλύτερα, οι επιστήμονες σχεδίασαν ένα σύστημα που παίζει σκάκι μόνο του.

Αυτή η φιλοσοφία δεν πάει πουθενά. Η τεχνητή νοημοσύνη σήμερα εξακολουθεί να είναι αξιοσημείωτη όταν είναι αρκετά έξυπνη για να κάνει μια εργασία μόνη της. Αυτό είναι βαθιά στο αίμα της AI. Πριν ξοδέψουμε χρόνο και χρήμα για την αυτοματοποίηση ενός συστήματος, θα πρέπει πρώτα να κάνουμε μια παύση και να ρωτήσουμε είναι αυτό προς το συμφέρον μας;

Ο Δρ Daumé ώθησε την έννοια της αύξησης: πώς μπορεί να χρησιμοποιηθεί η τεχνητή νοημοσύνη ως εργαλείο; Συστήματα όπως το Github copilot αυξάνουν την παραγωγικότητα, αλλά η αύξηση της παραγωγικότητας δεν αρκεί. Ένας χρήστης του συστήματος αναφώνησε ότι του επέτρεψε να επικεντρωθούν σε μέρη της κωδικοποίησης που ήταν διασκεδαστικά, κάτι που συνάδει πολύ περισσότερο με τον τρόπο κατασκευής του AI.

Οι ερευνητές της τεχνητής νοημοσύνης δεν θα πρέπει να θέλουν να αφαιρέσουν τα μέρη της δουλειάς ενός ατόμου που είναι διασκεδαστικά. θα πρέπει να δώσουν προτεραιότητα στην άρση της αγγαρείας. Θα πρέπει να βελτιώσει τις ανθρώπινες ζωές και όχι απλώς να βελτιώσει το τελικό αποτέλεσμα για μια εταιρεία.

Ο Δρ. Daumé συνέγραψε μια εργασία που έθιξε αυτά τα σημεία και προέκυψε το αντεπιχείρημα ότι από τεχνική άποψη, η κατασκευή συστημάτων που χρησιμοποιούν ειδικά την τεχνολογία μηχανικής μάθησης είναι συχνά πολύ πιο εύκολο να αυτοματοποιηθεί παρά να επαυξηθεί. Αυτό συμβαίνει επειδή τα δεδομένα που είναι απαραίτητα για την εκπαίδευση ενός συστήματος που θα εκπαιδεύσει ένα σύστημα είναι εύκολο να βρεθούν. Παρέχουμε αυτές τις πληροφορίες κάνοντας τη δουλειά μας και είναι εύκολο να εκπαιδεύσουμε την ML ώστε να μιμείται την ανθρώπινη συμπεριφορά. Είναι πολύ πιο δύσκολο να διδάξεις ένα σύστημα για να βοηθήσει κάποιον να ολοκληρώσει μια εργασία. Αυτές οι πληροφορίες είναι διάσπαρτες μεταξύ βιβλιογραφικών ανασκοπήσεων από NSF, γραφής σε ένα κομμάτι χαρτί από προγραμματιστή κ.λπ. Τα δεδομένα που είναι απαραίτητα για να βοηθήσουν έναν άνθρωπο να κάνει εργασίες δεν καταγράφονται.

Μια άλλη βασική πτυχή της δημιουργίας χρήσιμων συστημάτων είναι να ρωτήσετε τον χρήστη ποια συστήματα θα ήταν χρήσιμα για τη ζωή του. Για παράδειγμα, οι ανάγκες των τυφλών είναι πολύ διαφορετικές από τις ανάγκες των ατόμων με όραση (οι οποίες είναι επίσης διαφορετικές από τις ανάγκες των ατόμων με όραση νομίζω οι ανάγκες των τυφλών είναι). Ένα παράδειγμα που μοιράστηκε ο Δρ Daumé ήταν ότι ένα οπτικό σύστημα μπορεί να αποκαλύψει ότι ένα αντικείμενο είναι ένα κουτί αναψυκτικού, αλλά ένας τυφλός μπορεί συνήθως να το πει μόνος του. Τα συστατικά της σόδας θα τους ήταν πολύ πιο χρήσιμα. Υπάρχει ένα τεράστιο χάσμα μεταξύ της ποιότητας των απαντήσεων ενός συστήματος στην απλή κατανόηση ερωτήσεων και στην αντιμετώπιση ερωτημάτων προσβασιμότητας, και αυτό το χάσμα διευρύνεται.

Ένα πρόσθετο παράδειγμα της σημασίας του πρώτου προσδιορισμού των αναγκών της κοινότητας πριν από τη δημιουργία τεχνολογίας που θα τις «βοηθήσει» είναι η μετριοπάθεια περιεχομένου. Πολλοί εθελοντές συντονιστές περιεχομένου συμμετέχουν στην εργασία επειδή θέλουν να κάνουν τον κόσμο καλύτερο και να βοηθήσουν στη δημιουργία μιας κοινότητας που πιστεύουν ότι είναι σημαντική. Όταν τους ρωτούν τι είδους εργαλείο θέλουν να βοηθήσουν τον ρόλο τους, συχνά δεν θέλουν η δουλειά τους να είναι πλήρως αυτοματοποιημένη, θέλουν απλώς βαρετά μέρη όπως η αναζήτηση ιστορικού συνομιλιών να είναι ευκολότερα.

Ο Δρ Daumé ολοκληρώνει αυτή τη συζήτηση με ένα τελευταίο παράδειγμα της μαμάς του που αγαπά τα αυτοκίνητα που αγαπά τα αυτοκίνητα και αρνείται να οδηγεί αυτόματα αυτοκίνητα. Επιλέγει χειροκίνητο κιβώτιο ταχυτήτων και είναι πολύ σημαντικό για αυτήν να έχει αυτή την επιλογή. Οι άνθρωποι θα πρέπει να έχουν τον έλεγχο του εάν θέλουν οι εργασίες τους να είναι αυτοματοποιημένες ή όχι.

Ο Δρ Daumé συνεχίζει τη συζήτηση προσφέροντας εναλλακτικές λύσεις στις τρέχουσες προσεγγίσεις στην τεχνολογία προσβασιμότητας. Για παράδειγμα, όταν δημιουργείτε ένα εργαλείο για την αναγνώριση της νοηματικής γλώσσας, αντί να σκουπίζετε το Διαδίκτυο για βίντεο με άτομα που υπογράφουν (το οποίο έχει πολλές ανησυχίες για τη συγκατάθεση και το απόρρητο, καθώς τα περισσότερα από αυτά τα βίντεο είναι επαγγελματιών και χωρίς θόρυβο/περισπασμούς από το περιβάλλον, κάτι που δεν είναι t ρεαλιστικά), απευθυνθείτε στην κοινότητα και ξεκινήστε ένα έργο που τους δίνει τη δυνατότητα να υποβάλλουν βίντεο για να εκπαιδεύσουν τα εργαλεία. Οι στρατηγικές που προέρχονται από την κοινότητα όπως αυτές είναι πιο ηθικές και υπεύθυνες και παρέχουν στους χρήστες περισσότερο έλεγχο. 

Τα LLM και άλλα εργαλεία θα πρέπει να αναπτυχθούν για να δοθεί προτεραιότητα στη χρησιμότητα και όχι στην ευφυΐα, καταλήγει ο Δρ Daumé. Όσο πιο χρήσιμο είναι, τόσο περισσότερο μπορεί να βοηθήσει τους ανθρώπους να κάνουν κάτι που δεν μπορούν ή δεν θέλουν να κάνουν, αντί να αυτοματοποιήσει κάτι που οι άνθρωποι ήδη κάνουν καλά και απολαμβάνουν.

Ο Δρ Τζόναθαν Μέι (Ινστιτούτο Πληροφοριακών Επιστημών του Πανεπιστημίου της Νότιας Καλιφόρνια) ήταν ο επόμενος ομιλητής και ξεκίνησε την ομιλία του στοχαζόμενος το θέμα του συνεδρίου: «Προς Επιστήμη Χωρίς Τείχη». Υποστηρίζει ότι ενώ η πρόσφατη ανάπτυξη LLM καταρρίπτει τους τοίχους για μερικούς ανθρώπους, χτίζει τοίχους για πολλούς.

Αρχικά συζητά πώς το Διαδίκτυο μείωσε πολλά εμπόδια για τη διεξαγωγή έρευνας. όταν ήταν 17 αναρωτήθηκε γιατί ο Πόλεμος των Άστρων και ο Άρχοντας των Δαχτυλιδιών είχαν πολύ παρόμοιες πλοκές και έπρεπε να πάει στη βιβλιοθήκη και να βρει ένα βιβλίο με την απάντηση. Έκανε υψηλού επιπέδου, αλλά εξίσου επίπονη έρευνα για τη διδακτορική του διατριβή, αλλά στο τέλος του χρόνου των σπουδών του δημιουργήθηκε μια σελίδα στη Wikipedia σχετικά με το θέμα, και στη συνέχεια η αναζήτηση στο Διαδίκτυο, και τώρα η έρευνα χωρίς αυτοκίνητο είναι ο κανόνας.

Ο Δρ Μέι συνέχισε λέγοντας ότι ένιωθε προνομιούχος που ήταν στο δημογραφικό κοινό για το κοινό-στόχο των LLM. Δεν κωδικοποιεί συχνά και δεν έμαθε ποτέ πολλές δεξιότητες κωδικοποίησης, αλλά όταν το χρειάζεται για τη δουλειά του μπορεί να ρωτήσει το ChatGPT και κάνει εξαιρετική δουλειά. 

Ωστόσο, υπάρχουν πολλά τείχη για να γίνει ευρέως διαδεδομένη η χρησιμότητα των LLM:

  • Γλωσσικοί τοίχοι: Τα μοντέλα λειτουργούν καλύτερα όσο περισσότερα δεδομένα εκπαιδεύονται. Ενώ τα σημερινά εμπορικά LLM είναι πολύγλωσσα, έχουν μεγάλη βαρύτητα στα αγγλικά. Για παράδειγμα, το ChatGPT εκπαιδεύεται στην αγγλική γλώσσα κατά 92%. Επιπλέον, τα δεδομένα οδηγιών, που είναι η «μυστική σάλτσα» των LLMs, είναι στη μεγάλη πλειονότητά τους αγγλικά (96% των ChatGPT για παράδειγμα). Υπάρχουν επί του παρόντος πολύ λίγες προσπάθειες για τη βελτίωση της διαγλωσσικής απόδοσης αυτών των μοντέλων παρά τα συστημικά κενά απόδοσης στις υπάρχουσες δοκιμές, κάτι που είναι λογικό λόγω της γενικής συναίνεσης ότι η μηχανική μετάφραση (ΜΤ) έχει «λυθεί» και οι προσπάθειες πρέπει να επικεντρωθούν σε άλλες εργασίες.
  • Τείχη ταυτότητας: Αν ρωτήσετε το ChatGPT τι πρέπει να κάνετε τα Χριστούγεννα, εστιάζει σε διάφορες δραστηριότητες και παραδόσεις στις οποίες μπορείτε να συμμετάσχετε. δεν αναφέρει ότι θα μπορούσατε να πάτε στη δουλειά. Οι LLMs έχουν αποδειχθεί ότι συμπεριφέρονται διαφορετικά όταν περιγράφουν διαφορετικές δημογραφικές ομάδες, εκφράζοντας περισσότερο αρνητικό συναίσθημα και ακόμη και καθαρή τοξικότητα σε ορισμένες περιπτώσεις. Υπάρχουν πιθανότητες στερεοτυπικών προτάσεων που μπορούν να προκαλέσουν βλάβη σε κοινότητες όπως η LGBTQ+ ή η Εβραϊκή. Σε γενικές γραμμές υπάρχει μεγάλη προκατάληψη και αυτό έχει συνέπειες στην αναπτυγμένη λήψη αποφάσεων. Υπάρχουν ορισμένες διασφαλίσεις ενσωματωμένες και πιο σαφείς ερωτήσεις διερεύνησης είναι λιγότερο πιθανό να λάβουν τοξικές απαντήσεις, αλλά τα μοντέλα προτιμούν πιθανώς στερεότυπες δηλώσεις και αποτελέσματα, και εκεί υπάρχουν βλάβες, ειδικά όταν χρησιμοποιούνται μοντέλα σε κατάντη δυνατότητες όπου δεν βλέπετε παραγωγή (δηλαδή επιλεξιμότητα δανείου). Έδωσε ένα παράδειγμα LLM που δείχνουν μεροληψία όταν δημιουργούν πρόσωπα ατόμων με βάση τη δουλειά τους. Οι χαμηλότερα αμειβόμενες θέσεις εργασίας εμφανίζονται ως γυναίκες και μειονότητες, ενώ οι υψηλότερα αμειβόμενες θέσεις εργασίας είναι λευκοί άνδρες.
  • Περιβαλλοντικοί τοίχοι (λογισμικό): Τα LLM απαιτούν σημαντική ποσότητα ενέργειας για την παραγωγή και τη λειτουργία τους. Ακόμη και τα πιο «μέτρια» LM καταναλώνουν 3 φορές περισσότερη ετήσια ενέργεια από τη χρήση ενός μεμονωμένου ατόμου. Υπάρχει επίσης ένα σημαντικό κενό στα δεδομένα για τα μεγαλύτερα μοντέλα γλώσσας όπως το ChatGPT, αλλά οι εταιρείες που τα κατέχουν αρνούνται ρητά την πρόσβαση στην κατανάλωση ενέργειας.
  • Περιβαλλοντικοί τοίχοι (υλισμικό): Για να παράγετε τσιπ, που απαιτούν όλα τα LLM, χρειάζεστε «υλικά σύγκρουσης» όπως το ταντάλιο (εξορύσσεται στο Κονγκό) και το άφνιο (εξορύσσεται στη Σενεγάλη και τη Ρωσία). Στις ΗΠΑ, οι εταιρείες υποτίθεται ότι αναφέρουν την ποσότητα των ορυκτών σύγκρουσης που χρησιμοποιούν, αλλά οι ΗΠΑ δείχνουν δημόσια μείωση στη χρήση αυτών των υλικών, κάτι που δεν μπορεί να είναι αλήθεια. Πέρα από αυτό, υπάρχουν πολλά κοινωνικοπολιτικά προβλήματα όπως η Κίνα που περιορίζει το γερμάνιο και το γάλλιο ως αντίποινα στους περιορισμούς των εξαγωγών των ΗΠΑ.

Ο Δρ Μέι εκφράζει ότι αυτές οι κατηγορίες αποκαλύπτουν μερικά από τα πολλά ζητήματα κατάντη για βλάβη που προκαλείται από LLM και περιπτώσεις όπου οι άνθρωποι δεν ωφελούνται. Υπάρχει λόγος ανησυχίας, αλλά υπάρχουν επίσης ευκαιρίες για έρευνα ή/και αλλαγές συμπεριφοράς που θα μετριάσουν ορισμένες από αυτές τις βλάβες:

  • Γλώσσα: Αφιερώστε περισσότερη χρηματοδότηση έρευνας στην πολυγλωσσία (όχι μόνο ηγεμονική μετάφραση από και προς τα αγγλικά).
  • Ταυτότητα: Έρευνα από κάτω προς τα πάνω και χωρίς αποκλεισμούς στην κοινότητα. Τροποποίηση μοντέλου και δοκιμή πριν από την ανάπτυξη
  • Περιβάλλον: Ανάπτυξη αλγορίθμου που χρησιμοποιεί λιγότερα δεδομένα και μεταβάλλει λιγότερες παραμέτρους (π.χ. LoRA, προσαρμογείς, μη RL PO). Να είστε ευσυνείδητοι όσον αφορά τους υπολογισμούς και να επιμείνετε στη διαφάνεια σε ρυθμιστικά επίπεδα 

Ο Δρ. Μέι ολοκλήρωσε το πάνελ επαναλαμβάνοντας την άποψη του Δρ. Daumé ότι οι άνθρωποι πρέπει να ωφελούνται με τον τρόπο που θέλουν να ωφελούνται όταν αλληλεπιδρούν με LLMs, και αυτό πρέπει να είναι στο επίκεντρο στο στάδιο της ανάπτυξης.

Σας ευχαριστούμε πολύ που διαβάσατε και συντονιστείτε αύριο για να διαβάσετε την ανακεφαλαίωση του τμήματος Q&A της συνεδρίας.

spot_img

Τελευταία Νοημοσύνη

spot_img

Συνομιλία με μας

Γεια σου! Πώς μπορώ να σε βοηθήσω?