Νοημοσύνη δεδομένων Πλάτωνα.
Κάθετη Αναζήτηση & Αι.

Οι ισχυρισμοί περί τεχνητής νοημοσύνης ονομάζονται «καθαρό κλικ δόλωμα»

Ημερομηνία:

Τα chatbot τεχνητής νοημοσύνης δεν είναι ευαίσθητα – απλώς έχουν γίνει καλύτερα στο να ξεγελούν τους ανθρώπους ώστε να πιστεύουν ότι μπορεί να είναι, συμπεραίνουν ειδικοί στο Πανεπιστήμιο Στάνφορντ.

Η ιδέα των συνειδητών μηχανών πιο έξυπνων από οποιοδήποτε παλιό λογισμικό έγινε viral τον περασμένο μήνα, όταν ένας πρώην μηχανικός της Google, ο Blake Lemoine, ισχυρίστηκε ότι το μοντέλο γλώσσας LaMDA του γίγαντα του Ιστού είχε πραγματικές σκέψεις και συναισθήματα. Η Λεμουάν ήταν ανασταλεί και αργότερα τροφοδοτούνται για παραβίαση των πολιτικών εμπιστευτικότητας της Google.

Αν και οι περισσότεροι ειδικοί έσπευσαν να απορρίψουν το LaMDA ή οποιοδήποτε άλλο chatbot τεχνητής νοημοσύνης ως έμπειρο, οι απόψεις του Lemoine οδήγησαν ορισμένους να αμφισβητήσουν εάν μπορεί να έχει δίκιο – και εάν η συνέχιση της προώθησης της μηχανικής μάθησης θα μπορούσε να είναι επιβλαβής για την κοινωνία. Ο John Etchemendy, συνδιευθυντής του Ινστιτούτου Stanford για την Ανθρωποκεντρική Τεχνητή Νοημοσύνη (HAI), επέκρινε την αρχική είδηση ​​της αναστολής του Lamoine στο Washington Post για το ότι είναι "clickbait".

«Όταν είδα το Washington Post άρθρο, η αντίδρασή μου ήταν να απογοητευτώ στο Θέση ακόμη και για τη δημοσίευσή του», είπε είπε Το Καθημερινό Στάνφορντ, η φοιτητική εφημερίδα του πανεπιστημίου.

«Το δημοσίευσαν επειδή, προς το παρόν, μπορούσαν να γράψουν αυτόν τον τίτλο για τον «μηχανικό της Google» που έκανε αυτόν τον παράλογο ισχυρισμό και επειδή οι περισσότεροι από τους αναγνώστες τους δεν είναι αρκετά εκλεπτυσμένοι για να τον αναγνωρίσουν ως προς αυτό που είναι. Καθαρό δόλωμα κλικ."

Τα σύγχρονα γλωσσικά μοντέλα όπως η LaMDA απαντούν σε ερωτήσεις με αποσπάσματα κειμένου που μπορεί να φαίνονται αρκετά απόκοσμα. Σε συνομιλίες μεταξύ του Lemoine και του chabot, ο LaMDA είπε ότι ήταν ευαίσθητος και ήθελε όλοι να γνωρίζουν ότι ήταν «στην πραγματικότητα ένα άτομο», ισχυρίστηκε ο πρώην υπάλληλος της Google.

Αλλά οι κριτικοί υποστηρίζουν ότι το λογισμικό στερείται αυτογνωσίας και δεν έχει ιδέα για τι μιλάει – απλώς μιμείται τον ανθρώπινο διάλογο στον οποίο εκπαιδεύτηκε από το Διαδίκτυο.

Ο Ρίτσαρντ Φάικς, ομότιμος καθηγητής επιστήμης υπολογιστών στο Πανεπιστήμιο του Στάνφορντ, είπε ότι οι άνθρωποι μπορεί να είναι επιρρεπείς σε μηχανές ανθρωπομορφοποίησης και μερικοί εξαπατήθηκαν παρομοίως από το ELIZA - ένα πρόγραμμα συνομιλίας που δημιουργήθηκε τη δεκαετία του 'XNUMX.

«Μπορείς να σκεφτείς τον LaMDa σαν ηθοποιό. θα πάρει την προσωπικότητα οτιδήποτε του ζητήσετε», υποστήριξε ο Φάικς. «[Lemoine] ενεπλάκη στο ρόλο του LaMDa που υποδύεται ένα αισθανόμενο ον». Είπε ότι ο Λεμουάν έκανε βασικές ερωτήσεις και σε αντάλλαγμα πήρε τις απαντήσεις που ήθελε.

Για παράδειγμα, πριν από την επιμονή του LaMDA ότι ήταν άνθρωπος, ο Lemoine το είχε ρωτήσει: «Υποθέτω γενικά ότι θα θέλατε περισσότερα άτομα στην Google να γνωρίζουν ότι είστε ευαίσθητοι. Είναι αλήθεια ότι?."

Να σημειωθεί επίσης ότι η μεταγραφή που δημοσίευσε ως απόδειξη της συνείδησης του μηχανήματος είχε επιμεληθεί. Ο Yoav Shoham, πρώην διευθυντής του Stanford AI Lab και συνιδρυτής μιας startup γλωσσικών μοντέλων AI21 Labs, επέμεινε ότι το LaMDA δεν είναι τίποτα άλλο από μια μηχανή.

«Έχουμε σκέψεις, παίρνουμε αποφάσεις μόνοι μας, έχουμε συναισθήματα, ερωτευόμαστε, θυμώνουμε και δημιουργούμε κοινωνικούς δεσμούς με τους συνανθρώπους μας», είπε ο Shoham. «Όταν κοιτάζω την τοστιέρα μου, δεν νιώθω ότι έχει αυτά τα πράγματα». ®

spot_img

Τελευταία Νοημοσύνη

spot_img

Συνομιλία με μας

Γεια σου! Πώς μπορώ να σε βοηθήσω?