Kecerdasan Data Plato.
Pencarian Vertikal & Ai.

Pengguna Asisten AI Dapat Mengembangkan 'Keterikatan Emosional' dengan Mereka, Google Memperingatkan – Dekripsi

Tanggal:

Asisten pribadi virtual yang didukung oleh kecerdasan buatan kini ada di mana-mana di seluruh platform teknologi, di setiap perusahaan teknologi besar menambahkan AI untuk layanan mereka dan lusinan layanan khusus jatuh ke pasar. Meskipun sangat berguna, para peneliti dari Google mengatakan manusia bisa menjadi terlalu terikat secara emosional dengan mereka, sehingga menimbulkan sejumlah konsekuensi sosial yang negatif.

Sebuah baru telaahan dari laboratorium penelitian AI DeepMind Google menyoroti manfaat potensial dari asisten AI yang canggih dan dipersonalisasi untuk mentransformasi berbagai aspek masyarakat, dengan mengatakan bahwa asisten tersebut “dapat secara radikal mengubah sifat pekerjaan, pendidikan, dan upaya kreatif serta cara kita berkomunikasi, berkoordinasi, dan bernegosiasi. satu sama lain, yang pada akhirnya memengaruhi ingin menjadi dan menjadi siapa kita.”

Dampak yang sangat besar ini, tentu saja, bisa menjadi pedang bermata dua jika pengembangan AI terus melaju tanpa perencanaan yang matang.

Satu risiko utama? Pembentukan ikatan erat yang tidak tepat—yang dapat diperburuk jika asisten dihadirkan dengan representasi atau wajah yang mirip manusia. “Agen-agen buatan ini bahkan mungkin menunjukkan kasih sayang mereka yang bersifat platonis atau romantis terhadap pengguna, sehingga meletakkan dasar bagi pengguna untuk membentuk keterikatan emosional jangka panjang dengan AI,” kata surat kabar tersebut.

Jika tidak dikendalikan, keterikatan seperti itu dapat mengakibatkan hilangnya otonomi pengguna dan hilangnya ikatan sosial karena AI dapat menggantikan interaksi manusia.

Risiko ini tidak sepenuhnya bersifat teoritis. Bahkan ketika AI masih dalam keadaan primitif, chatbot AI cukup berpengaruh meyakinkan pengguna untuk bunuh diri setelah obrolan panjang di tahun 2023. Delapan tahun lalu, asisten email bertenaga AI bernama “Amy Ingram” cukup realistis untuk mendorong beberapa pengguna mengirim catatan cinta dan bahkan mencoba mengunjunginya di tempat kerja.

Iason Gabriel, seorang ilmuwan peneliti di tim peneliti etika DeepMind dan salah satu penulis makalah tersebut, tidak menanggapi Dekripsi meminta komentar.

Namun dalam sebuah tweet, Garbriel memperingatkan bahwa “semakin banyak bentuk asisten yang bersifat pribadi dan mirip manusia menimbulkan pertanyaan baru seputar antropomorfisme, privasi, kepercayaan, dan hubungan yang sesuai dengan AI.”

Karena “jutaan asisten AI dapat dikerahkan di tingkat masyarakat di mana mereka akan berinteraksi satu sama lain dan dengan non-pengguna,” Gabriel mengatakan ia yakin akan perlunya lebih banyak perlindungan dan pendekatan yang lebih holistik terhadap fenomena sosial baru ini.

Makalah penelitian ini juga membahas pentingnya penyelarasan nilai, keamanan, dan penyalahgunaan dalam pengembangan asisten AI. Meskipun asisten AI dapat membantu pengguna meningkatkan kesejahteraan mereka, meningkatkan kreativitas mereka, dan mengoptimalkan waktu mereka, penulis memperingatkan risiko tambahan seperti ketidakselarasan dengan kepentingan pengguna dan masyarakat, pemaksaan nilai pada orang lain, penggunaan untuk tujuan jahat, dan kerentanan. terhadap serangan musuh.

Untuk mengatasi risiko ini, tim DeepMind merekomendasikan pengembangan penilaian komprehensif untuk asisten AI dan mempercepat pengembangan asisten AI yang bermanfaat secara sosial.

“Saat ini kita berada di awal era perubahan teknologi dan masyarakat. Oleh karena itu, kita mempunyai peluang untuk bertindak sekarang—sebagai pengembang, peneliti, pembuat kebijakan, dan pemangku kepentingan publik—untuk membentuk asisten AI yang ingin kita wujudkan di dunia.”

Ketidakselarasan AI dapat dikurangi melalui Reinforcement Learning Through Human Feedback (RLHF), yang digunakan untuk melatih model AI. Para ahli seperti Paul Christiano, yang menjalankan tim penyelarasan model bahasa di OpenAI dan sekarang memimpin lembaga nirlaba Alignment Research Center, memperingatkan bahwa pengelolaan metode pelatihan AI yang tidak tepat dapat berakhir dengan bencana.

“Saya pikir mungkin ada kemungkinan 10-20% pengambilalihan AI, [dengan] banyak [atau] sebagian besar manusia mati,” Paul Christiano tersebut di podcast Bankless tahun lalu. “Saya menganggapnya cukup serius.”

Diedit oleh Ryan Ozawa.

Tetap di atas berita crypto, dapatkan pembaruan harian di kotak masuk Anda.

tempat_img

Intelijen Terbaru

tempat_img

Hubungi kami

Hai, yang di sana! Apa yang bisa saya bantu?