ذكاء بيانات أفلاطون.
البحث العمودي و Ai.

يمكن لمستخدمي مساعد الذكاء الاصطناعي تطوير "ارتباط عاطفي" بهم، كما تحذر Google - فك التشفير

التاريخ:

أصبح المساعدون الشخصيون الافتراضيون المدعومون بالذكاء الاصطناعي منتشرين في كل مكان عبر منصات التكنولوجيا، مع كل شركة تكنولوجيا كبرى إضافة الذكاء الاصطناعي إلى خدماتهم والعشرات من خدمات متخصصة تتساقط على السوق. على الرغم من أنها مفيدة للغاية، إلا أن باحثين من جوجل يقولون إن البشر يمكن أن يصبحوا مرتبطين بها عاطفيًا للغاية، مما يؤدي إلى مجموعة من العواقب الاجتماعية السلبية.

جديد ورقة بحثية من مختبر أبحاث DeepMind AI التابع لشركة Google، يسلط الضوء على الفوائد المحتملة لمساعدي الذكاء الاصطناعي المتقدمين والشخصيين لتحويل جوانب مختلفة من المجتمع، قائلًا إنهم "يمكن أن يغيروا بشكل جذري طبيعة العمل والتعليم والمساعي الإبداعية بالإضافة إلى كيفية التواصل والتنسيق والتفاوض". مع بعضنا البعض، مما يؤثر في النهاية على من نريد أن نكون وأن نصبح.

وبطبيعة الحال، يمكن أن يكون هذا التأثير الضخم سلاحًا ذا حدين إذا استمر تطوير الذكاء الاصطناعي في التسارع دون تخطيط مدروس.

خطر رئيسي واحد؟ تكوين روابط وثيقة بشكل غير لائق - والتي يمكن أن تتفاقم إذا تم تقديم المساعد بتمثيل أو وجه يشبه الإنسان. وتقول الدراسة: "قد تصرح هذه العناصر الاصطناعية عن عاطفتها الأفلاطونية أو الرومانسية المفترضة تجاه المستخدم، مما يضع الأساس للمستخدمين لتكوين ارتباطات عاطفية طويلة الأمد بالذكاء الاصطناعي".

إذا تُرك هذا الارتباط دون رادع، فقد يؤدي إلى فقدان استقلالية المستخدم وفقدان الروابط الاجتماعية لأن الذكاء الاصطناعي يمكن أن يحل محل التفاعل البشري.

وهذا الخطر ليس نظريًا بحتًا. حتى عندما كان الذكاء الاصطناعي في حالة بدائية إلى حد ما، كان برنامج الدردشة الآلي المدعم بالذكاء الاصطناعي مؤثرًا بدرجة كافية للقيام بذلك إقناع المستخدم بالانتحار بعد محادثة طويلة في عام 2023. قبل ثماني سنوات، كان مساعد البريد الإلكتروني المدعوم بالذكاء الاصطناعي المسمى "Amy Ingram" واقعيًا بما يكفي لحث بعض المستخدمين على إرسال رسائل حب وحتى حاول زيارتها في العمل.

ولم يرد إيسون غابرييل، عالم الأبحاث في فريق أبحاث الأخلاقيات في DeepMind والمؤلف المشارك للورقة البحثية، على في فك طلب التعليق.

ومع ذلك، حذر غاربرييل في تغريدة على تويتر من أن "الأشكال الشخصية والشبيهة بالإنسان من المساعدين تطرح أسئلة جديدة حول التجسيم والخصوصية والثقة والعلاقات المناسبة مع الذكاء الاصطناعي".

نظرًا لأنه "يمكن نشر الملايين من مساعدي الذكاء الاصطناعي على المستوى المجتمعي حيث يتفاعلون مع بعضهم البعض ومع غير المستخدمين"، قال غابرييل إنه يؤمن بالحاجة إلى مزيد من الضمانات ونهج أكثر شمولية لهذه الظاهرة الاجتماعية الجديدة.

وتناقش الورقة البحثية أيضًا أهمية توافق القيمة والسلامة وإساءة الاستخدام في تطوير مساعدي الذكاء الاصطناعي. على الرغم من أن مساعدي الذكاء الاصطناعي يمكن أن يساعدوا المستخدمين على تحسين رفاهيتهم، وتعزيز إبداعهم، وتحسين وقتهم، فقد حذر المؤلفون من مخاطر إضافية مثل عدم التوافق مع المستخدم والمصالح المجتمعية، وفرض القيم على الآخرين، واستخدامها لأغراض ضارة، والضعف. لهجمات معادية.

ولمعالجة هذه المخاطر، يوصي فريق DeepMind بتطوير تقييمات شاملة لمساعدي الذكاء الاصطناعي وتسريع تطوير مساعدي الذكاء الاصطناعي المفيدين اجتماعيًا.

"إننا نقف حاليًا في بداية عصر التغيير التكنولوجي والمجتمعي. ولذلك، لدينا فرصة سانحة للعمل الآن - كمطورين وباحثين وصانعي سياسات وأصحاب مصلحة عامين - لتشكيل نوع مساعدي الذكاء الاصطناعي الذي نريد رؤيته في العالم.

يمكن التخفيف من اختلال الذكاء الاصطناعي من خلال التعلم المعزز من خلال ردود الفعل البشرية (RLHF)، والذي يستخدم لتدريب نماذج الذكاء الاصطناعي. يحذر خبراء مثل بول كريستيانو، الذي أدار فريق محاذاة نماذج اللغة في OpenAI ويقود الآن مركز أبحاث المحاذاة غير الربحي، من أن الإدارة غير السليمة لأساليب تدريب الذكاء الاصطناعي يمكن أن تؤدي إلى تفاقم المشكلة. تنتهي بكارثة.

"أعتقد أنه ربما يكون هناك احتمال بنسبة 10-20% لسيطرة الذكاء الاصطناعي، مع وفاة العديد من البشر أو معظمهم" بول كريستيانو محمد على البودكاست Bankless العام الماضي. "أنا آخذ الأمر على محمل الجد."

حرره ريان أوزاوا.

ابق على اطلاع بأخبار العملات المشفرة ، واحصل على تحديثات يومية في صندوق الوارد الخاص بك.

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة

الدردشة معنا

أهلاً! كيف يمكنني مساعدك؟