هوش داده افلاطون
جستجوی عمودی و هوش مصنوعی

این ربات زمانی را پیش‌بینی می‌کند که شما چه زمانی بخندید - سپس درست روی کیو لبخند می‌زند

تاریخ:

کلوپ های کمدی تفریحات آخر هفته مورد علاقه من هستند. دوستان خود را جمع کنید، چند نوشیدنی بنوشید، و هنگامی که یک شوخی برای همه ما رخ می دهد - لحظه ای جادویی وجود دارد که چشمان ما به هم می رسند، و ما یک پوزخند گستاخانه به اشتراک می گذاریم.

لبخند زدن می تواند غریبه ها را به عزیزترین دوستان تبدیل کند. تحریک می کند ملاقات - ناز هالیوود نقشه می کشد، روابط شکسته را ترمیم می کند و به طور جدایی ناپذیری با احساسات مبهم و گرم شادی مرتبط است.

حداقل برای مردم. برای روبات‌ها، تلاش‌هایشان برای لبخندهای واقعی اغلب به دره‌ای عجیب می‌افتد - به اندازه‌ای نزدیک که شبیه انسان باشد، اما باعث ناراحتی می‌شود. به طور منطقی، شما می دانید که آنها در حال انجام چه کاری هستند. اما احساسات درونی به شما می گوید که چیزی درست نیست.

ممکن است به دلیل زمان بندی باشد. ربات ها طوری آموزش می بینند که حالت صورت لبخند را تقلید کنند. اما آنها نمی دانند چه زمانی باید پوزخند را روشن کنند. وقتی انسان ها به هم متصل می شوند، ما واقعاً پشت سر هم بدون هیچ برنامه ریزی آگاهانه لبخند می زنیم. ربات ها برای تجزیه و تحلیل حالات چهره افراد برای بازتولید پوزخند زمان می گذارند. برای یک انسان، حتی چند میلی ثانیه تاخیر، موهای پشت گردن را بلند می کند - مانند یک فیلم ترسناک، چیزی دستکاری و اشتباه به نظر می رسد.

هفته گذشته، تیمی در دانشگاه کلمبیا الگوریتمی را نشان داد که به روبات ها می آموزد که لبخند را با اپراتورهای انسانی خود به اشتراک بگذارند. هوش مصنوعی تغییرات جزئی صورت را تجزیه و تحلیل می کند تا حالت اپراتورهای خود را حدود 800 میلی ثانیه قبل از وقوع آنها پیش بینی کند - فقط زمان کافی برای ربات برای پاسخ به پوزخند.

این تیم یک چهره انسان نما روباتیک نرم به نام ایمو را آموزش دادند تا عبارات همدم انسانی خود را پیش بینی و مطابقت دهد. ایمو با چهره ای سیلیکونی به رنگ آبی شبیه یک موجود بیگانه علمی تخیلی دهه 60 است. اما به آسانی همراه با شریک انسانی خود در همان طول موج «احساسی» پوزخند زد.

ربات‌های انسان‌نما معمولاً هنگام برقراری ارتباط با انسان‌ها درهم و برهم هستند. نوشت دکتر راشل جک در دانشگاه گلاسکو که در این مطالعه شرکت نداشت. ChatGPT و دیگر الگوریتم‌های زبان بزرگ می‌توانند گفتار هوش مصنوعی را شبیه انسان کنند، اما تکرار ارتباطات غیرکلامی دشوار است.

او نوشت: برنامه‌ریزی مهارت‌های اجتماعی - حداقل برای بیان چهره - در روبات‌های فیزیکی اولین گام برای کمک به «روبات‌های اجتماعی برای پیوستن به دنیای اجتماعی انسان» است.

در زیر کاپوت

از جانب رباتاکسی به سرورهای روبو که برای شما غذا و نوشیدنی می آورند، روبات های خودمختار به طور فزاینده ای وارد زندگی ما می شوند.

در لندن، نیویورک، مونیخ و سئول، خودمختار ربات ها از فرودگاه های پر هرج و مرج عبور کنید و به مشتریان کمک کنید - ورود، پیدا کردن دروازه، یا بازیابی چمدان گمشده. در سنگاپور، چندین ربات هفت فوتی با دید 360 درجه پرسه زدن در یک فرودگاه علامت گذاری مشکلات امنیتی احتمالی در طول همه گیری، سگ های ربات فاصله گذاری اجتماعی اجباری

اما روبات ها می توانند کارهای بیشتری انجام دهند. برای کارهای خطرناک - مانند تمیز کردن خرابه‌های خانه‌ها یا پل‌های ویران‌شده - آنها می‌توانند در تلاش‌های نجات پیشرو باشند و ایمنی را برای امدادگران اولیه افزایش دهند. با افزایش روزافزون جمعیت جهان، آنها می توانند به پرستاران برای حمایت از سالمندان کمک کنند.

جاری ربات های انسان نما به طرز کارتونی دوست داشتنی هستند اما عنصر اصلی برای ورود ربات ها به دنیای ما اعتماد است. همانطور که دانشمندان روبات‌هایی با چهره‌های انسان‌مانند می‌سازند، ما می‌خواهیم عبارات آنها با انتظارات ما مطابقت داشته باشد. این فقط تقلید از حالت چهره نیست. یک لبخند واقعی به اشتراک گذاشته شده «آره می‌دانم» روی یک شوخی ترسناک باعث ایجاد پیوند می‌شود.

ارتباطات غیرکلامی - بیان، حرکات دست، وضعیت بدن - ابزارهایی هستند که ما برای بیان خود از آنها استفاده می کنیم. با ChatGPT و موارد دیگر هوش مصنوعی مولد، ماشین ها از قبل می توانند "به صورت ویدئویی و شفاهی" ارتباط برقرار کنند، گفت: نویسنده مطالعه دکتر هاد لیپسون به علم.

لیپسون گفت: اما وقتی نوبت به دنیای واقعی می‌رسد - جایی که یک نگاه، یک چشمک و لبخند می‌تواند تفاوت را ایجاد کند - این کانالی است که در حال حاضر گم شده است. «لبخند زدن در زمان نامناسب می‌تواند نتیجه معکوس داشته باشد. [اگر حتی چند میلی ثانیه دیر شده باشد]، به نظر می رسد که شاید در حال غر زدن هستید.»

بگو پنیر

برای اینکه روبات‌ها را وارد کنش غیرکلامی کنند، تیم روی یک جنبه تمرکز کرد: یک لبخند مشترک. مطالعات قبلی روبات‌هایی را از پیش برنامه‌ریزی کرده بودند تا لبخند را تقلید کنند. اما از آنجایی که آنها خود به خود نیستند، باعث تاخیر جزئی اما قابل توجه می شود و باعث می شود که پوزخند ساختگی به نظر برسد.

لیپسون گفت: «چیزهای زیادی در ارتباط غیرکلامی وجود دارد» که تعیین کمیت آنها دشوار است. دلیل اینکه وقتی عکس می گیریم باید بگوییم «پنیر» این است که لبخند زدن در صورت تقاضا در واقع بسیار سخت است.»

مطالعه جدید بر زمان بندی متمرکز بود.

این تیم الگوریتمی را مهندسی کردند که لبخند افراد را پیش‌بینی می‌کند و باعث می‌شود یک چهره متحرک انسان‌مانند پشت سر هم لبخند بزند. این صورت روباتیک که Emo نام دارد، دارای 26 چرخ دنده است - فکر کنید ماهیچه های مصنوعی - که در یک "پوست" سیلیکونی کششی پوشانده شده است. هر چرخ دنده با آهنربا به "اسکلت" رباتیک اصلی متصل می شود تا ابروها، چشم ها، دهان و گردن خود را حرکت دهد. چشمان ایمو دارای دوربین های داخلی برای ضبط محیط و کنترل حرکات کره چشم و حرکات پلک زدن آن است.

ایمو به خودی خود می تواند حالات صورت خود را ردیابی کند. هدف این مطالعه جدید کمک به تفسیر احساسات دیگران بود. این تیم از ترفندی استفاده کردند که هر نوجوان درون‌گرای ممکن است بداند: آنها از ایمو خواستند در آینه نگاه کند تا یاد بگیرد چگونه چرخ دنده‌هایش را کنترل کند و یک حالت چهره عالی مانند لبخند ایجاد کند. ربات به تدریج یاد گرفت که عبارات خود را با دستورات حرکتی مطابقت دهد - مثلاً "گونه ها را بلند کنید". سپس تیم هر گونه برنامه‌ریزی را که می‌توانست صورت را بیش از حد کشیده و به پوست سیلیکونی ربات آسیب برساند، حذف کردند.

«معلوم شد... [ساخت] روباتی که بتواند لبخند بزند، از نقطه نظر مکانیکی بسیار چالش برانگیز بود. لیپسون گفت: این سخت تر از ساختن یک دست رباتیک است. ما در تشخیص لبخندهای غیراصیل بسیار خوب هستیم. بنابراین ما نسبت به آن بسیار حساس هستیم.»

برای مقابله با این دره عجیب، این تیم به ایمو آموزش دادند تا حرکات صورت را با استفاده از ویدئوهایی از خنده، غافلگیر کردن، اخم کردن، گریه و بیان دیگر انسان ها پیش بینی کند. احساسات جهانی هستند: وقتی لبخند می‌زنید، گوشه‌های دهانتان به صورت هلال ماه در می‌آید. وقتی گریه می‌کنید، ابروها به هم می‌چرخند.

هوش مصنوعی حرکات صورت هر صحنه را فریم به فریم تجزیه و تحلیل کرد. با اندازه‌گیری فواصل بین چشم‌ها، دهان و سایر «نقاط عطف چهره»، نشانه‌های مشخصی یافت که با یک احساس خاص مطابقت دارد - برای مثال، بالا رفتن گوشه‌ی دهان نشان‌دهنده لبخند است، در حالی که یک حرکت رو به پایین ممکن است با اخم فرود آمدن

پس از آموزش، هوش مصنوعی کمتر از یک ثانیه طول کشید تا این نشانه های چهره را تشخیص دهد. هنگام فعال کردن ایمو، چهره ربات می‌توانست لبخندی را بر اساس تعاملات انسانی در عرض یک ثانیه پیش‌بینی کند، به طوری که با شرکت‌کننده‌اش پوزخند زد.

برای روشن بودن، هوش مصنوعی "احساس" ندارد. در عوض، وقتی با لبخندی واقعی به یک استندآپ خنده‌دار می‌خندد، مانند یک انسان رفتار می‌کند.

حالات چهره تنها نشانه هایی نیست که در تعامل با افراد متوجه می شویم. تکان های ظریف سر، تکان دادن سر، ابروهای بالا انداخته یا حرکات دست همگی باعث ایجاد نشانه می شوند. صرف‌نظر از فرهنگ‌ها، «ام‌ها»، «آه‌ها» و «لایک‌ها» – یا معادل‌های آن‌ها – در تعاملات روزمره ادغام می‌شوند. در حال حاضر، ایمو مانند نوزادی است که یاد گرفته چگونه لبخند بزند. هنوز زمینه های دیگر را درک نمی کند.

"خیلی بیشتر برای رفتن وجود دارد" گفت: لیپسون ما فقط سطح ارتباطات غیرکلامی را برای هوش مصنوعی خراش می دهیم. اما "اگر فکر می کنید تعامل با ChatGPT جالب است، فقط صبر کنید تا این چیزها فیزیکی شوند و همه شرط ها خاموش شوند."

تصویر های اعتباری: Yuhang Hu، مهندسی کلمبیا از طریق YouTube

نقطه_img

جدیدترین اطلاعات

نقطه_img

چت با ما

سلام! چگونه می توانم به شما کمک کنم؟