هوش داده افلاطون
جستجوی عمودی و هوش مصنوعی

با کاوش در جهان های مجازی، هوش مصنوعی به روش های جدید یاد می گیرد

تاریخ:

در سال 2009، یک دانشمند کامپیوتر در آن زمان در دانشگاه پرینستون به نام فی-فی لی مجموعه ای از داده ها را اختراع کرد که تاریخچه هوش مصنوعی را تغییر می دهد. این مجموعه داده که به عنوان ImageNet شناخته می‌شود، شامل میلیون‌ها تصویر برچسب‌گذاری شده بود که می‌توانست مدل‌های پیچیده یادگیری ماشینی را برای تشخیص چیزی در یک تصویر آموزش دهد. ماشین‌ها از توانایی‌های تشخیص انسان پیشی گرفتند 2015. بلافاصله پس از آن، لی شروع به جستجوی چیزی کرد که او یکی دیگر از «ستارگان شمال» نامید که به هوش مصنوعی فشار متفاوتی به سمت هوش واقعی بدهد.

او با نگاهی به گذشته در زمان بیش از 530 میلیون سال به انفجار کامبرین الهام گرفت، زمانی که گونه های جانوری متعددی در خشکی برای اولین بار ظاهر شدند. یک نظریه تأثیرگذار معتقد است که انفجار گونه های جدید تا حدی به دلیل ظهور چشم هایی بود که می توانستند برای اولین بار جهان اطراف خود را ببینند. لی متوجه شد که بینایی در حیوانات هرگز به خودی خود رخ نمی دهد، بلکه "عمیقاً در بدنی کل نگر جاسازی شده است که باید در محیطی که به سرعت در حال تغییر است حرکت کند، حرکت کند، زنده بماند، دستکاری کند و تغییر کند." "به همین دلیل برای من بسیار طبیعی بود که به سمت دید فعال تر [برای هوش مصنوعی] حرکت کنم."

امروزه، کار لی بر عوامل هوش مصنوعی متمرکز است که به سادگی تصاویر استاتیک را از یک مجموعه داده نمی‌پذیرند، بلکه می‌توانند در شبیه‌سازی‌های دنیای مجازی سه‌بعدی به اطراف حرکت کرده و با محیط‌هایشان تعامل داشته باشند.

این هدف گسترده حوزه جدیدی است که به عنوان هوش مصنوعی تجسم یافته شناخته می شود، و لی تنها کسی نیست که آن را پذیرفته است. با روباتیک همپوشانی دارد، زیرا روبات‌ها می‌توانند معادل فیزیکی عوامل هوش مصنوعی در دنیای واقعی و یادگیری تقویتی باشند - که همیشه یک عامل تعاملی را برای یادگیری با استفاده از پاداش‌های بلندمدت به عنوان انگیزه آموزش داده است. اما لی و دیگران فکر می‌کنند که هوش مصنوعی تجسم‌یافته می‌تواند تغییر عمده‌ای را از یادگیری توانایی‌های مستقیم ماشین‌ها، مانند تشخیص تصاویر، به یادگیری نحوه انجام کارهای پیچیده انسان‌مانند با چند مرحله، مانند ساختن املت، ایجاد کند.

"به طور طبیعی، ما جاه طلب تر می شویم، و می گوییم، "خوب، چطور در مورد ساخت یک عامل هوشمند؟" و در آن مرحله، شما به هوش مصنوعی تجسم یافته فکر خواهید کرد جیتندرا مالیک، دانشمند کامپیوتر در دانشگاه کالیفرنیا، برکلی.

امروزه کار در هوش مصنوعی تجسم یافته شامل هر عاملی است که بتواند محیط خود را بررسی و تغییر دهد. در حالی که در رباتیک عامل هوش مصنوعی همیشه در یک بدن رباتیک زندگی می کند، عوامل مدرن در شبیه سازی های واقع گرایانه ممکن است یک بدن مجازی داشته باشند، یا ممکن است جهان را از طریق یک نقطه دید دوربین متحرک که هنوز هم می تواند با محیط اطراف خود تعامل داشته باشد، حس کنند. لی می‌گوید: «معنای تجسم خود بدن نیست، بلکه نیاز و عملکرد کل‌نگر تعامل و انجام کارها با محیط است.

این تعامل راهی کاملاً جدید - و در بسیاری از موارد، بهتر - برای یادگیری در مورد جهان به عوامل می دهد. این تفاوت بین مشاهده یک رابطه احتمالی بین دو شی و این است که آزمایش کنید و باعث ایجاد رابطه خودتان شوید. با مسلح شدن به این درک جدید، تفکر پیش می رود، هوش بیشتری به دنبال خواهد داشت. و با مجموعه ای از جهان های مجازی جدید در حال راه اندازی و اجرا، عوامل هوش مصنوعی تجسم یافته از قبل شروع به ارائه این پتانسیل کرده اند و پیشرفت قابل توجهی در محیط های جدید خود داشته اند.

گفت: «در حال حاضر، ما هیچ مدرکی مبنی بر هوشی که از طریق تعامل با جهان یاد نمی‌گیرد، نداریم». ویوین کلیمحقق هوش مصنوعی در دانشگاه اسنابروک آلمان.

به سمت یک شبیه سازی کامل

در حالی که محققان مدت‌هاست که می‌خواستند جهان‌های مجازی واقعی را برای عوامل هوش مصنوعی ایجاد کنند، اما تنها در پنج سال گذشته یا پس از آن توانستند شروع به ساخت آن‌ها کنند. این توانایی ناشی از پیشرفت در گرافیک است که توسط صنایع فیلم و بازی های ویدیویی هدایت می شود. در سال 2017، عوامل هوش مصنوعی توانستند در اولین دنیای مجازی خود را در خانه بسازند تا فضاهای داخلی را به صورت واقعی به تصویر بکشند - به معنای واقعی کلمه، هرچند مجازی، خانه ها. شبیه ساز زنگ زد AI2-Thorکه توسط دانشمندان کامپیوتر در موسسه آلن برای هوش مصنوعی ساخته شده است، به عوامل اجازه می دهد تا در آشپزخانه های طبیعی، حمام، اتاق نشیمن و اتاق خواب پرسه بزنند. ماموران می‌توانند نماهای سه‌بعدی را مطالعه کنند که در حین حرکت تغییر می‌کنند و زمانی که تصمیم می‌گیرند نگاه دقیق‌تری داشته باشند، زوایای جدیدی را نشان می‌دهند.

چنین جهان های جدیدی همچنین به عوامل این فرصت را می دهد که در مورد تغییرات در بعد جدید استدلال کنند: زمان. گفت: "این تفاوت بزرگ است." مانولیس ساوا، محقق گرافیک کامپیوتری در دانشگاه سایمون فریزر که چندین دنیا مجازی ساخته است. "در تنظیمات تجسم AI ... شما این جریان منسجم زمانی اطلاعات را دارید و بر آن کنترل دارید."

این جهان های شبیه سازی شده اکنون به اندازه کافی خوب هستند تا ماموران را برای انجام کارهای کاملا جدید آموزش دهند. به جای اینکه فقط یک شی را تشخیص دهند، می توانند با آن تعامل داشته باشند، آن را بگیرند و در اطراف آن حرکت کنند – گام های به ظاهر کوچک اما ضروری برای هر عاملی برای درک محیط آن. و در شماره ۱۰۲۹، عوامل مجازی برای شنیدن صداهایی که اشیاء مجازی تولید می کنند، فراتر از بینایی رفتند و راه دیگری برای یادگیری در مورد اشیا و نحوه کار آنها در جهان فراهم کردند.

این بدان معنا نیست که کار تمام شده است. دانیل یامینز، دانشمند کامپیوتر در دانشگاه استنفورد می گوید: «این بسیار کمتر از دنیای واقعی واقعی است، حتی بهترین شبیه ساز. یامینز با همکارانش در MIT و IBM توسعه داد ThreeDWorld، که تمرکز زیادی بر تقلید از فیزیک واقعی در جهان های مجازی دارد - مواردی مانند نحوه رفتار مایعات و اینکه چگونه برخی از اجسام در یک ناحیه صلب و در قسمت دیگر نرم هستند.

ساوا گفت: «این کار واقعاً سخت است. "این یک چالش بزرگ تحقیقاتی است."

با این حال، برای عوامل هوش مصنوعی کافی است تا به روش های جدید شروع به یادگیری کنند.

مقایسه شبکه های عصبی

تاکنون، یکی از راه‌های آسان برای اندازه‌گیری پیشرفت هوش مصنوعی، مقایسه عملکرد عامل‌های تجسم‌شده با الگوریتم‌هایی است که روی کارهای ساده‌تر و استاتیک تصویر آموزش داده شده‌اند. محققان خاطرنشان می‌کنند که این مقایسه‌ها بی‌نقص نیستند، اما نتایج اولیه نشان می‌دهد که عوامل هوش مصنوعی تجسم‌یافته متفاوت - و در مواقعی بهتر - از اجدادشان یاد می‌گیرند.

در یکی از اخیر مقالهمحققان دریافتند که یک عامل هوش مصنوعی تجسم یافته در تشخیص اشیاء مشخص شده دقیق تر است و رویکرد سنتی را تا حدود 12% بهبود می بخشد. گفت: "جامعه تشخیص اشیا بیش از سه سال طول کشید تا به این سطح از پیشرفت دست یابد." روزبه متقی، یکی از نویسندگان و دانشمند کامپیوتر در موسسه آلن برای هوش مصنوعی. او گفت: «به سادگی با تعامل با جهان، ما توانستیم به این پیشرفت دست پیدا کنیم.

مقالات دیگر نشان داده‌اند که تشخیص اشیا در میان الگوریتم‌های آموزش‌دیده به‌طور سنتی زمانی بهبود می‌یابد که آن‌ها را در یک شکل تجسم‌یافته قرار دهید و به آنها اجازه دهید اکتشاف یک فضای مجازی فقط یک بار، یا زمانی که به آنها اجازه می دهید برای جمع شدن حرکت کنند دیدگاه های متعدد از اشیاء

محققان همچنین دریافته‌اند که الگوریتم‌های تجسم‌یافته و سنتی تفاوت‌های اساسی یاد می‌گیرند. برای شواهد، در نظر بگیرید شبکه های عصبی - عنصر اساسی در پشت توانایی های یادگیری هر الگوریتم تجسم یافته و بسیاری از الگوریتم های غیرمجسم. شبکه عصبی نوعی الگوریتم با لایه‌های زیادی از گره‌های متصل از نورون‌های مصنوعی است که بر اساس شبکه‌های مغز انسان مدل‌سازی شده‌اند. در دو مقاله جداگانه، یکی به رهبری Clay و دیگری توسط گریس لیندسیمحققان دریافتند که شبکه‌های عصبی موجود در عوامل تجسم‌یافته، نورون‌های کمتری در پاسخ به اطلاعات بصری فعال دارند، به این معنی که هر نورون منفرد در مورد اینکه به چه چیزی پاسخ می‌دهد انتخابی‌تر است. شبکه‌های بدون جسم بسیار کارآمدتر بودند و به نورون‌های بیشتری نیاز داشتند تا بیشتر اوقات فعال باشند. گروه لیندسی حتی شبکه‌های عصبی تجسم‌یافته و غیرجسم‌شده را با فعالیت‌های عصبی در یک مغز زنده - قشر بینایی موش - مقایسه کردند و دریافتند که نسخه‌های تجسم‌شده نزدیک‌ترین تطابق هستند.

لیندسی سریعاً اشاره می کند که این لزوماً به این معنی نیست که نسخه های تجسم یافته بهتر هستند - آنها فقط متفاوت هستند. برخلاف مقاله‌های تشخیص اشیا، کار Clay و Lindsay در مقایسه تفاوت‌های اساسی در شبکه‌های عصبی یکسان، عاملان را وادار می‌کند که وظایف کاملاً متفاوتی را انجام دهند - بنابراین آنها می‌توانند برای رسیدن به اهداف خود به شبکه‌های عصبی نیاز داشته باشند که متفاوت کار کنند.

اما در حالی که مقایسه شبکه‌های عصبی تجسم‌یافته با شبکه‌های غیرمجسم یکی از معیارهای پیشرفت است، محققان واقعاً علاقه‌ای به بهبود عملکرد عامل‌های تجسم‌یافته در وظایف فعلی ندارند. این خط کار به طور جداگانه و با استفاده از هوش مصنوعی آموزش دیده سنتی ادامه خواهد یافت. هدف واقعی یادگیری کارهای پیچیده‌تر و شبیه به انسان است، و اینجاست که محققان از دیدن نشانه‌هایی از پیشرفت چشمگیر، به‌ویژه در وظایف ناوبری، بسیار هیجان‌زده شده‌اند. در اینجا، یک عامل باید هدف بلندمدت مقصد خود را به خاطر بسپارد، در حالی که برنامه‌ای برای رسیدن به آنجا بدون گم شدن یا راه رفتن در اشیا ایجاد می‌کند.

تنها در چند سال، تیمی به رهبری دهرو باترا، مدیر تحقیقات Meta AI و دانشمند کامپیوتر در موسسه فناوری جورجیا، به سرعت بهبود یافته است عملکرد در نوع خاصی از کار ناوبری به نام ناوبری نقطه هدف. در اینجا، یک عامل در یک محیط کاملاً جدید رها می شود و باید برای هدف قرار دادن مختصات نسبت به موقعیت شروع ("به نقطه ای که 5 متر شمال و 10 متر شرق است") بدون نقشه حرکت کند. با دادن جی پی اس و قطب نما به ماموران و آموزش آن در دنیای مجازی متا تماس گرفت زیستگاه هوش مصنوعیBatra گفت: «ما توانستیم دقت بیش از 99.9 درصد را در یک مجموعه داده استاندارد به دست آوریم. و این ماه، آنها با موفقیت نتایج را به یک سناریوی دشوارتر و واقعی تر گسترش دادند که در آن عامل GPS یا قطب نما ندارد. این عامل صرفاً با تخمین موقعیت خود بر اساس جریان پیکسل هایی که در حین حرکت می بیند به دقت 94 درصد رسید.

متقی گفت: این پیشرفت فوق العاده است. "با این حال، این بدان معنا نیست که ناوبری یک کار حل شده است." تا حدی به این دلیل است که بسیاری از انواع دیگر کارهای ناوبری که از دستورالعمل‌های زبانی پیچیده‌تری استفاده می‌کنند، مانند «از آشپزخانه عبور کنید تا لیوان‌های روی میز خواب در اتاق خواب را بازیابی کنید»، تنها با دقت 30 تا 40 درصد باقی می‌مانند.

اما ناوبری هنوز هم یکی از ساده ترین وظایف در هوش مصنوعی تجسم یافته را نشان می دهد، زیرا عوامل در محیط بدون دستکاری چیزی در آن حرکت می کنند. تاکنون، عوامل تجسم شده هوش مصنوعی به دور از تسلط بر هر کار با اشیا هستند. بخشی از چالش این است که وقتی عامل با اشیاء جدید تعامل می‌کند، راه‌های زیادی وجود دارد که اشتباه می‌کند و اشتباهات می‌توانند انباشته شوند. در حال حاضر، بیشتر محققان با انتخاب وظایف تنها با چند مرحله از این موضوع دوری می‌کنند، اما بیشتر فعالیت‌های انسان‌مانند، مانند پختن یا شستن ظروف، به دنباله‌ای طولانی از اقدامات با چندین اشیا نیاز دارند. برای رسیدن به آنجا، عوامل هوش مصنوعی به فشار بیشتری نیاز دارند.

در اینجا دوباره، لی ممکن است در خط مقدم باشد، و مجموعه‌ای از داده‌ها را توسعه داده است که امیدوار است همان کاری را که پروژه ImageNet او برای تشخیص شی AI انجام داد، برای هوش مصنوعی تجسم یافته انجام دهد. زمانی که او به جامعه هوش مصنوعی مجموعه داده عظیمی از تصاویر را برای آزمایشگاه‌ها برای استانداردسازی داده‌های ورودی هدیه می‌داد، اکنون تیم او یک نمونه استاندارد منتشر کرده است. مجموعه داده های شبیه سازی شده با 100 فعالیت انسان مانند برای ماموران که می توانند در هر دنیای مجازی آزمایش شوند. با ایجاد معیارهایی که عواملی را که این وظایف را انجام می دهند با ویدیوهای واقعی انسان هایی که همان کار را انجام می دهند مقایسه می کند، مجموعه داده های جدید لی به جامعه امکان می دهد تا پیشرفت عوامل هوش مصنوعی مجازی را بهتر ارزیابی کند.

هنگامی که ماموران در این وظایف پیچیده موفق شدند، لی هدف شبیه سازی را آموزش فضای مانور نهایی می داند: دنیای واقعی.

او گفت: «به نظر من شبیه‌سازی یکی از مهم‌ترین و هیجان‌انگیزترین حوزه‌های تحقیقات رباتیک است.

مرز رباتیک جدید

ربات ها ذاتاً مأموران اطلاعاتی تجسم یافته هستند. آنها با سکونت نوعی بدن فیزیکی در دنیای واقعی، افراطی ترین شکل عوامل هوش مصنوعی را نشان می دهند. اما بسیاری از محققان اکنون دریافته اند که حتی این عوامل نیز می توانند از آموزش در دنیای مجازی بهره مند شوند.

متقی گفت: «الگوریتم‌های پیشرفته [در رباتیک]، مانند یادگیری تقویتی و این نوع چیزها، معمولاً برای یادگیری چیزی معنادار به میلیون‌ها تکرار نیاز دارند. در نتیجه، آموزش ربات های واقعی در کارهای دشوار ممکن است سال ها طول بکشد.

اما آموزش آنها در دنیای مجازی ابتدا این فرصت را فراهم می کند که بسیار سریعتر از زمان واقعی تمرین کنند و هزاران نماینده می توانند به طور همزمان در هزاران اتاق کمی متفاوت تمرین کنند. به علاوه، آموزش مجازی نیز برای ربات و هر انسان نزدیکی که در مسیر آن قرار دارد، ایمن تر است.

بسیاری از رباتیک‌ها شروع به جدی‌تر گرفتن شبیه‌سازها کردند 2018زمانی که محققان OpenAI ثابت کردند که انتقال مهارت ها از شبیه سازی به دنیای واقعی امکان پذیر است. آنها یک دست رباتیک را آموزش دادند تا مکعبی را که فقط در شبیه سازی دیده بود دستکاری کند. موفقیت‌های اخیر این امکان را فراهم کرده است هواپیماهای بدون سرنشین برای یادگیری نحوه جلوگیری از برخورد در هوا، اتومبیل های خود رانندگی برای استقرار در محیط‌های شهری در دو قاره مختلف و ربات‌های سگ‌مانند چهار پا پیاده روی یک ساعته در کوه های آلپ سوئیس را کامل کنید در عین حال انسان ها را می گیرد.

در آینده، محققان همچنین ممکن است با فرستادن انسان ها به فضای مجازی از طریق هدست های واقعیت مجازی، شکاف بین شبیه سازی ها و دنیای واقعی را کاهش دهند. یک هدف کلیدی از تحقیقات روباتیک، یادداشت ها دیتر فاکس، مدیر ارشد تحقیقات رباتیک در NVIDIA و استاد دانشگاه واشنگتن، قرار است ربات هایی بسازد که در دنیای واقعی برای انسان مفید باشند. اما برای انجام این کار، ابتدا باید در معرض انسان قرار گیرند و یاد بگیرند که چگونه با انسان ها تعامل کنند.

فاکس می‌گوید: «استفاده از واقعیت مجازی برای وارد کردن انسان‌ها به این محیط‌های شبیه‌سازی‌شده و فعال کردن آن‌ها برای نشان دادن چیزها و تعامل با روبات‌ها، بسیار قدرتمند خواهد بود».

چه در شبیه سازی ها و چه در دنیای واقعی، عوامل هوش مصنوعی تجسم یافته مانند ما بیشتر یاد می گیرند، در کارهایی که بیشتر شبیه کارهایی هستند که ما هر روز انجام می دهیم. و این زمینه در همه جبهه ها به طور همزمان در حال پیشرفت است - جهان های جدید، وظایف جدید و الگوریتم های یادگیری جدید.

لی گفت: "من شاهد همگرایی یادگیری عمیق، یادگیری رباتیک، بینایی و حتی زبان هستم." و اکنون من فکر می کنم از طریق این مهتاب یا ستاره شمالی به سمت هوش مصنوعی تجسم یافته، می خواهیم فناوری اساسی هوش یا هوش مصنوعی را بیاموزیم که واقعاً می تواند به پیشرفت های بزرگ منجر شود.

نقطه_img

جدیدترین اطلاعات

نقطه_img

چت با ما

سلام! چگونه می توانم به شما کمک کنم؟