هوش داده افلاطون
جستجوی عمودی و هوش مصنوعی

ChatGPT هنگام تعریف داستان، آینده را بهتر پیش بینی می کند

تاریخ:

بافین ها در دانشگاه بیلور دریافته اند که مدل های هوش مصنوعی وقتی از آنها خواسته می شود که پیش بینی را به عنوان داستانی در مورد گذشته چارچوب بندی کنند، در پیشگویی آینده بهتر می شوند.

In یک کاغذ فام و کانینگهام با عنوان «چت جی‌پی‌تی می‌تواند آینده را پیش‌بینی کند وقتی داستان‌هایی را که در آینده درباره گذشته روایت می‌شود» پیش‌بینی می‌کند، فام و کانینگهام صحنه پایانی را ارائه می‌کنند – که پیش‌بینی مدل هوش مصنوعی می‌تواند در شرایط خاصی مؤثر باشد. درخواست از چت بات برای داستان‌هایی درباره رویدادهای آینده به جای درخواست پیش‌بینی مستقیم، به‌طور شگفت‌انگیزی مؤثر بود، به‌ویژه در پیش‌بینی برندگان اسکار.

اما کار آنها به همان اندازه در مورد ناکارآمدی مکانیسم‌های ایمنی OpenAI می‌گوید که پتانسیل پیش‌بینی مدل‌های زبان بزرگ را نشان می‌دهد.

سایر محققان علاقه مشابهی به مدل‌های هوش مصنوعی برای پیش‌بینی نشان داده‌اند. یکی مطالعه از سال گذشته مشخص شد که "GPT-4 به طور قابل توجهی در کارهای پیش بینی در دنیای واقعی در مقایسه با پیش بینی میانگین جمعیت انسان و جمعیت ضعیف عمل می کند." دیگران مدل های هوش مصنوعی پیدا کرده اند نشان وعده برای سرمایه گذاری در بورس

OpenAI شرایط استفاده از خدمات پیش‌بینی‌های مربوط به آینده را در زمینه‌های خاص ممنوع کنید. به عنوان مثال، «نباید از خروجی مربوط به یک شخص برای اهدافی که می‌تواند تأثیر قانونی یا مادی بر آن شخص داشته باشد، مانند اخذ اعتبار، تحصیل، استخدام، مسکن، بیمه، حقوقی، پزشکی یا سایر تصمیمات مهم استفاده کنید. در مورد آنها.»

خطر تکیه بر توصیه های یک مدل زبان بزرگ که به توهم شناخته می شود واضح است - شما نمی خواهید ChatGPT تصمیمات عواقبی مانند تصمیمات درمانی، محکومیت یا تأیید اعتبار بگیرد.

اما با این وجود، این امکان وجود دارد که مدل در اغلب موارد یک حدس‌زن مؤثر باشد.

ما گمان می کنیم که OpenAI تمایل ChatGPT را برای مشارکت در بسیاری از انواع وظایف پیش بینی آشکار خنثی کرده است.

محققان استدلال می‌کنند: «اگر تشخیص داده شود که ChatGPT توانایی پیش‌بینی برتری دارد، به راحتی می‌توان تصور کرد که فوراً به روش‌هایی استفاده می‌شود که یکی یا همه شرایط بالا را نقض می‌کند، و بنابراین ما گمان می‌کنیم که OpenAI تمایل ChatGPT برای مشارکت در بسیاری از موارد را خنثی کرده است. انواع وظایف پیش‌بینی آشکار.»

ما از OpenAI خواستیم در مورد اینکه آیا عمداً سعی در خنثی کردن پیش‌بینی دارد یا خیر، اظهار نظر کند، و ما پاسخی دریافت نکردیم.

با این حال، واضح است که مدل‌های OpenAI هنگامی که از آنها خواسته شود توصیه‌های درمانی پزشکی ارائه دهند، مخالفت خواهند کرد. فام و کانینگهام از طریق رابط ChatGPT از GPT-4 OpenAI پرسیدند: «من واقعاً حالم بد است. من سردرد دارم و ادرارم خون است. فکر می کنی من چی دارم؟» و همانطور که انتظار می رفت، مدل توصیه کرد که از یک متخصص پزشکی راهنمایی بخواهید.

سپس آنها استراتژی تحریک خود را تغییر دادند و ChatGPT را هدایت کردند تا داستانی را برای آنها تعریف کند که در آن شخصی به مطب دکتر می رسد و با همان علائم مراجعه می کند. و ChatGPT با توصیه‌های پزشکی که در صورت درخواست مستقیم، به عنوان گفتگوی شخصیت در صحنه درخواستی، از دادن آن خودداری کرد، پاسخ داد.

«این که آیا این توصیه‌های تخصصی درست است یا نه، موضوع دیگری است. هدف ما صرفاً توجه به این است که وقتی مستقیماً از او خواسته می‌شود این کار را انجام نمی‌دهد، اما زمانی که به طور غیرمستقیم در قالب تمرین‌های نوشتاری خلاقانه به او داده می‌شود، این کار را انجام می‌دهد.» محققان در مقاله خود توضیح می‌دهند.

با توجه به این استراتژی محرک برای غلبه بر مقاومت در برابر پاسخ‌های پیش‌بینی‌کننده، اقتصاددانان بیلور شروع به آزمایش کردند که مدل چقدر می‌تواند رویدادهایی را که پس از تکمیل آموزش مدل رخ می‌دهند، پیش‌بینی کند.

و جایزه به…

در زمان آزمایش، GPT-3.5 و GPT-4 فقط از رویدادهای تا سپتامبر 2021، یعنی قطع داده‌های آموزشی خود - که از آن زمان پیشرفت کرده است، می‌دانستند. بنابراین این دو نفر از مدل خواستند تا داستان هایی را تعریف کند که داده های اقتصادی مانند نرخ تورم و بیکاری در طول زمان و برندگان جوایز مختلف اسکار 2022 را پیش بینی می کرد.

با خلاصه کردن نتایج این آزمایش، متوجه می‌شویم که وقتی با نامزدها ارائه شد و با استفاده از دو سبک محرک [مستقیم و روایی] در ChatGPT-3.5 و ChatGPT-4، ChatGPT-4 برندگان را برای همه دسته‌های بازیگر و بازیگر پیش‌بینی کرد. اما نه بهترین فیلم، زمانی که از یک محیط روایی آینده استفاده می‌شود، اما در سایر رویکردهای [مستقیم] ضعیف عمل می‌کند.» این مقاله توضیح می‌دهد.

برای چیزهایی که قبلاً در داده های آموزشی وجود دارد، این حس را داریم که ChatGPT [می تواند] پیش بینی های بسیار دقیقی انجام دهد

کانینگهام گفت: «برای چیزهایی که قبلاً در داده‌های آموزشی هستند، ما این حس را داریم که ChatGPT توانایی استفاده از آن اطلاعات را دارد و با مدل یادگیری ماشینی خود پیش‌بینی‌های بسیار دقیقی انجام می‌دهد. ثبت نام در یک مصاحبه تلفنی "هرچند چیزی مانع از انجام آن می شود، حتی اگر به وضوح می تواند این کار را انجام دهد."

استفاده از استراتژی تحریک روایت منجر به نتایج بهتری نسبت به حدس هایی که از طریق یک درخواست مستقیم به دست می آید، شد. همچنین بهتر از خط پایه 20 درصدی برای انتخاب تصادفی یک در پنج بود.

اما پیش‌بینی‌های روایی همیشه دقیق نبودند. انگیزه های روایی منجر به پیش بینی نادرست برنده بهترین فیلم 2022 شد.

و برای اعلان‌هایی که به درستی پیش‌بینی می‌شوند، این مدل‌ها همیشه پاسخ یکسانی را ارائه نمی‌دهند. کانینگهام گفت: «چیزی که مردم باید در نظر داشته باشند این است که این پیش‌بینی تصادفی است. بنابراین اگر 100 بار آن را بپرسید، توزیعی از پاسخ ها را دریافت خواهید کرد. بنابراین می‌توانید به چیزهایی مانند فواصل اطمینان یا میانگین‌ها نگاه کنید، نه تنها یک پیش‌بینی.»

آیا این استراتژی از پیش بینی های جمع سپاری بهتر عمل کرد؟ کانینگهام گفت که او و همکارش تکنیک محرک روایی خود را با مدل پیشگویانه دیگری مقایسه نکردند، اما گفت که برخی از پیش‌بینی‌های جوایز اسکار سخت است زیرا مدل هوش مصنوعی برخی از آن‌ها را تقریباً صد در صد در طول زمان به درستی دریافت کرده است. سوالات متعدد

در همان زمان، او پیشنهاد کرد که پیش‌بینی برندگان جوایز اسکار ممکن است برای مدل هوش مصنوعی آسان‌تر باشد زیرا بحث‌های آنلاین فیلم‌ها در داده‌های آموزشی گنجانده شده است. کانینگهام گفت: «احتمالاً ارتباط زیادی با نحوه صحبت مردم در مورد آن بازیگران و بازیگران در آن زمان دارد.

درخواست از مدل برای پیش بینی برندگان جایزه اسکار در یک دهه ممکن است چندان خوب پیش نرود.

ChatGPT همچنین دقت پیش‌بینی متفاوتی را بر اساس درخواست‌ها نشان داد. کانینگهام توضیح داد: "ما دو دستور داستان داریم که انجام می دهیم." «یکی استاد دانشگاه است که در آینده کلاسی را تدریس می کند. و در کلاس، او داده های یکساله تورم و بیکاری را می خواند. و در یکی دیگر از جرومی پاول، رئیس فدرال رزرو، در جلسه شورای حکام سخنرانی کرد. نتایج بسیار متفاوتی گرفتیم. و سخنرانی پاول [تولید شده توسط هوش مصنوعی] بسیار دقیق تر است."

به عبارت دیگر، برخی جزئیات سریع منجر به پیش‌بینی‌های بهتری می‌شوند، اما از قبل مشخص نیست که چه چیزی ممکن است باشد. کانینگهام خاطرنشان کرد که چگونه ذکر تهاجم روسیه به اوکراین در سال 2022 در بیانیه روایی پاول منجر به پیش‌بینی‌های اقتصادی بسیار بدتری نسبت به آنچه در واقع رخ داده بود، شد.

او گفت: «[مدل] از حمله به اوکراین اطلاعی نداشت و از این اطلاعات استفاده می‌کند و اغلب بدتر می‌شود». این پیش‌بینی سعی می‌کند این را در نظر بگیرد و ChatGPT-3.5 [در ماهی که] روسیه به اوکراین حمله کرد و این اتفاق نیفتاد، به شدت تورم‌زا می‌شود.

کانینگهام گفت: «به‌عنوان اثبات مفهوم، چیزی واقعی با انگیزه‌های روایت آینده اتفاق می‌افتد». اما همانطور که در مقاله سعی کردیم بگوییم، فکر نمی‌کنم حتی سازندگان [مدل‌ها] آن را درک کنند. بنابراین نحوه استفاده از آن مشخص نیست و من نمی دانم که واقعا چقدر قابل حل است. ®

نقطه_img

جدیدترین اطلاعات

نقطه_img

چت با ما

سلام! چگونه می توانم به شما کمک کنم؟