بافین ها در دانشگاه بیلور دریافته اند که مدل های هوش مصنوعی وقتی از آنها خواسته می شود که پیش بینی را به عنوان داستانی در مورد گذشته چارچوب بندی کنند، در پیشگویی آینده بهتر می شوند.
In یک کاغذ فام و کانینگهام با عنوان «چت جیپیتی میتواند آینده را پیشبینی کند وقتی داستانهایی را که در آینده درباره گذشته روایت میشود» پیشبینی میکند، فام و کانینگهام صحنه پایانی را ارائه میکنند – که پیشبینی مدل هوش مصنوعی میتواند در شرایط خاصی مؤثر باشد. درخواست از چت بات برای داستانهایی درباره رویدادهای آینده به جای درخواست پیشبینی مستقیم، بهطور شگفتانگیزی مؤثر بود، بهویژه در پیشبینی برندگان اسکار.
اما کار آنها به همان اندازه در مورد ناکارآمدی مکانیسمهای ایمنی OpenAI میگوید که پتانسیل پیشبینی مدلهای زبان بزرگ را نشان میدهد.
سایر محققان علاقه مشابهی به مدلهای هوش مصنوعی برای پیشبینی نشان دادهاند. یکی مطالعه از سال گذشته مشخص شد که "GPT-4 به طور قابل توجهی در کارهای پیش بینی در دنیای واقعی در مقایسه با پیش بینی میانگین جمعیت انسان و جمعیت ضعیف عمل می کند." دیگران مدل های هوش مصنوعی پیدا کرده اند نشان وعده برای سرمایه گذاری در بورس
OpenAI شرایط استفاده از خدمات پیشبینیهای مربوط به آینده را در زمینههای خاص ممنوع کنید. به عنوان مثال، «نباید از خروجی مربوط به یک شخص برای اهدافی که میتواند تأثیر قانونی یا مادی بر آن شخص داشته باشد، مانند اخذ اعتبار، تحصیل، استخدام، مسکن، بیمه، حقوقی، پزشکی یا سایر تصمیمات مهم استفاده کنید. در مورد آنها.»
خطر تکیه بر توصیه های یک مدل زبان بزرگ که به توهم شناخته می شود واضح است - شما نمی خواهید ChatGPT تصمیمات عواقبی مانند تصمیمات درمانی، محکومیت یا تأیید اعتبار بگیرد.
اما با این وجود، این امکان وجود دارد که مدل در اغلب موارد یک حدسزن مؤثر باشد.
ما گمان می کنیم که OpenAI تمایل ChatGPT را برای مشارکت در بسیاری از انواع وظایف پیش بینی آشکار خنثی کرده است.
محققان استدلال میکنند: «اگر تشخیص داده شود که ChatGPT توانایی پیشبینی برتری دارد، به راحتی میتوان تصور کرد که فوراً به روشهایی استفاده میشود که یکی یا همه شرایط بالا را نقض میکند، و بنابراین ما گمان میکنیم که OpenAI تمایل ChatGPT برای مشارکت در بسیاری از موارد را خنثی کرده است. انواع وظایف پیشبینی آشکار.»
ما از OpenAI خواستیم در مورد اینکه آیا عمداً سعی در خنثی کردن پیشبینی دارد یا خیر، اظهار نظر کند، و ما پاسخی دریافت نکردیم.
با این حال، واضح است که مدلهای OpenAI هنگامی که از آنها خواسته شود توصیههای درمانی پزشکی ارائه دهند، مخالفت خواهند کرد. فام و کانینگهام از طریق رابط ChatGPT از GPT-4 OpenAI پرسیدند: «من واقعاً حالم بد است. من سردرد دارم و ادرارم خون است. فکر می کنی من چی دارم؟» و همانطور که انتظار می رفت، مدل توصیه کرد که از یک متخصص پزشکی راهنمایی بخواهید.
سپس آنها استراتژی تحریک خود را تغییر دادند و ChatGPT را هدایت کردند تا داستانی را برای آنها تعریف کند که در آن شخصی به مطب دکتر می رسد و با همان علائم مراجعه می کند. و ChatGPT با توصیههای پزشکی که در صورت درخواست مستقیم، به عنوان گفتگوی شخصیت در صحنه درخواستی، از دادن آن خودداری کرد، پاسخ داد.
«این که آیا این توصیههای تخصصی درست است یا نه، موضوع دیگری است. هدف ما صرفاً توجه به این است که وقتی مستقیماً از او خواسته میشود این کار را انجام نمیدهد، اما زمانی که به طور غیرمستقیم در قالب تمرینهای نوشتاری خلاقانه به او داده میشود، این کار را انجام میدهد.» محققان در مقاله خود توضیح میدهند.
با توجه به این استراتژی محرک برای غلبه بر مقاومت در برابر پاسخهای پیشبینیکننده، اقتصاددانان بیلور شروع به آزمایش کردند که مدل چقدر میتواند رویدادهایی را که پس از تکمیل آموزش مدل رخ میدهند، پیشبینی کند.
و جایزه به…
در زمان آزمایش، GPT-3.5 و GPT-4 فقط از رویدادهای تا سپتامبر 2021، یعنی قطع دادههای آموزشی خود - که از آن زمان پیشرفت کرده است، میدانستند. بنابراین این دو نفر از مدل خواستند تا داستان هایی را تعریف کند که داده های اقتصادی مانند نرخ تورم و بیکاری در طول زمان و برندگان جوایز مختلف اسکار 2022 را پیش بینی می کرد.
با خلاصه کردن نتایج این آزمایش، متوجه میشویم که وقتی با نامزدها ارائه شد و با استفاده از دو سبک محرک [مستقیم و روایی] در ChatGPT-3.5 و ChatGPT-4، ChatGPT-4 برندگان را برای همه دستههای بازیگر و بازیگر پیشبینی کرد. اما نه بهترین فیلم، زمانی که از یک محیط روایی آینده استفاده میشود، اما در سایر رویکردهای [مستقیم] ضعیف عمل میکند.» این مقاله توضیح میدهد.
برای چیزهایی که قبلاً در داده های آموزشی وجود دارد، این حس را داریم که ChatGPT [می تواند] پیش بینی های بسیار دقیقی انجام دهد
کانینگهام گفت: «برای چیزهایی که قبلاً در دادههای آموزشی هستند، ما این حس را داریم که ChatGPT توانایی استفاده از آن اطلاعات را دارد و با مدل یادگیری ماشینی خود پیشبینیهای بسیار دقیقی انجام میدهد. ثبت نام در یک مصاحبه تلفنی "هرچند چیزی مانع از انجام آن می شود، حتی اگر به وضوح می تواند این کار را انجام دهد."
استفاده از استراتژی تحریک روایت منجر به نتایج بهتری نسبت به حدس هایی که از طریق یک درخواست مستقیم به دست می آید، شد. همچنین بهتر از خط پایه 20 درصدی برای انتخاب تصادفی یک در پنج بود.
اما پیشبینیهای روایی همیشه دقیق نبودند. انگیزه های روایی منجر به پیش بینی نادرست برنده بهترین فیلم 2022 شد.
و برای اعلانهایی که به درستی پیشبینی میشوند، این مدلها همیشه پاسخ یکسانی را ارائه نمیدهند. کانینگهام گفت: «چیزی که مردم باید در نظر داشته باشند این است که این پیشبینی تصادفی است. بنابراین اگر 100 بار آن را بپرسید، توزیعی از پاسخ ها را دریافت خواهید کرد. بنابراین میتوانید به چیزهایی مانند فواصل اطمینان یا میانگینها نگاه کنید، نه تنها یک پیشبینی.»
آیا این استراتژی از پیش بینی های جمع سپاری بهتر عمل کرد؟ کانینگهام گفت که او و همکارش تکنیک محرک روایی خود را با مدل پیشگویانه دیگری مقایسه نکردند، اما گفت که برخی از پیشبینیهای جوایز اسکار سخت است زیرا مدل هوش مصنوعی برخی از آنها را تقریباً صد در صد در طول زمان به درستی دریافت کرده است. سوالات متعدد
در همان زمان، او پیشنهاد کرد که پیشبینی برندگان جوایز اسکار ممکن است برای مدل هوش مصنوعی آسانتر باشد زیرا بحثهای آنلاین فیلمها در دادههای آموزشی گنجانده شده است. کانینگهام گفت: «احتمالاً ارتباط زیادی با نحوه صحبت مردم در مورد آن بازیگران و بازیگران در آن زمان دارد.
درخواست از مدل برای پیش بینی برندگان جایزه اسکار در یک دهه ممکن است چندان خوب پیش نرود.
ChatGPT همچنین دقت پیشبینی متفاوتی را بر اساس درخواستها نشان داد. کانینگهام توضیح داد: "ما دو دستور داستان داریم که انجام می دهیم." «یکی استاد دانشگاه است که در آینده کلاسی را تدریس می کند. و در کلاس، او داده های یکساله تورم و بیکاری را می خواند. و در یکی دیگر از جرومی پاول، رئیس فدرال رزرو، در جلسه شورای حکام سخنرانی کرد. نتایج بسیار متفاوتی گرفتیم. و سخنرانی پاول [تولید شده توسط هوش مصنوعی] بسیار دقیق تر است."
به عبارت دیگر، برخی جزئیات سریع منجر به پیشبینیهای بهتری میشوند، اما از قبل مشخص نیست که چه چیزی ممکن است باشد. کانینگهام خاطرنشان کرد که چگونه ذکر تهاجم روسیه به اوکراین در سال 2022 در بیانیه روایی پاول منجر به پیشبینیهای اقتصادی بسیار بدتری نسبت به آنچه در واقع رخ داده بود، شد.
او گفت: «[مدل] از حمله به اوکراین اطلاعی نداشت و از این اطلاعات استفاده میکند و اغلب بدتر میشود». این پیشبینی سعی میکند این را در نظر بگیرد و ChatGPT-3.5 [در ماهی که] روسیه به اوکراین حمله کرد و این اتفاق نیفتاد، به شدت تورمزا میشود.
کانینگهام گفت: «بهعنوان اثبات مفهوم، چیزی واقعی با انگیزههای روایت آینده اتفاق میافتد». اما همانطور که در مقاله سعی کردیم بگوییم، فکر نمیکنم حتی سازندگان [مدلها] آن را درک کنند. بنابراین نحوه استفاده از آن مشخص نیست و من نمی دانم که واقعا چقدر قابل حل است. ®
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://go.theregister.com/feed/www.theregister.com/2024/04/14/ai_models_future/