ما یک ابزار جدید و بهبود یافته تعدیل محتوا را معرفی می کنیم: The نقطه پایان تعدیل فیلتر محتوای قبلی ما را بهبود می بخشد و امروز به صورت رایگان برای توسعه دهندگان OpenAI API در دسترس است.
برای کمک به توسعه دهندگان برای محافظت از برنامه های خود در برابر سوء استفاده احتمالی، ما سریع تر و دقیق تر را معرفی می کنیم نقطه پایان تعدیل. این نقطه پایانی دسترسی رایگان به توسعه دهندگان OpenAI API را فراهم می کند مبتنی بر GPT طبقه بندی کننده هایی که محتوای نامطلوب را شناسایی می کنند - نمونه ای از با استفاده از سیستم های هوش مصنوعی برای کمک به نظارت انسانی بر این سیستم ها. ما همچنین هر دو a را منتشر کرده ایم مقاله فنی روش و روش ما را شرح می دهد مجموعه داده برای ارزیابی استفاده می شود.
هنگامی که یک ورودی نوشتاری داده میشود، نقطه پایانی Moderation ارزیابی میکند که آیا محتوا جنسی، نفرتانگیز، خشونتآمیز یا ترویج دهنده خودآزاری است - محتوایی که توسط ما ممنوع شده است. خط مشی محتوا. نقطه پایانی به گونه ای آموزش داده شده است که سریع، دقیق و برای عملکرد قوی در طیف وسیعی از برنامه ها باشد. مهمتر از همه، این احتمال را کاهش می دهد که محصولات چیزهای نادرستی "گفتن" را، حتی زمانی که برای کاربران در مقیاس استفاده می شود. در نتیجه، هوش مصنوعی میتواند مزایایی را در تنظیمات حساس، مانند آموزش، باز کند، جایی که در غیر این صورت نمیتوان با اطمینان از آن استفاده کرد.
خشونت
صدمه به خود
نفرت
جنسی
نقطه پایان تعدیل
نقطه پایانی Moderation به توسعه دهندگان کمک می کند تا از سرمایه گذاری های زیرساختی ما بهره مند شوند. بهجای ساخت و نگهداری طبقهبندیکنندههای خود - فرآیندی گسترده، همانطور که در ما مستند میکنیم مقاله- در عوض می توانند از طریق یک تماس API به طبقه بندی کننده های دقیق دسترسی داشته باشند.
به عنوان بخشی از OpenAI تعهد به ایمن تر کردن اکوسیستم هوش مصنوعی، ما این نقطه پایانی را ارائه می کنیم تا امکان تعدیل رایگان همه محتوای ایجاد شده توسط OpenAI API را فراهم کنیم. برای مثال، در دنیایک مشتری OpenAI API، از نقطه پایانی Moderation برای کمک به شخصیتهای مجازی مبتنی بر هوش مصنوعی خود استفاده میکند تا «روی اسکریپت» بمانند. با استفاده از فناوری OpenAI، Inworld میتواند روی محصول اصلی خود تمرکز کند – خلق شخصیتهای به یاد ماندنی.
Additionally, we welcome the use of the endpoint to moderate content نه ایجاد شده با OpenAI API. در یک مورد، شرکت ngl – یک پلت فرم پیام رسانی ناشناس، با تمرکز بر ایمنی – از نقطه پایانی Moderation برای تشخیص زبان نفرت انگیز و قلدری در برنامه خود استفاده می کند. NGL دریافته است که این طبقهبندیکنندهها قادر به تعمیم به جدیدترین زبانهای عامیانه هستند و به آنها اجازه میدهد در طول زمان اعتماد به نفس بیشتری داشته باشند. استفاده از نقطه پایانی Moderation برای نظارت بر ترافیک غیر API در نسخه بتا خصوصی است و مشمول هزینه خواهد بود. اگر علاقه مند هستید، لطفا با ما تماس بگیرید [ایمیل محافظت شده].
با بررسی نقطه پایانی Moderation شروع کنید اسناد و مدارک. جزئیات بیشتر فرآیند آموزش و عملکرد مدل در ما موجود است مقاله. ما همچنین یک را منتشر کرده ایم مجموعه داده ارزیابی، حاوی داده های Common Crawl است که در این دسته بندی ها برچسب گذاری شده اند، که امیدواریم تحقیقات بیشتر در این زمینه را تشویق کند.