گوگل در تلاش برای سرعت بخشیدن به توسعه سیستم های توانمندتر، تیم های مختلفی را که بر روی هوش مصنوعی مولد تحت تیم DeepMind کار می کنند، ادغام می کند.
تصمیم، دستها پایین توسط ساندار پیچای، مدیر عامل شرکت در روز پنجشنبه، بر اساس تلاشهای ادغام قبلی پیرامون توسعه هوش مصنوعی در کارخانه شکلات سازی است. سال گذشته، غول جستجوگر تیم DeepMind و بخش Brain خود را ترکیب کرد و گروهی را به نام Google DeepMind تشکیل داد. این تیم در نهایت مسئول آموزش مدل های پشت ربات چت جمینی گوگل بود.
پیچای اکنون قصد دارد تمام تیم های سازنده مدل های هوش مصنوعی را به زیر یک سقف منتقل کند.
او نوشت: «همه این کارها اکنون در Google DeepMind قرار میگیرد و ظرفیت ما برای ارائه هوش مصنوعی توانمند برای کاربران، شرکا و مشتریان را افزایش میدهد.» و اضافه کرد که این تغییر به Google Research اجازه میدهد تا توجه خود را بیشتر بر روی بررسی رایانههای اساسی و کاربردی متمرکز کند. علوم پایه.
تیم به اصطلاح مسئولیتپذیر هوش مصنوعی گوگل نیز به گروه DeepMind میپیوندد، جایی که انتظار میرود نقش بزرگتری در توسعه مدلهای جدید بازی کند. گوگل میگوید قبلاً سایر گروههای مسئولیت را تحت تیم مرکزی اعتماد و ایمنی خود منتقل کرده است و قصد دارد پروتکلهای آزمایش و ارزیابی هوش مصنوعی گستردهتری ایجاد کند.
احتمالاً این حرکتها در تلاشی برای اجتناب از snafus شرمآور انجام شده است که بسیاری از پیشنهادات اولیه هوش مصنوعی از جمله رباتهای چت بارد Google و بعداً جمینی را تحت تأثیر قرار داده است.
در ماه فوریه، گوگل مجبور شد تعلیق قابلیتهای تولید متن به تصویر Gemini پس از اینکه نتوانست بهطور دقیق اروپاییها و آمریکاییها را در زمینههای تاریخی خاص نشان دهد. به عنوان مثال، هنگامی که از او خواسته می شود تصاویری از یک سرباز آلمانی از سال 1943 تولید کند، به طور مداوم تصاویری از شخصیت های غیرسفید تولید می کند.
پیچای میگوید برای جلوگیری از این امر، گوگل همچنین «الزامات راهاندازی ویژگیهای مبتنی بر هوش مصنوعی را استاندارد میکند و سرمایهگذاریها را در آزمایش «تیم قرمز» برای آسیبپذیریها و ارزیابیهای گستردهتر افزایش میدهد تا اطمینان حاصل شود که پاسخها دقیق و پاسخگوی کاربران ما هستند.
به عبارت دیگر، اکنون که گوگل در کنار مایکروسافت، OpenAI و دیگران خود را به عنوان یک هوش مصنوعی مولد شناخته شده است، قبل از اینکه کاربرانش فرصتی برای این کار داشته باشند، کمی زمان بیشتری را صرف یافتن راههایی برای ایجاد بدرفتاری در مدلهای خود میکند.
دور زدن حفاظهای هوش مصنوعی برای تولید محتوا یا پیشنهادات توهینآمیز، سمی یا ناایمن، مانند نحوه خودکشی، تبدیل به یک مسئله مهم برای سازندگان مدل
تلاشهای ادغام به توسعه سختافزار هوش مصنوعی نیز گسترش مییابد. این تغییرات باعث میشود که تیمهای پلتفرم و اکوسیستم و دستگاهها و خدمات در گروه جدیدی به نام پلتفرمها و دستگاهها ترکیب شوند. به عنوان بخشی از این حرکت، کارمندانی که روی عکاسی محاسباتی و هوشمندی روی دستگاه کار می کنند نیز به بخش سخت افزار ترکیبی خواهند پیوست.
پیچای یادداشت خود را با هشدار به کارمندان بست که انتقامات شخصی خود را در خانه رها کنند.
او نوشت: «این یک تجارت است و مکانی برای عمل به گونهای نیست که همکاران را مختل کند یا احساس ناامنی کنند، تلاش برای استفاده از شرکت به عنوان یک پلتفرم شخصی، یا مبارزه بر سر مسائل مخرب یا بحث درباره سیاستها».
به نظر می رسد که نظرات پیچای به 28 کارمند اشاره دارد این هفته اخراج شد به دلیل اعتراض به معاملات گوگل با دولت اسرائیل، با این حال، شکی نداریم که آنها در مورد آنها نیز اعمال می شوند میدان مین اخلاقی زمینه هوش مصنوعی به سرعت در حال تبدیل شدن است. ®
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://go.theregister.com/feed/www.theregister.com/2024/04/19/google_ai_teams/