هوش داده افلاطون
جستجوی عمودی و هوش مصنوعی

هدف Nvidia با استفاده از Run:ai، مدیریت هوش مصنوعی K8 شماست

تاریخ:

انویدیا روز چهارشنبه اعلام کرد که ارائه دهنده ارکستراسیون Kubernetes مبتنی بر هوش مصنوعی Run:ai را در تلاشی برای کمک به تقویت کارایی خوشه های محاسباتی ساخته شده بر روی GPU، خریداری کرده است.

جزئیات معامله فاش نشدند، اما گزارش شده است ارزش این معامله تقریباً 700 میلیون دلار است. استارت آپ مستقر در تل آویو دارای ظاهرا از زمان تأسیس در سال 118، 2018 میلیون دلار در چهار دور تأمین مالی جمع آوری کرده است.

پلت فرم Run:ai یک رابط کاربری مرکزی و صفحه کنترل برای کار با انواع مختلف Kubernetes را فراهم می کند. این آن را کمی شبیه OpenShift RedHat یا SUSE's Rancher می کند و بسیاری از ابزارهای مشابه برای مدیریت مواردی مانند فضاهای نام، نمایه های کاربر و تخصیص منابع را در خود دارد.

تفاوت اصلی این است که Run:ai برای ادغام با ابزارها و چارچوب‌های هوش مصنوعی شخص ثالث و مقابله با محیط‌های کانتینرهای تسریع‌شده GPU طراحی شده است. مجموعه نرم‌افزاری آن شامل عناصری مانند زمان‌بندی حجم کار و پارتیشن‌بندی شتاب‌دهنده است، که دومی اجازه می‌دهد تا بارهای کاری متعدد در یک GPU واحد پخش شود.

به گفته انویدیا، پلتفرم Run:ai در حال حاضر از پلتفرم‌های محاسباتی DGX، از جمله پیکربندی‌های Superpod، سیستم مدیریت کلاستر Base Command، کتابخانه کانتینر NGC و مجموعه AI Enterprise پشتیبانی می‌کند.

با توجه به هوش مصنوعی، Kubernetes چندین مزیت را نسبت به استقرار فلز خالی دارد، زیرا می‌توان محیط را طوری پیکربندی کرد که مقیاس‌پذیری در منابع متعدد و بالقوه جغرافیایی توزیع شده را مدیریت کند.

در حال حاضر، مشتریان فعلی Run:ai نباید نگران اعمال تغییرات عمده انویدیا به پلتفرم باشند. در یک آزادانویدیا گفت که در آینده نزدیک به ارائه محصولات Run:ai تحت همان مدل تجاری ادامه خواهد داد - هر معنایی که ممکن است داشته باشد.

در همین حال، کسانی که در DGX Cloud انویدیا مشترک هستند، به مجموعه ویژگی های Run:ai برای بار کاری هوش مصنوعی خود، از جمله استقرار مدل های زبان بزرگ (LLM) دسترسی خواهند داشت.

این اعلامیه فقط یک ماه پس از غول GPU منتشر می شود پرده برداری کرد یک پلت فرم کانتینری جدید برای ساخت مدل های هوش مصنوعی به نام انویدیا استنتاج میکروسرویس (NIM).

NIMS اساساً تصاویر کانتینری از پیش پیکربندی و بهینه‌سازی شده‌ای هستند که شامل مدل، چه نسخه منبع باز یا اختصاصی، با تمام وابستگی‌های لازم برای اجرای آن هستند.

مانند بسیاری از کانتینرها، NIM ها را می توان در زمان های مختلف اجرا، از جمله گره های Kubernetes با شتاب CUDA، مستقر کرد.

ایده تبدیل LLM و سایر مدل‌های هوش مصنوعی به میکروسرویس‌ها این است که می‌توان آنها را با هم شبکه کرد و برای ساخت مدل‌های پیچیده‌تر و غنی‌تر از هوش مصنوعی استفاده کرد که در غیر این صورت بدون آموزش یک مدل اختصاصی توسط خودتان امکان‌پذیر بود، یا حداقل این همان چیزی است که انویدیا تصور می‌کند مردم از آن استفاده می‌کنند. آنها

با خرید Run:ai، انویدیا اکنون یک لایه ارکستراسیون Kubernetes برای مدیریت استقرار این NIM ها در زیرساخت GPU خود دارد. ®

نقطه_img

جدیدترین اطلاعات

نقطه_img

چت با ما

سلام! چگونه می توانم به شما کمک کنم؟