انویدیا روز چهارشنبه اعلام کرد که ارائه دهنده ارکستراسیون Kubernetes مبتنی بر هوش مصنوعی Run:ai را در تلاشی برای کمک به تقویت کارایی خوشه های محاسباتی ساخته شده بر روی GPU، خریداری کرده است.
جزئیات معامله فاش نشدند، اما گزارش شده است ارزش این معامله تقریباً 700 میلیون دلار است. استارت آپ مستقر در تل آویو دارای ظاهرا از زمان تأسیس در سال 118، 2018 میلیون دلار در چهار دور تأمین مالی جمع آوری کرده است.
پلت فرم Run:ai یک رابط کاربری مرکزی و صفحه کنترل برای کار با انواع مختلف Kubernetes را فراهم می کند. این آن را کمی شبیه OpenShift RedHat یا SUSE's Rancher می کند و بسیاری از ابزارهای مشابه برای مدیریت مواردی مانند فضاهای نام، نمایه های کاربر و تخصیص منابع را در خود دارد.
تفاوت اصلی این است که Run:ai برای ادغام با ابزارها و چارچوبهای هوش مصنوعی شخص ثالث و مقابله با محیطهای کانتینرهای تسریعشده GPU طراحی شده است. مجموعه نرمافزاری آن شامل عناصری مانند زمانبندی حجم کار و پارتیشنبندی شتابدهنده است، که دومی اجازه میدهد تا بارهای کاری متعدد در یک GPU واحد پخش شود.
به گفته انویدیا، پلتفرم Run:ai در حال حاضر از پلتفرمهای محاسباتی DGX، از جمله پیکربندیهای Superpod، سیستم مدیریت کلاستر Base Command، کتابخانه کانتینر NGC و مجموعه AI Enterprise پشتیبانی میکند.
با توجه به هوش مصنوعی، Kubernetes چندین مزیت را نسبت به استقرار فلز خالی دارد، زیرا میتوان محیط را طوری پیکربندی کرد که مقیاسپذیری در منابع متعدد و بالقوه جغرافیایی توزیع شده را مدیریت کند.
در حال حاضر، مشتریان فعلی Run:ai نباید نگران اعمال تغییرات عمده انویدیا به پلتفرم باشند. در یک آزادانویدیا گفت که در آینده نزدیک به ارائه محصولات Run:ai تحت همان مدل تجاری ادامه خواهد داد - هر معنایی که ممکن است داشته باشد.
در همین حال، کسانی که در DGX Cloud انویدیا مشترک هستند، به مجموعه ویژگی های Run:ai برای بار کاری هوش مصنوعی خود، از جمله استقرار مدل های زبان بزرگ (LLM) دسترسی خواهند داشت.
این اعلامیه فقط یک ماه پس از غول GPU منتشر می شود پرده برداری کرد یک پلت فرم کانتینری جدید برای ساخت مدل های هوش مصنوعی به نام انویدیا استنتاج میکروسرویس (NIM).
NIMS اساساً تصاویر کانتینری از پیش پیکربندی و بهینهسازی شدهای هستند که شامل مدل، چه نسخه منبع باز یا اختصاصی، با تمام وابستگیهای لازم برای اجرای آن هستند.
مانند بسیاری از کانتینرها، NIM ها را می توان در زمان های مختلف اجرا، از جمله گره های Kubernetes با شتاب CUDA، مستقر کرد.
ایده تبدیل LLM و سایر مدلهای هوش مصنوعی به میکروسرویسها این است که میتوان آنها را با هم شبکه کرد و برای ساخت مدلهای پیچیدهتر و غنیتر از هوش مصنوعی استفاده کرد که در غیر این صورت بدون آموزش یک مدل اختصاصی توسط خودتان امکانپذیر بود، یا حداقل این همان چیزی است که انویدیا تصور میکند مردم از آن استفاده میکنند. آنها
با خرید Run:ai، انویدیا اکنون یک لایه ارکستراسیون Kubernetes برای مدیریت استقرار این NIM ها در زیرساخت GPU خود دارد. ®
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://go.theregister.com/feed/www.theregister.com/2024/04/24/runai_acquisition_nvidia/