Платон Data Intelligence.
Вертикальный поиск и искусственный интеллект.

Приобретя Run:ai, Nvidia стремится управлять вашими K8 с искусственным интеллектом.

Дата:

В среду Nvidia объявила о приобретении провайдера оркестрации Kubernetes Run:ai, ориентированного на искусственный интеллект, с целью повысить эффективность вычислительных кластеров, построенных на графических процессорах.

Детали сделка не были раскрыты, но , по имеющимся данным Сделка может быть оценена примерно в 700 миллионов долларов. Стартап из Тель-Авива по всей видимости с момента своего основания в 118 году привлекла $2018 млн в ходе четырех раундов финансирования.

Платформа Run:ai предоставляет центральный пользовательский интерфейс и плоскость управления для работы с различными популярными вариантами Kubernetes. Это делает его немного похожим на OpenShift от RedHat или Rancher от SUSE, и он включает в себя многие из тех же инструментов для управления такими вещами, как пространства имен, профили пользователей и распределение ресурсов.

Ключевое отличие заключается в том, что Run:ai предназначен для интеграции со сторонними инструментами и платформами искусственного интеллекта и работает с контейнерными средами с ускорением на графическом процессоре. В его портфолио программного обеспечения входят такие элементы, как планирование рабочих нагрузок и секционирование ускорителей, последнее из которых позволяет распределять несколько рабочих нагрузок по одному графическому процессору.

По данным Nvidia, платформа Run:ai уже поддерживает вычислительные платформы DGX, включая конфигурации Superpod, систему управления кластером Base Command, библиотеку контейнеров NGC и пакет AI Enterprise.

Что касается AI, Kubernetes заявляет о ряде преимуществ перед развертываниями на «голом железе», поскольку среду можно настроить для масштабирования нескольких, потенциально географически распределенных ресурсов.

На данный момент существующим клиентам Run:ai не нужно беспокоиться о том, что Nvidia внесет серьезные изменения в платформу. В освободитьNvidia заявила, что продолжит предлагать продукты Run:ai в рамках той же бизнес-модели в ближайшем будущем — что бы это ни значило.

Между тем, те, кто подписан на облако DGX от Nvidia, получат доступ к набору функций Run:ai для своих рабочих нагрузок ИИ, включая развертывание больших языковых моделей (LLM).

Анонс состоялся чуть более чем через месяц после того, как гигант графических процессоров представила новая контейнерная платформа для построения моделей искусственного интеллекта под названием Nvidia Inference Microservices (NIM).

NIMS, по сути, представляют собой предварительно сконфигурированные и оптимизированные образы контейнеров, содержащие модель, будь то версия с открытым исходным кодом или проприетарная версия, со всеми зависимостями, необходимыми для ее запуска.

Как и большинство контейнеров, NIM можно развертывать в различных средах выполнения, включая узлы Kubernetes с ускорением CUDA.

Идея превращения LLM и других моделей ИИ в микросервисы заключается в том, что их можно объединить в сеть и использовать для создания более сложных и многофункциональных моделей ИИ, чем это было бы возможно в противном случае без самостоятельного обучения специальной модели, или, по крайней мере, именно так Nvidia представляет себе людей, использующих их.

С приобретением Run:ai у Nvidia теперь есть уровень оркестрации Kubernetes для управления развертыванием этих NIM в ее инфраструктуре графических процессоров. ®

Spot_img

Последняя разведка

Spot_img

Чат с нами

Всем привет! Могу я чем-нибудь помочь?