പ്ലേറ്റോ ഡാറ്റ ഇന്റലിജൻസ്.
ലംബ തിരച്ചിൽ & Ai.

Run:ai ഏറ്റെടുക്കൽ ഉപയോഗിച്ച്, നിങ്ങളുടെ AI K8-കൾ നിയന്ത്രിക്കാൻ എൻവിഡിയ ലക്ഷ്യമിടുന്നു

തീയതി:

ജിപിയുവിൽ നിർമ്മിച്ച കമ്പ്യൂട്ടിംഗ് ക്ലസ്റ്ററുകളുടെ കാര്യക്ഷമത വർദ്ധിപ്പിക്കുന്നതിന് സഹായിക്കുന്നതിനായി AI-കേന്ദ്രീകൃത കുബർനെറ്റസ് ഓർക്കസ്ട്രേഷൻ പ്രൊവൈഡർ Run:ai ഏറ്റെടുക്കുന്നതായി എൻവിഡിയ ബുധനാഴ്ച പ്രഖ്യാപിച്ചു.

യുടെ വിശദാംശങ്ങൾ ഇടപാട് വെളിപ്പെടുത്തിയില്ല, പക്ഷേ റിപ്പോർട്ട് ചെയ്യുന്നു ഇടപാടിന് ഏകദേശം 700 മില്യൺ ഡോളർ വിലവരും. ടെൽ അവീവ് ആസ്ഥാനമായുള്ള സ്റ്റാർട്ടപ്പ് ഉണ്ട് പ്രത്യക്ഷമായും 118-ൽ സ്ഥാപിതമായതുമുതൽ നാല് ഫണ്ടിംഗ് റൗണ്ടുകളിലായി 2018 ദശലക്ഷം ഡോളർ സമാഹരിച്ചു.

Run:ai യുടെ പ്ലാറ്റ്‌ഫോം ഒരു കേന്ദ്ര ഉപയോക്തൃ ഇൻ്റർഫേസും വിവിധ ജനപ്രിയ കുബർനെറ്റസ് വേരിയൻ്റുകളിൽ പ്രവർത്തിക്കുന്നതിനുള്ള നിയന്ത്രണ വിമാനവും നൽകുന്നു. ഇത് RedHat-ൻ്റെ OpenShift അല്ലെങ്കിൽ SUSE-യുടെ റാഞ്ചർ പോലെയാക്കുന്നു, കൂടാതെ നെയിംസ്‌പെയ്‌സുകൾ, ഉപയോക്തൃ പ്രൊഫൈലുകൾ, റിസോഴ്‌സ് അലോക്കേഷനുകൾ എന്നിവ കൈകാര്യം ചെയ്യുന്നതിനുള്ള സമാന ടൂളുകളിൽ പലതും ഇത് അവതരിപ്പിക്കുന്നു.

മൂന്നാം കക്ഷി AI ടൂളുകളുമായും ചട്ടക്കൂടുകളുമായും സമന്വയിപ്പിക്കുന്നതിനും GPU ത്വരിതപ്പെടുത്തിയ കണ്ടെയ്‌നർ പരിതസ്ഥിതികൾ കൈകാര്യം ചെയ്യുന്നതിനുമാണ് Run:ai's രൂപകൽപ്പന ചെയ്‌തിരിക്കുന്നതെന്നതാണ് പ്രധാന വ്യത്യാസം. ഇതിൻ്റെ സോഫ്‌റ്റ്‌വെയർ പോർട്ട്‌ഫോളിയോയിൽ വർക്ക്‌ലോഡ് ഷെഡ്യൂളിംഗ്, ആക്‌സിലറേറ്റർ പാർട്ടീഷനിംഗ് തുടങ്ങിയ ഘടകങ്ങൾ ഉൾപ്പെടുന്നു, ഇതിൽ രണ്ടാമത്തേത് ഒരു ജിപിയുവിൽ ഒന്നിലധികം വർക്ക്‌ലോഡുകൾ വ്യാപിപ്പിക്കാൻ അനുവദിക്കുന്നു.

എൻവിഡിയ പ്രകാരം, Run:ai യുടെ പ്ലാറ്റ്‌ഫോം അതിൻ്റെ സൂപ്പർപോഡ് കോൺഫിഗറേഷനുകൾ, ബേസ് കമാൻഡ് ക്ലസ്റ്റർ മാനേജ്‌മെൻ്റ് സിസ്റ്റം, NGC കണ്ടെയ്‌നർ ലൈബ്രറി, ഒരു AI എൻ്റർപ്രൈസ് സ്യൂട്ട് എന്നിവയുൾപ്പെടെ അതിൻ്റെ DGX കമ്പ്യൂട്ട് പ്ലാറ്റ്‌ഫോമുകളെ ഇതിനകം പിന്തുണയ്‌ക്കുന്നു.

ഭൂമിശാസ്ത്രപരമായി വിതരണം ചെയ്യപ്പെടാൻ സാധ്യതയുള്ള ഒന്നിലധികം വിഭവങ്ങളിൽ സ്കെയിലിംഗ് കൈകാര്യം ചെയ്യാൻ പരിസ്ഥിതി ക്രമീകരിക്കാൻ കഴിയുന്നതിനാൽ, AI-യെ സംബന്ധിച്ചിടത്തോളം, നഗ്നമായ ലോഹ വിന്യാസങ്ങളെക്കാൾ നിരവധി നേട്ടങ്ങൾ കുബെർനെറ്റസ് അവകാശപ്പെടുന്നു.

നിലവിൽ, നിലവിലുള്ള Run:ai ഉപഭോക്താക്കൾക്ക് എൻവിഡിയ പ്ലാറ്റ്‌ഫോമിൽ വലിയ മാറ്റങ്ങൾ വരുത്തുന്നതിനെക്കുറിച്ച് വിഷമിക്കേണ്ടതില്ല. ഒരു റിലീസ്, Nvidia പറഞ്ഞു, Run:ai യുടെ ഉൽപ്പന്നങ്ങൾ അതേ ബിസിനസ്സ് മോഡലിന് കീഴിൽ, ഉടനടി ഭാവിയിൽ - അത് അർത്ഥമാക്കുന്നത്.

അതേസമയം, എൻവിഡിയയുടെ DGX ക്ലൗഡ് സബ്‌സ്‌ക്രൈബുചെയ്‌തവർക്ക്, വലിയ ഭാഷാ മോഡൽ (LLM) വിന്യാസങ്ങൾ ഉൾപ്പെടെ, അവരുടെ AI വർക്ക്ലോഡുകൾക്കായി Run:ai യുടെ ഫീച്ചർ സെറ്റിലേക്ക് ആക്‌സസ് ലഭിക്കും.

GPU ഭീമൻ ഒരു മാസത്തിന് ശേഷമാണ് പ്രഖ്യാപനം വരുന്നത് അനാച്ഛാദനം AI മോഡലുകൾ നിർമ്മിക്കുന്നതിനുള്ള ഒരു പുതിയ കണ്ടെയ്‌നർ പ്ലാറ്റ്‌ഫോം Nvidia Inference Microservices (NIM).

ഓപ്പൺ സോഴ്‌സ് ആയാലും പ്രൊപ്രൈറ്ററി പതിപ്പായാലും, അത് പ്രവർത്തിപ്പിക്കുന്നതിന് ആവശ്യമായ എല്ലാ ഡിപൻഡൻസികളോടും കൂടിയ മോഡൽ അടങ്ങുന്ന, പ്രാഥമികമായി കോൺഫിഗർ ചെയ്തതും ഒപ്റ്റിമൈസ് ചെയ്തതുമായ കണ്ടെയ്‌നർ ഇമേജുകളാണ് NIMS.

മിക്ക കണ്ടെയ്‌നറുകളും പോലെ, CUDA-ആക്‌സിലറേറ്റഡ് കുബർനെറ്റസ് നോഡുകൾ ഉൾപ്പെടെ വിവിധ റൺടൈമുകളിൽ NIM-കൾ വിന്യസിക്കാൻ കഴിയും.

LLM-കളും മറ്റ് AI മോഡലുകളും മൈക്രോസർവീസുകളാക്കി മാറ്റുന്നതിന് പിന്നിലെ ആശയം, അവ ഒരുമിച്ച് നെറ്റ്‌വർക്ക് ചെയ്യാനും കൂടുതൽ സങ്കീർണ്ണവും ഫീച്ചർ സമ്പന്നവുമായ AI മോഡലുകൾ നിർമ്മിക്കാൻ ഉപയോഗിക്കാനും കഴിയും എന്നതാണ്, അല്ലെങ്കിൽ ഒരു സമർപ്പിത മോഡൽ സ്വയം പരിശീലിപ്പിക്കാതെ തന്നെ സാധ്യമാണ്, അല്ലെങ്കിൽ കുറഞ്ഞത് അങ്ങനെയാണ് ആളുകൾ ഉപയോഗിക്കുന്നതെന്ന് എൻവിഡിയ വിഭാവനം ചെയ്യുന്നു. അവരെ.

Run:ai ഏറ്റെടുക്കുന്നതോടെ, എൻവിഡിയയ്ക്ക് ഇപ്പോൾ അതിൻ്റെ GPU ഇൻഫ്രാസ്ട്രക്ചറിലുടനീളം ഈ NIM-കളുടെ വിന്യാസം കൈകാര്യം ചെയ്യുന്നതിനായി ഒരു Kubernetes ഓർക്കസ്ട്രേഷൻ ലെയർ ഉണ്ട്. ®

സ്പോട്ട്_ഐഎംജി

ഏറ്റവും പുതിയ ഇന്റലിജൻസ്

സ്പോട്ട്_ഐഎംജി

ഞങ്ങളുമായി ചാറ്റുചെയ്യുക

ഹേയ്, അവിടെയുണ്ടോ! എനിക്ക് നിങ്ങളെ എങ്ങനെ സഹായിക്കാനാകും?