Kedden Amszterdamban a Cisco Live rendezvényen a vállalati hálózatépítő goliath egy sor hardver- és szoftverplatformot jelentett be az Nvidiával együttműködve, amelyek a manapság mindenki kedvenc hívószavaira szabták: AL/ML.
Az együttműködés fő célja az AI-rendszerek egyszerűbbé tétele és kezelése szabványos Ethernet használatával, amit biztosak vagyunk benne, hogy mindazok értékelni fogják, akiknek nehézségei vannak a CCNA- és/vagy CCNP-tanúsítványaik megszerzésével.
Míg az AI-fürtöket tápláló GPU-k általában uralják a beszélgetést, a támogatáshoz szükséges nagy teljesítményű, alacsony késleltetésű hálózatok meglehetősen összetettek lehetnek. Bár igaz, hogy a modern GPU-csomópontok nagy hasznot húznak a gyors 200 Gb/s, 400 Gb/s és hamarosan 800 Gb/s hálózati kapcsolatból, ez csak egy része az egyenletnek, különösen ami a képzést illeti. Mivel ezeket a munkaterheléseket gyakran több, négy vagy nyolc GPU-t tartalmazó szerver között kell elosztani, minden további késleltetés meghosszabbíthatja a betanítási időt.
Emiatt az Nvidia InfiniBand továbbra is uralja az AI hálózati telepítéseket. A közelmúltban a Dell'Oro Group vállalati elemzőjével, Sameh Boujelbenével adott interjúban becsült hogy a telepítések körülbelül 90 százaléka az Nvidia/Mellanox InfiniBand-ját használja – nem Ethernetet.
Ez nem jelenti azt, hogy az Ethernet ne kezdene elterjedni. A feltörekvő technológiák, mint például a smartNIC-ek és a mesterséges intelligencia által optimalizált kapcsoló ASIC-k mély csomagpufferekkel, segítettek megfékezni a csomagvesztést, így az Ethernet legalább InfiniBand-szerűbbé vált.
Például a Cisco Silicon One G200 ASIC kapcsolója, amelyet mi nézett tavaly nyáron számos olyan funkcióval büszkélkedhet, amelyek az AI-hálózatok számára előnyösek, beleértve a fejlett torlódáskezelést, a csomagszóró technikákat és a kapcsolati feladatátvételt. Fontos azonban megjegyezni, hogy ezek a funkciók nem egyedülállóak a Ciscóban, és az Nvidia és a Broadcom is hasonló képességű kapcsolókat jelentett be az elmúlt években.
A Dell'Oro előrejelzése szerint az Ethernet AI-hálózatokban betöltött szerepe 20-re körülbelül 2027 pont bevételrészesedést érhet el. Ennek egyik oka, hogy az iparág ismeri az Ethernetet. Bár a mesterséges intelligencia telepítése továbbra is speciális hangolást igényelhet, a vállalatok már tudják, hogyan telepítsék és kezeljék az Ethernet infrastruktúrát.
Ez a tény önmagában is vonzó lehetőséget kínál az Nvidia számára az olyan hálózati gyártókkal, mint a Cisco. Bár ez csökkentheti az Nvidia saját InfiniBand vagy Spectrum Ethernet kapcsolóinak értékesítését, a kifizetődő az a lehetőség, hogy több GPU-t adnak olyan vállalatok kezébe, amelyek egyébként megtagadhatták volna egy teljesen különálló hálózati verem telepítését.
A Cisco a vállalati AI-szöget játssza
Ezen erőfeszítések támogatására a Cisco és az Nvidia referenciaterveket és -rendszereket vezet be, amelyek célja a kompatibilitás biztosítása és a tudásbeli hiányosságok orvoslása a mesterséges intelligencia telepítését támogató hálózati, tárolási és számítási infrastruktúra telepítéséhez.
Ezek a referenciatervek olyan platformokat céloznak meg, amelyekbe a vállalatok valószínűleg már befektettek, beleértve a Pure Storage, a NetApp és a Red Hat készleteit. Nem meglepő módon a Cisco GPU-gyorsításos rendszereit is erősítik. Ide tartoznak a referenciatervek és automatizálási szkriptek a FlexPod és a FlashStack keretrendszerek mesterséges intelligencia-következtetési munkaterhelésekre való alkalmazásához. A következtetések, különösen a kis tartomány-specifikus modellek esetében, igen várható sokak szerint a vállalati mesterségesintelligencia-telepítések zömét teszik ki, mivel viszonylag takarékosan működtethetők és oktathatók.
A FlashStack AI Cisco Verified Design (CVD) lényegében egy játékkönyv hogyan kell telepítse a Cisco hálózati és GPU-gyorsított UCS-rendszereit a Pure Storage flash tárolótömbjei mellett. A FlexPod AI (CVD) eközben úgy tűnik következik hasonló mintát, de a Pure-t a NetApp tárolási platformjára cseréli. A Cisco szerint ezek még ebben a hónapban készen állnak a bevezetésre, és a jövőben további Nvidia által támogatott CVD-k fognak megjelenni.
Ha már a Cisco UCS számítási platformjáról beszélünk, a hálózati séma az X-Series blade rendszereinek élfókuszú változatát is kidolgozta, amely felszerelhető az Nvidia legújabb GPU-ival.
Az X Direct alváz jellemzők nyolc slot, amelyek két- vagy négyfoglalatos számítási blade-ek vagy PCIe bővítőcsomópontok kombinációjával tölthetők fel a GPU-számításhoz. További X-Fabric modulok is használhatók a rendszer GPU kapacitásának bővítésére.
Érdemes azonban megjegyezni, hogy a Supermicro, Dell, HPE és mások GPU-csomópontjaitól eltérően, amelyek az Nvidia legerősebb SXM moduljait alkalmazzák, a Cisco UCS X Direct rendszere úgy tűnik, csak az alacsonyabb TDP PCIe-alapú GPU-kat támogatja.
Az adatlap szerint minden szerver felszerelhető kiszolgálónként legfeljebb hat kompakt GPU-val, vagy legfeljebb két kéthelyes, teljes hosszúságú, teljes magasságú GPU-val.
Ez valószínűleg korlátozni fogja azokat, akik hatalmas, több száz gigabájt GPU-memóriát fogyasztó, nagy nyelvi modelleket szeretnének futtatni. Valószínűleg azonban több mint megfelelő kisebb következtetési munkaterhelések futtatásához, például az adatok szélén történő előfeldolgozásához.
A Cisco a gyártást, az egészségügyet és a kis adatközpontokat üzemeltetőket célozza meg a platformmal. ®
- SEO által támogatott tartalom és PR terjesztés. Erősödjön még ma.
- PlatoData.Network Vertical Generative Ai. Erősítse meg magát. Hozzáférés itt.
- PlatoAiStream. Web3 Intelligence. Felerősített tudás. Hozzáférés itt.
- PlatoESG. Carbon, CleanTech, Energia, Környezet, Nap, Hulladékgazdálkodás. Hozzáférés itt.
- PlatoHealth. Biotechnológiai és klinikai vizsgálatok intelligencia. Hozzáférés itt.
- Forrás: https://go.theregister.com/feed/www.theregister.com/2024/02/08/cisco_nvidia_expand_collab/