Platón adatintelligencia.
Vertical Search & Ai.

A Cisco, az Nvidia kibővíti együttműködését, hogy az AI-hálózatokban továbbítsa az Ethernetet

Találka:

Kedden Amszterdamban a Cisco Live rendezvényen a vállalati hálózatépítő goliath egy sor hardver- és szoftverplatformot jelentett be az Nvidiával együttműködve, amelyek a manapság mindenki kedvenc hívószavaira szabták: AL/ML.

Az együttműködés fő célja az AI-rendszerek egyszerűbbé tétele és kezelése szabványos Ethernet használatával, amit biztosak vagyunk benne, hogy mindazok értékelni fogják, akiknek nehézségei vannak a CCNA- és/vagy CCNP-tanúsítványaik megszerzésével.

Míg az AI-fürtöket tápláló GPU-k általában uralják a beszélgetést, a támogatáshoz szükséges nagy teljesítményű, alacsony késleltetésű hálózatok meglehetősen összetettek lehetnek. Bár igaz, hogy a modern GPU-csomópontok nagy hasznot húznak a gyors 200 Gb/s, 400 Gb/s és hamarosan 800 Gb/s hálózati kapcsolatból, ez csak egy része az egyenletnek, különösen ami a képzést illeti. Mivel ezeket a munkaterheléseket gyakran több, négy vagy nyolc GPU-t tartalmazó szerver között kell elosztani, minden további késleltetés meghosszabbíthatja a betanítási időt.

Emiatt az Nvidia InfiniBand továbbra is uralja az AI hálózati telepítéseket. A közelmúltban a Dell'Oro Group vállalati elemzőjével, Sameh Boujelbenével adott interjúban becsült hogy a telepítések körülbelül 90 százaléka az Nvidia/Mellanox InfiniBand-ját használja – nem Ethernetet.

Ez nem jelenti azt, hogy az Ethernet ne kezdene elterjedni. A feltörekvő technológiák, mint például a smartNIC-ek és a mesterséges intelligencia által optimalizált kapcsoló ASIC-k mély csomagpufferekkel, segítettek megfékezni a csomagvesztést, így az Ethernet legalább InfiniBand-szerűbbé vált.

Például a Cisco Silicon One G200 ASIC kapcsolója, amelyet mi nézett tavaly nyáron számos olyan funkcióval büszkélkedhet, amelyek az AI-hálózatok számára előnyösek, beleértve a fejlett torlódáskezelést, a csomagszóró technikákat és a kapcsolati feladatátvételt. Fontos azonban megjegyezni, hogy ezek a funkciók nem egyedülállóak a Ciscóban, és az Nvidia és a Broadcom is hasonló képességű kapcsolókat jelentett be az elmúlt években.

A Dell'Oro előrejelzése szerint az Ethernet AI-hálózatokban betöltött szerepe 20-re körülbelül 2027 pont bevételrészesedést érhet el. Ennek egyik oka, hogy az iparág ismeri az Ethernetet. Bár a mesterséges intelligencia telepítése továbbra is speciális hangolást igényelhet, a vállalatok már tudják, hogyan telepítsék és kezeljék az Ethernet infrastruktúrát.

Ez a tény önmagában is vonzó lehetőséget kínál az Nvidia számára az olyan hálózati gyártókkal, mint a Cisco. Bár ez csökkentheti az Nvidia saját InfiniBand vagy Spectrum Ethernet kapcsolóinak értékesítését, a kifizetődő az a lehetőség, hogy több GPU-t adnak olyan vállalatok kezébe, amelyek egyébként megtagadhatták volna egy teljesen különálló hálózati verem telepítését.

A Cisco a vállalati AI-szöget játssza

Ezen erőfeszítések támogatására a Cisco és az Nvidia referenciaterveket és -rendszereket vezet be, amelyek célja a kompatibilitás biztosítása és a tudásbeli hiányosságok orvoslása a mesterséges intelligencia telepítését támogató hálózati, tárolási és számítási infrastruktúra telepítéséhez.

Ezek a referenciatervek olyan platformokat céloznak meg, amelyekbe a vállalatok valószínűleg már befektettek, beleértve a Pure Storage, a NetApp és a Red Hat készleteit. Nem meglepő módon a Cisco GPU-gyorsításos rendszereit is erősítik. Ide tartoznak a referenciatervek és automatizálási szkriptek a FlexPod és a FlashStack keretrendszerek mesterséges intelligencia-következtetési munkaterhelésekre való alkalmazásához. A következtetések, különösen a kis tartomány-specifikus modellek esetében, igen várható sokak szerint a vállalati mesterségesintelligencia-telepítések zömét teszik ki, mivel viszonylag takarékosan működtethetők és oktathatók.

A FlashStack AI Cisco Verified Design (CVD) lényegében egy játékkönyv hogyan kell telepítse a Cisco hálózati és GPU-gyorsított UCS-rendszereit a Pure Storage flash tárolótömbjei mellett. A FlexPod AI (CVD) eközben úgy tűnik következik hasonló mintát, de a Pure-t a NetApp tárolási platformjára cseréli. A Cisco szerint ezek még ebben a hónapban készen állnak a bevezetésre, és a jövőben további Nvidia által támogatott CVD-k fognak megjelenni.

Ha már a Cisco UCS számítási platformjáról beszélünk, a hálózati séma az X-Series blade rendszereinek élfókuszú változatát is kidolgozta, amely felszerelhető az Nvidia legújabb GPU-ival.

Az X Direct alváz jellemzők nyolc slot, amelyek két- vagy négyfoglalatos számítási blade-ek vagy PCIe bővítőcsomópontok kombinációjával tölthetők fel a GPU-számításhoz. További X-Fabric modulok is használhatók a rendszer GPU kapacitásának bővítésére.

Érdemes azonban megjegyezni, hogy a Supermicro, Dell, HPE és mások GPU-csomópontjaitól eltérően, amelyek az Nvidia legerősebb SXM moduljait alkalmazzák, a Cisco UCS X Direct rendszere úgy tűnik, csak az alacsonyabb TDP PCIe-alapú GPU-kat támogatja.

Az adatlap szerint minden szerver felszerelhető kiszolgálónként legfeljebb hat kompakt GPU-val, vagy legfeljebb két kéthelyes, teljes hosszúságú, teljes magasságú GPU-val.

Ez valószínűleg korlátozni fogja azokat, akik hatalmas, több száz gigabájt GPU-memóriát fogyasztó, nagy nyelvi modelleket szeretnének futtatni. Valószínűleg azonban több mint megfelelő kisebb következtetési munkaterhelések futtatásához, például az adatok szélén történő előfeldolgozásához.

A Cisco a gyártást, az egészségügyet és a kis adatközpontokat üzemeltetőket célozza meg a platformmal. ®

spot_img

Legújabb intelligencia

spot_img

Beszélj velünk

Szia! Miben segíthetek?