Xlera8

Run:ai-hankinnan myötä Nvidia pyrkii hallitsemaan tekoälyn K8-laitteitasi

Nvidia ilmoitti keskiviikkona ostavansa tekoälykeskeisen Kubernetes-orkesterointitoimittajan Run:ai:n, joka pyrkii vahvistamaan GPU:lle rakennettujen laskentaklustereiden tehokkuutta.

Yksityiskohdat sopimus ei julkistettu, mutta kuulemma Kaupan arvo voisi olla noin 700 miljoonaa dollaria. Tel Avivissa toimiva startup on ilmeisesti keräsi 118 miljoonaa dollaria neljällä rahoituskierroksella sen perustamisesta vuonna 2018.

Run:ai:n alusta tarjoaa keskeisen käyttöliittymän ja ohjaustason useiden suosittujen Kubernetes-versioiden kanssa työskentelemiseen. Tämä tekee siitä vähän RedHatin OpenShiftin tai SUSE:n Rancherin kaltaisen, ja siinä on monia samoja työkaluja asioiden, kuten nimitilojen, käyttäjäprofiilien ja resurssien allokoinnin, hallintaan.

Tärkein ero on, että Run:ai's on suunniteltu integroitumaan kolmannen osapuolen tekoälytyökalujen ja -kehysten kanssa ja käsittelemään GPU-kiihdytettyjen konttiympäristöjen kanssa. Sen ohjelmistovalikoima sisältää elementtejä, kuten työkuorman ajoituksen ja kiihdytinosion, joista jälkimmäinen mahdollistaa useiden työkuormien jakamisen yhdelle GPU:lle.

Nvidian mukaan Run:ai:n alusta tukee jo sen DGX-laskentaalustoja, mukaan lukien sen Superpod-kokoonpanot, Base Command -klusterinhallintajärjestelmä, NGC-konttikirjasto ja AI Enterprise -paketti.

Tekoälyn suhteen Kubernetes väittää, että sillä on useita etuja paljain metallin käyttöönotoihin verrattuna, koska ympäristö voidaan konfiguroida käsittelemään useiden, mahdollisesti maantieteellisesti hajautettujen resurssien skaalausta.

Toistaiseksi nykyisten Run:ai-asiakkaiden ei tarvitse huolehtia siitä, että Nvidia tekee suuria muutoksia alustaan. Jonkin sisällä vapauta, Nvidia sanoi jatkavansa Run:ain tuotteiden tarjoamista saman liiketoimintamallin mukaisesti lähitulevaisuudessa – mitä se sitten tarkoittaakaan.

Samaan aikaan Nvidian DGX Cloudin tilaajat saavat pääsyn Run:ai:n ominaisuusjoukkoihin tekoälytyökuormituksensa mukaan, mukaan lukien suurten kielimallien (LLM) käyttöönotot.

Ilmoitus tulee hieman yli kuukausi GPU-jättiläisen jälkeen paljastettiin uusi konttialusta tekoälymallien rakentamiseen nimeltä Nvidia Inference Microservices (NIM).

NIMS ovat pohjimmiltaan esikonfiguroituja ja optimoituja säilökuvia, jotka sisältävät mallin, olipa kyseessä sitten avoimen lähdekoodin versio tai oma versio, kaikkine riippuvuuksineen, joita tarvitaan sen käynnistämiseen.

Kuten useimmat kontit, NIM:itä voidaan ottaa käyttöön useissa eri ajoajoissa, mukaan lukien CUDA-kiihdytetyt Kubernetes-solmut.

LLM-yritysten ja muiden tekoälymallien muuttamisen mikropalveluiksi ajatuksena on, että ne voidaan verkottaa yhteen ja rakentaa monimutkaisempia ja monipuolisempia tekoälymalleja kuin muuten olisi mahdollista ilman erityistä mallia itse, tai ainakin Nvidia kuvittelee, että ihmiset käyttävät niitä.

Run:ai:n hankinnan myötä Nvidialla on nyt Kubernetes-orkesterikerros näiden NIM-laitteiden käyttöönoton hallintaan GPU-infrastruktuurissaan. ®

Keskustele kanssamme

Hei siellä! Kuinka voin olla avuksi?