Xlera8

Dzięki przejęciu Run:ai Nvidia zamierza zarządzać Twoimi AI K8

W środę Nvidia ogłosiła przejęcie Run:ai, dostawcy orkiestracji Kubernetes zorientowanego na sztuczną inteligencję, aby pomóc zwiększyć wydajność klastrów obliczeniowych zbudowanych na GPU.

Szczegóły dotyczące Transakcja nie zostały ujawnione, ale podobno wartość transakcji może wynosić około 700 milionów dolarów. Startup z Tel Awiwu ma widocznie Od momentu założenia w 118 r. zebrał 2018 mln dolarów w czterech rundach finansowania.

Platforma Run:ai zapewnia centralny interfejs użytkownika i płaszczyznę kontroli do pracy z różnymi popularnymi wariantami Kubernetes. To sprawia, że ​​przypomina trochę OpenShift firmy RedHat lub Rancher firmy SUSE i zawiera wiele takich samych narzędzi do zarządzania przestrzeniami nazw, profilami użytkowników i alokacją zasobów.

Kluczowa różnica polega na tym, że Run:ai zaprojektowano tak, aby integrował się z narzędziami i frameworkami AI innych firm oraz radził sobie ze środowiskami kontenerów przyspieszanymi przez GPU. Portfolio oprogramowania firmy obejmuje takie elementy, jak planowanie obciążenia i partycjonowanie akceleratorów, przy czym ten ostatni umożliwia rozłożenie wielu obciążeń na jednym procesorze graficznym.

Według Nvidii platforma Run:ai obsługuje już platformy obliczeniowe DGX, w tym konfiguracje Superpod, system zarządzania klastrami Base Command, bibliotekę kontenerów NGC i pakiet AI Enterprise.

Jeśli chodzi o sztuczną inteligencję, Kubernetes ma wiele zalet w porównaniu z wdrożeniami typu bare metal, ponieważ środowisko można skonfigurować tak, aby obsługiwało skalowanie wielu, potencjalnie rozproszonych geograficznie zasobów.

Na razie obecni klienci Run:ai nie muszą się martwić, że Nvidia wprowadzi poważne zmiany na platformę. W zwolnićNvidia oświadczyła, że ​​w najbliższej przyszłości będzie nadal oferować produkty Run:ai w ramach tego samego modelu biznesowego – cokolwiek to może oznaczać.

Tymczasem osoby subskrybujące chmurę DGX firmy Nvidia uzyskają dostęp do zestawu funkcji Run:ai dla swoich obciążeń AI, w tym wdrożeń modelu dużego języka (LLM).

Ogłoszenie następuje nieco ponad miesiąc po wydaniu giganta GPU odsłonięty nową platformę kontenerową do budowania modeli AI o nazwie Nvidia Inference Microservices (NIM).

NIMS to zasadniczo wstępnie skonfigurowane i zoptymalizowane obrazy kontenerów zawierające model, niezależnie od tego, czy jest to wersja open source, czy zastrzeżona, ze wszystkimi zależnościami niezbędnymi do jego uruchomienia.

Podobnie jak większość kontenerów, NIM można wdrażać w różnych środowiskach wykonawczych, w tym w węzłach Kubernetes z akceleracją CUDA.

Ideą przekształcania LLM i innych modeli sztucznej inteligencji w mikrousługi jest to, że można je połączyć w sieć i wykorzystać do tworzenia bardziej złożonych i bogatych w funkcje modeli sztucznej inteligencji, niż byłoby to możliwe bez samodzielnego przeszkolenia dedykowanego modelu, a przynajmniej tak Nvidia wyobraża sobie ludzi używających ich.

Wraz z przejęciem Run:ai, Nvidia dysponuje teraz warstwą orkiestracji Kubernetes do zarządzania wdrażaniem tych NIM-ów w infrastrukturze GPU. ®

Czat z nami

Cześć! Jak mogę ci pomóc?