Xlera8

DoE otrzymuje najnowszy neuromorficzny mózg w pudełku firmy Intel

Intel Labs revealed its largest neuromorphic computer on Wednesday, a 1.15 billion neuron system, which it reckons is roughly analogous to an owl’s brain.

Ale nie martw się, Intel nie odtworzył Fallouta Robobrain. Zamiast sieci organicznych neuronów i synaps, Hala Point firmy Intel emuluje je wszystkie w krzemie.

Przy mocy około 20 W nasze mózgi są zaskakująco wydajne w przetwarzaniu dużych ilości informacji napływających w dowolnym momencie z każdego zmysłu. Dziedzina neuromorfiki, którą Intel i IBM spędziły ostatnie kilka lat na badaniu, ma na celu emulację sieci neuronów i synaps w mózgu w celu zbudowania komputerów zdolnych do przetwarzania informacji wydajniej niż tradycyjne akceleratory.

How efficient? According to Intel, its latest system – delivered to Sandia National Labs in the US – is a 6U box roughly the size of a microwave that consumes 2,600 W, can reportedly achieve deep neural network efficiencies as high as 15 TOPS/W at 8-bit precision. To put that in perspective, Nvidia’s most powerful system, the Blackwell-based GB200 NVL72, which has yet to even ship, zarządza zaledwie 6 TOPS/W przy INT8, podczas gdy obecne systemy DGX H100 mogą zarządzać około 3.1 TOPS/W.

Naukowcy z Sandia National Labs odbierają neuromorficzny komputer Intela o liczbie 1.15 miliarda neuronów Hala Point

Naukowcy z Sandia National Labs odbierają neuromorficzny komputer Intela Hala Point zawierający 1.15 miliarda neuronów – kliknij, aby powiększyć

Tę wydajność osiąga się przy użyciu 1,152 procesorów Intel Loihi 2, które są połączone w trójwymiarową siatkę, co daje w sumie 1.15 miliarda neuronów, 128 miliardów synaps, 140,544 2,300 rdzeni przetwarzających i 86 wbudowanych rdzeni xXNUMX, które obsługują dodatkowe obliczenia niezbędne do trzymaj tę rzecz dalej.

Żeby było jasne, nie są to typowe rdzenie x86. „Są to bardzo, bardzo proste, małe rdzenie x86. W niczym nie przypominają naszych najnowszych rdzeni czy procesorów Atom” – powiedział Mike Davies, dyrektor ds. obliczeń neuromorficznych w firmie Intel Rejestr.

Jeśli Loihi 2 dzwoni, dzieje się tak dlatego, że chip został pukanie od jakiegoś czasu zadebiutował w 2021 roku jako jeden z pierwszych chipów wyprodukowanych przy użyciu technologii procesowej Intela 7 nm.

Intel twierdzi, że pomimo swojego wieku systemy oparte na Loihi są w stanie rozwiązywać niektóre problemy związane z wnioskowaniem i optymalizacją AI nawet 50 razy szybciej niż konwencjonalne architektury procesorów i procesorów graficznych, zużywając przy tym 100 razy mniej energii. Wygląda na to, że takie liczby były osiągnięty [PDF] poprzez podłączenie pojedynczego chipa Loihi 2 do maleńkiego procesora Jetson Orin Nano firmy Nvidia i procesora Core i9 i9-7920X.

Nie wyrzucaj jeszcze swoich procesorów graficznych

Choć może to brzmieć imponująco, Davies przyznaje, że jego akceleratory neuromorficzne nie są jeszcze gotowe do zastąpienia procesorów graficznych przy każdym obciążeniu. „W żadnym wypadku nie jest to akcelerator sztucznej inteligencji ogólnego przeznaczenia” – stwierdził.

Po pierwsze, prawdopodobnie najpopularniejsza aplikacja sztucznej inteligencji, modele dużych języków (LLM) obsługujące aplikacje takie jak ChatGPT, nie będą działać w Hala Point, przynajmniej jeszcze nie.

„W tej chwili nie mapujemy żadnego LLM do Hala Point. Nie wiemy jak to zrobić. Szczerze mówiąc, w dziedzinie badań neuromorficznych nie ma neuromorficznej wersji transformatora” – powiedział Davies, zauważając, że przeprowadzono kilka interesujących badań nad tym, jak można to osiągnąć.

Powiedziawszy to, zespół Daviesa z sukcesem uruchomił tradycyjne głębokie sieci neuronowe, wielowarstwowy perceptron, na Hala Point, z pewnymi zastrzeżeniami.

„Jeśli uda się ograniczyć aktywność sieci i przewodność w niej, można osiągnąć naprawdę duże korzyści” – powiedział. „Oznacza to, że musi przetwarzać ciągły sygnał wejściowy… strumień wideo lub strumień audio, czyli coś, w czym istnieje pewna korelacja między próbkami”.

Laboratoria Intel zademonstrowały w artykule potencjał Loihi 2 w zakresie przetwarzania wideo i audio opublikowany [PDF] pod koniec ubiegłego roku. Testy wykazały, że chip osiągnął znaczny wzrost efektywności energetycznej, opóźnień i przepustowości przetwarzania sygnału, czasami przekraczający trzy rzędy wielkości w porównaniu z konwencjonalnymi architekturami. Jednak największe korzyści osiągnięto kosztem niższej dokładności.

Możliwość przetwarzania danych w czasie rzeczywistym przy niskim poborze mocy i niskim opóźnieniu uczyniła tę technologię atrakcyjną w zastosowaniach takich jak pojazdy autonomiczne, drony i robotyka.

Innym obiecującym przypadkiem użycia są problemy optymalizacji kombinatorycznej, takie jak planowanie trasy dla pojazdu dostawczego, który musi poruszać się po ruchliwym centrum miasta.

Rozwiązanie tych zadań jest niezwykle skomplikowane, ponieważ niewielkie zmiany, takie jak prędkość pojazdu, wypadki i zamknięcia pasów ruchu, muszą być uwzględniane na bieżąco. Konwencjonalne architektury obliczeniowe nie są dobrze dostosowane do tego rodzaju wykładniczej złożoności, dlatego widzieliśmy tak wielu dostawców obliczeń kwantowych kierowania problemy z optymalizacją.

Jednak Davies twierdzi, że neuromorficzna platforma obliczeniowa Intela jest „znacznie bardziej dojrzała niż inne eksperymentalne alternatywy badawcze”.

Pokój do wzrostu

Według Daviesa nadal jest mnóstwo miejsca do odblokowania. „Z przykrością muszę stwierdzić, że do dziś nie jest on w pełni wykorzystany ze względu na ograniczenia oprogramowania” – powiedział o chipach Loihi 2.

Identyfikacja wąskich gardeł sprzętowych i optymalizacja oprogramowania to jeden z powodów, dla których laboratoria Intel wdrożyły prototyp w Sandii.

„Zrozumienie ograniczeń, zwłaszcza na poziomie sprzętu, jest bardzo ważną częścią wprowadzenia tych systemów na rynek” – powiedział Davies. „Możemy naprawić problemy sprzętowe, możemy je ulepszyć, ale musimy wiedzieć, w jakim kierunku należy dokonać optymalizacji”.

Nie byłby to pierwszy raz, kiedy zwolennicy Sandii dostali w swoje ręce technologię neuromorficzną Intela. W papierze opublikowany na początku 2022 r. badacze odkryli, że technologia ta ma potencjał w zakresie HPC i sztucznej inteligencji. Jednak w eksperymentach tych wykorzystano chipy Loihi pierwszej generacji Intela, które mają mniej więcej jedną ósmą neuronów (128,000 1 w porównaniu z XNUMX milionem) ich następcy. ®

Czat z nami

Cześć! Jak mogę ci pomóc?