エクスレラ8

Google AI 計算ノード用に選択された SiFive RISC-V コア

RISC-V チップ ビジネスの SiFive によると、同社のプロセッサは、Google のデータセンターで AI ワークロードをある程度管理するために使用されています。

SiFive によると、問題のプロセッサはそのインテリジェンスです。 X280、ベクトル拡張機能を備えたマルチコア RISC-V 設計で、データセンターの AI/ML アプリケーション向けに最適化されています。 Google の Tensor Processing Units (TPU)、これにより、機械学習ワークロードのプログラミングの柔軟性が向上すると主張されています。

基本的に、X280 の汎用 RV64 コアは、デバイスを管理するプロセッサ実行コードを実行し、ジョブを完了するために必要に応じて機械学習計算を Google の MXU にフィードします。 X280 には、アクセラレータ ユニットでは処理できない演算を処理できる独自のベクトル演算ユニットも含まれています。

SiFive と Google は、おそらく商業的な理由で、これがどのようにパッケージ化され、使用されるかについて少し恥ずかしがり屋でした. Google が設計した MXU ブロックを RISC-V コア コンプレックスに直接接続します。 これらのチップは、Google のデータセンター、SiFive によると「AI 計算ホスト」で使用され、機械学習作業を高速化します。

これらが本番環境で使用される場合、これらのチップはサービス内のタスクを処理していると想像できます。 従来の x86、Arm、TPU、GPU 技術を搭載した AI 最適化仮想マシンを提供する Google Cloud で、このハードウェアを直接レンタルすることはできません。

詳細は、今月初めにシリコン バレーで開催された AI ハードウェア サミットで公開されました。 SiFive のブログ投稿 今週。

SiFive によると、X280 の導入後、アクセラレータが実行するように設計されていないすべてのハウスキーピングおよび汎用処理タスクを処理するために、一部の顧客が XXNUMX をアクセラレータと一緒にコンパニオン コアとして使用し始めたことに気付きました。

多くの企業が、アクセラレータを管理するにはフル機能のソフトウェア スタックが必要であることに気付き、顧客は、大型アクセラレータの隣に X280 コア コンプレックスを配置することでこれを解決できることに気付きました。RISC-V CPU コアはすべてのメンテナンスを処理し、操作コード、大きなアクセラレータではできない数学演算の実行、およびその他のさまざまな機能の提供。 基本的に、X280 はアクセラレータの一種の管理ノードとして機能します。

これを利用するために、SiFive は Google などの顧客と協力して、Vector Coprocessor Interface eXtension (VCIX) と呼ばれるものを開発しました。これにより、顧客はアクセラレータを X280 のベクトル レジスタ ファイルに直接緊密にリンクし、パフォーマンスの向上とより多くのデータを提供できます。帯域幅。

Asanović 氏によると、利点は、顧客が独自のコプロセッサを RISC-V エコシステムに持ち込んで、完全なソフトウェア スタックとプログラミング環境を実行できることです。完全な仮想メモリとキャッシュ コヒーレント サポートを備えた Linux を、汎用 CPU コアとアクセラレーション ユニットの組み合わせ。

Google の観点からは、独自のアプリケーション プロセッサをゼロから作成するのに時間を無駄にするのではなく、TPU テクノロジのファミリの改善に集中したかったため、これらのアクセラレーション機能を既製の汎用プロセッサと組み合わせることが正しい方法のように思えました。ヤングによれば、行くために。

VCIX は基本的に MXU を低レイテンシで RISC-V コアに接着し、メモリ、キャッシュ、または PCIe を介して CPU とアクセラレーション ユニットの間でデータをやり取りするために待機する多くのサイクルを費やす必要性をスキップします。 代わりに、ベクトル レジスタへのアクセスは数十サイクルしかないと言われています。 これは、RISC-V CPU コンプレックスとカスタム アクセラレータのすべてが、システム オン チップとしてパッケージ化された同じダイ上にあることも示唆しています。

アプリケーション コードは汎用 RISC-V コアで実行され、MXU によって高速化できる作業はすべて VCIX 経由で渡されます。 Young 氏によると、このアプローチには効率性だけでなく他の利点もあります。 プログラミング モデルが簡素化され、スカラー、ベクトル、およびコプロセッサ命令がインターリーブされた単一のプログラムになり、開発者が C/C++ またはアセンブラーでコーディングできる単一のソフトウェア ツールチェーンが可能になります。

「Google MXU と「ハイブリッド化」された SiFive VCIX ベースの汎用コアを使用すると、MXU のすべてのパフォーマンスと汎用のプログラマビリティを最大限に活用して、「ケーキを食べて食べる」ことができるマシンを構築できます。 CPU だけでなく、X280 プロセッサのベクトル パフォーマンスも同様です」と Young 氏は述べています。

このようなカスタム チップを作成する能力は、Google のようなハイパースケーラー、またはニッチな要件と豊富な資金を持つハイパースケーラーの領域にとどまる可能性がありますが、オープン エコシステム RISC-V モデルの柔軟性のおかげで何が達成できるかを示しています。 .

その柔軟性とオープン性は、カスタム コプロセッサを x86 チップまたは Arm に押し込むのではなく、新興アーキテクチャを使用するように、RISC-V の長年の支持者であり、RV コアを他の製品の一部で使用している Google を誘惑するのに十分であるように思われます。 -ライセンスを受けたデザイン。 ®

PS: Google の時代を思い出す おしゃべり データセンターで POWER CPU アーキテクチャーを使用するとどうなりますか?

私たちとチャット

やあ! どんな御用でしょうか?