PAGE TOP ▲

次世代AIプラットフォーム GRAPHCORE IPU

次世代AIプラットフォーム GRAPHCORE IPU(Intelligence Processing Unit)

GRAPHCORE(グラフコア)の第2世代Colossus™ MK2 IPUプロセッサ GC200は機械学習ワークロードで最大の性能を発揮するよう設計された新しいタイプの大規模並列プロセッサです。GC200は最も複雑なプロセッサですが、GRAPHCOREが合わせて提供するPoplarソフトウェアとIPU-M2000プラットフォームにより、利用者は容易にAIのブレークスルーを実現することができます。

第2世代Colossus™ MK2 IPUプロセッサ GC200
  • 1472のプロセッサコアと8832の並列スレッドで実現するMIMDアーキテクチャ
  • 900GBのIn-Processor Memory(SRAM)は47.5TB/sの超高速な帯域を提供

IPU-Machine:M2000

IPU-M2000

IPU-M2000は、第2世代IPUプロセッサ GC200を4基搭載したGRAPHCOREの中核となるハードウェアプラットフォームです。1Uシャーシに1ペタFLOPSのAIコンピュート機能、3.6GBのIn-Processor Memory(SRAM)、最大450GBのExchange Memory(DRAM)を搭載し、要求の厳しい機械学習ワークロードを処理します。ホストサーバやM2000同士の接続用に100Gbpsの高速・低遅延のインターフェイスを有しております。

IPU-M2000 AIインフラストラクチャの新しいコアとなるビルディングブロック
IPU-M2000紹介動画

スケーラビリティ

ホストサーバとIPU-M2000の1対1接続を最小構成とし、M2000 4台を相互接続したIPU-POD16、スイッチを介した16台構成のIPU-POD64と、需要に合わせて柔軟にシステムを拡張していくことができ、最大数千台といったスーパーコンピュータの規模まで拡張可能です。

拡張イメージ図:IPU-POD4 DA(1×IPU-M2000)→ IPU-POD16 DA(4×IPU-M2000 (direct attach))→ IPU-POD64 1host server(16×IPU-M2000)→ IPU-POD64 4host server → scaleout(Upto 16K×IPU-M2000)

Poplarソフトウェア

GRAPHCOREは、その革新的なIPUプラットフォームと合わせて、Poplarというソフトウェア群を提供します。Poplarがあれば、大規模なIPU環境でも、1台のマシンと同様の容易さで使うことができます。さらに、Poplarがすべてのスケーリングと最適化を行ってくれるので、ユーザはモデルとその結果に集中することができます。複数のユーザが異なるワークロードを同時に実行したい場合は、GRAPHCOREのVirtual-IPUソフトウェアを使い、AI計算を動的に共有することも可能です。

Poplarは、TensorFlow、PyTorch、ONNX、PaddlePaddleなどの標準的な機械学習フレームワーク、およびOpen BMC、Redfish、Dockerコンテナや、SlurmおよびKubernetesなどの業界標準のツールをサポートしているため、実用展開も容易です。

Poplarソフトウェア イメージ図

ベンチマーク

自然言語処理 - BERT

IPUは、様々な産業分野や事例において広く使われている各種の自然言語処理モデルにて非常に優れた性能を発揮します。BERT-Largeモデルでは、IPU-POD64は最新のGPUと比べて学習時間を大幅に短縮できます。

BERT-Large:TTT (time-to-train)
ベンチマーク:BERT-Largeモデル

画像認識 - EfficientNet

視覚探索エンジンや医療用画像処理といった事例においては、できるだけ小さい遅延で高いスループットを実現することが重要です。EfficientNetのような、より高い精度と効率性を実現した新しいコンピュータビジョンモデルの学習と推論の両方において、IPUは比類のない性能を発揮します。

EfficientNet B4:Training
ベンチマーク:EfficientNet-B4モデル
EfficientNet-B0:Inference
ベンチマーク:EfficientNet-B0モデル

GRAPHCORE IPU ご紹介動画

pdf印刷カタログ(1,427 KB)