次世代AIプラットフォーム GRAPHCORE IPU(Intelligence Processing Unit)
GRAPHCORE(グラフコア)の第2世代Colossus™ MK2 IPUプロセッサ GC200は機械学習ワークロードで最大の性能を発揮するよう設計された新しいタイプの大規模並列プロセッサです。GC200は最も複雑なプロセッサですが、GRAPHCOREが合わせて提供するPoplarソフトウェアとIPU-M2000プラットフォームにより、利用者は容易にAIのブレークスルーを実現することができます。

- ■1472のプロセッサコアと8832の並列スレッドで実現するMIMDアーキテクチャ
- ■900GBのIn-Processor Memory(SRAM)は47.5TB/sの超高速な帯域を提供
IPU-Machine:M2000

IPU-M2000は、第2世代IPUプロセッサ GC200を4基搭載したGRAPHCOREの中核となるハードウェアプラットフォームです。1Uシャーシに1ペタFLOPSのAIコンピュート機能、3.6GBのIn-Processor Memory(SRAM)、最大450GBのExchange Memory(DRAM)を搭載し、要求の厳しい機械学習ワークロードを処理します。ホストサーバやM2000同士の接続用に100Gbpsの高速・低遅延のインターフェイスを有しております。


スケーラビリティ
ホストサーバとIPU-M2000の1対1接続を最小構成とし、M2000 4台を相互接続したIPU-POD16、スイッチを介した16台構成のIPU-POD64と、需要に合わせて柔軟にシステムを拡張していくことができ、最大数千台といったスーパーコンピュータの規模まで拡張可能です。

Poplarソフトウェア
GRAPHCOREは、その革新的なIPUプラットフォームと合わせて、Poplarというソフトウェア群を提供します。Poplarがあれば、大規模なIPU環境でも、1台のマシンと同様の容易さで使うことができます。さらに、Poplarがすべてのスケーリングと最適化を行ってくれるので、ユーザはモデルとその結果に集中することができます。複数のユーザが異なるワークロードを同時に実行したい場合は、GRAPHCOREのVirtual-IPUソフトウェアを使い、AI計算を動的に共有することも可能です。
Poplarは、TensorFlow、PyTorch、ONNX、PaddlePaddleなどの標準的な機械学習フレームワーク、およびOpen BMC、Redfish、Dockerコンテナや、SlurmおよびKubernetesなどの業界標準のツールをサポートしているため、実用展開も容易です。

ベンチマーク
自然言語処理 - BERT
IPUは、様々な産業分野や事例において広く使われている各種の自然言語処理モデルにて非常に優れた性能を発揮します。BERT-Largeモデルでは、IPU-POD64は最新のGPUと比べて学習時間を大幅に短縮できます。

画像認識 - EfficientNet
視覚探索エンジンや医療用画像処理といった事例においては、できるだけ小さい遅延で高いスループットを実現することが重要です。EfficientNetのような、より高い精度と効率性を実現した新しいコンピュータビジョンモデルの学習と推論の両方において、IPUは比類のない性能を発揮します。

