AMD MI200 "Aldebaran" Memory Size of 128GB Per Package Confirmed(techPowerUp!)
AMD Instinct MI200 to feature 128GB per GPU(VideoCardz)
Radeon Instinct MI200 Accelerator Gets 128GB HBM2e(Guru3D)
AMD Instinct MI200 Mi-Next GPUs To Pair With Insane 128GB Of Memory(HotHardware)
Pawsey Prepares for the Data Deluge from the Square Kilometre Array(HPCWire)
Pawsey SuperComputingがAMDの第3世代EPYC―“Milan”とAMDの次世代“MI-Next GPU”からなるSuper Computer―“Setonix”を計画している。
“Setonix”の構成は20000以上の“Milan”と750基以上の“MI-Next GPU”で構成される。そしてその“MI-Next GPU”はおそらくCDNA 2を採用するInstinct MI200と推定される。そしてPawseyが明らかにした“Setonix”の概要の中で、Instinct MI200が1パッケージあたり128GBのVRAM―おそらくはHBM2eを搭載することを明らかにしている。
AMD Instinct MI200 to feature 128GB per GPU(VideoCardz)
Radeon Instinct MI200 Accelerator Gets 128GB HBM2e(Guru3D)
AMD Instinct MI200 Mi-Next GPUs To Pair With Insane 128GB Of Memory(HotHardware)
Pawsey Prepares for the Data Deluge from the Square Kilometre Array(HPCWire)
Pawsey SuperComputingがAMDの第3世代EPYC―“Milan”とAMDの次世代“MI-Next GPU”からなるSuper Computer―“Setonix”を計画している。
“Setonix”の構成は20000以上の“Milan”と750基以上の“MI-Next GPU”で構成される。そしてその“MI-Next GPU”はおそらくCDNA 2を採用するInstinct MI200と推定される。そしてPawseyが明らかにした“Setonix”の概要の中で、Instinct MI200が1パッケージあたり128GBのVRAM―おそらくはHBM2eを搭載することを明らかにしている。
CDNA 2世代のアクセラレータであるInstinct MI200は“Aldebaran”とも呼ばれる。そしてこれまでの情報で、Instinct MI200は2ダイを使用したMulti-chip-module (MCM) 構成になることされている。VideoCardzに“Aldebaran”のブロックダイアグラムが掲載されており、1つのダイに16 CUからなるShader Engineのブロックが8つ(2つブロックが1つのクラスタを形成しいているようにも見える)、合計128 CUが搭載される。そして1つのダイにはHBM2e 16GBが4 stack、合計64GBが接続される。この時点でなかなか強力な構成であるが、Instinct MI 200はこれが2ダイ搭載され、1つのInstinct MI200のCompute Unit数は256、VRAMはHBM2e 128GBとなる。
・・・タイムライン上には何故かTesla V100を持っている人がたまに出現するが、流石にInstinct MI100は見たことがない(そもそも個人で買える代物なのだろうか?)。ましてやこのInstinct MI200はPCI-Expressカード形状ではなさそうなので、流石にこれに突撃する猛者はいないだろう。

≪“Ice Lake-U”、“Commet Lake-U”、“Lakefield”がEnd of Life (EOL) へ
| ホーム |
20-coreの“Sapphire Rapids”がGeekBenchに姿を現す≫
この記事へのコメント
正直HBMがここまできのこるとは思わなんだ
すまなかった
すまなかった
2021/07/07(Wed) 01:20 | URL | LGA774 #-[ 編集]
128GB…
HBMでこの値はバグってるとしか思えない…
HBMでこの値はバグってるとしか思えない…
2021/07/07(Wed) 02:13 | URL | LGA774 #-[ 編集]
まあ、流石に2eでHBMも終わりだと思うけどね
2021/07/07(Wed) 21:59 | URL | LGA774 #-[ 編集]
画面表示しないのに「VRAM」て
違和感ある
違和感ある
2021/07/08(Thu) 02:41 | URL | LGA774 #-[ 編集]
この手のデバイスは一度消えても何度でも蘇ると思う。
コストを除けば消費電力・性能・実装面積で需要はあるんだよ。
まぁ、そのコストが重要なんだが…。
コストを除けば消費電力・性能・実装面積で需要はあるんだよ。
まぁ、そのコストが重要なんだが…。
2021/07/08(Thu) 03:13 | URL | LGA774 #-[ 編集]
HBMは面積小さくしやすいですから小型化に向かってる今のニーズにあってるんですよね
2021/07/08(Thu) 06:54 | URL | LGA774 #-[ 編集]
HBMがニッチ市場向けに特化してるのは事実だけど、需要がなくなるとは思えんのだが。
価格性能比を重視ならGDRRなりLPDDRなり他にも選択肢はあるけど、絶対性能が必要な市場向けには今のところ他には選択肢が無いような。
数が出る市場で普及しないからコストダウンが進まないのは、ニッチ製品では割り切りが必要だと思うぞ。
価格性能比を重視ならGDRRなりLPDDRなり他にも選択肢はあるけど、絶対性能が必要な市場向けには今のところ他には選択肢が無いような。
数が出る市場で普及しないからコストダウンが進まないのは、ニッチ製品では割り切りが必要だと思うぞ。
HBMがDDRを淘汰し主流のメインメモリとなるとか言う話はどうなったんだっけ?
2021/07/08(Thu) 17:04 | URL | LGA774 #-[ 編集]
HBM3は2022年Q4だそうだが余程大容量化するか実装面積が厳しくない限り
GPUではGDDRをパラにしたほうが安上がりだろうな。
逆にサーバ用のCPUではパッケージにHBMキャッシュ載せるのが一般化しそうな気がするが。
GPUではGDDRをパラにしたほうが安上がりだろうな。
逆にサーバ用のCPUではパッケージにHBMキャッシュ載せるのが一般化しそうな気がするが。
2021/07/08(Thu) 20:23 | URL | LGA774 #-[ 編集]