HyperAI
HyperAI
メイン
ホーム
GPU
コンソール
ドキュメント
料金
パルス
ニュース
リソース
論文
ノートブック
データセット
Wiki
ベンチマーク
SOTA
LLMモデル
GPUランキング
コミュニティ
イベント
ユーティリティ
検索
概要
利用規約
プライバシーポリシー
日本語
HyperAI
HyperAI
Toggle Sidebar
⌘
K
Command Palette
Search for a command to run...
サインイン
HyperAI
GPU リーダーボード
GPU リーダーボード
機械学習およびAIワークロードのGPUパフォーマンスベンチマークを比較
GPUデータベース
(29 GPU)
Compare
AMD Instinct™ MI355X
Jun 2025にリリース
CDNA4
288 GB HBM3E
1,024
1400W
8.19 TB/s
FP16
157.3
FP32
157.3
FP64
78.6
Compare
NVIDIA RTX PRO 6000 Blackwell Server
Mar 2025にリリース
NVIDIA Blackwell 2.0
96 GB GDDR7
24,064
600W
1597 GB/s
FP16
126
FP32
126
FP64
1.968
Compare
NVIDIA GeForce RTX 5090
Jan 2025にリリース
NVIDIA Blackwell
32 GB GDDR7
21,760
575W
1.79 TB/s
FP16
104.8
FP32
104.8
FP64
1.64
Compare
NVIDIA H200 SXM 141 GB
Nov 2024にリリース
NVIDIA Hopper
141 GB HBM3
16,896
700W
4.8 TB/s
FP16
267.6
FP32
67
FP64
34
Compare
NVIDIA H200 NVL
Nov 2024にリリース
NVIDIA Hopper
141 GB HBM3
16,896
600W
4.89 TB/s
FP16
241.3
FP32
60
FP64
30
Compare
AMD Instinct™ MI325X
Oct 2024にリリース
CDNA™ 3
256 GB HBM3E
1,216
1000W
10.3 TB/s
FP32
653.7
FP64
163.4
Compare
NVIDIA B200
Mar 2024にリリース
NVIDIA Blackwell
180 GB HBM3E
37,888
1000W
8.20 TB/s
FP16
2,382.4
FP32
74.45
FP64
74.44
Compare
AMD Instinct™ MI300X
Dec 2023にリリース
CDNA3
192 GB HBM3
1,216
750W
10.3 TB/s
FP8
2.61
FP16
1.3
FP32
163.4
FP64
163.4
Compare
Cloud AI 100 Ultra
Nov 2023にリリース
150W
548 GB/s
FP16
288
Compare
NVIDIA L40s
Aug 2023にリリース
NVIDIA Ada Lovelace
48 GB GDDR6
14,080
350W
864 GB/s
FP16
733
FP32
91.61
Compare
NVIDIA H100 PCIe 80 GB
Mar 2023にリリース
NVIDIA Hopper
80 GB HBM3
16,896
350W
2.04 TB/s
FP8
3,026
FP16
204.9
FP32
51.22
FP64
25.61
Compare
NVIDIA H100 PCIe 96 GB
Mar 2023にリリース
NVIDIA Hopper
96 GB HBM3
16,896
350W
3.35 TB/s
FP8
3,026
FP16
248.3
FP32
67
FP64
34
Compare
NVIDIA H100 SXM5 80 GB
Mar 2023にリリース
NVIDIA Hopper
80 GB HBM3
16,896
700W
3.35 TB/s
FP8
3,958
FP16
267.6
FP32
67
FP64
34
Compare
NVIDIA H100 SXM5 96 GB
Mar 2023にリリース
NVIDIA Hopper
96 GB HBM3
16,896
700W
3.36 TB/s
FP8
3,026
FP16
248.3
FP32
66.91
FP64
31.04
Compare
NVIDIA GeForce RTX 4090
Oct 2022にリリース
NVIDIA Ada Lovelace
24 GB GDDR6X
16,384
450W
1.01 TB/s
FP16
82.58
FP32
82.58
FP64
1.29
Compare
NVIDIA L40
Oct 2022にリリース
NVIDIA Ada Lovelace
48 GB GDDR6
14,080
300W
864 GB/s
FP16
90.52
FP32
90.52
FP64
1.41
Compare
Intel Gaudi 2
May 2022にリリース
Gaudi 2
96 GB HBM2e
6,144
600W
2451.5 GB/s
FP16
11
FP32
5.5
Compare
AMD Instinct™ MI250
Nov 2021にリリース
CNDA2
128 GB HBM2E
880
500W
3.28 TB/s
FP16
362.1
FP32
45.3
FP64
45.3
Compare
NVIDIA A100 PCIe 80 GB
Jun 2021にリリース
NVIDIA Ampere
80 GB HBM2E
6,912
300W
1.94 TB/s
FP16
77.97
FP32
19.49
FP64
9.75
Compare
NVIDIA RTX A6000
Mar 2021にリリース
NVIDIA Ampere
48 GB GDDR6
10,752
300W
768.0 GB/s
FP16
38
FP32
38.71
FP64
0.6
Compare
NVIDIA A100 SXM4 80 GB
Nov 2020にリリース
NVIDIA Ampere
80 GB HBM2E
6,912
400W
2.04 TB/s
FP16
77.97
FP32
19.49
FP64
9.75
Compare
NVIDIA A40 PCIe
Oct 2020にリリース
NVIDIA Ampere
48 GB GDDR6
10,752
300W
695.8 GB/s
FP16
37.42
FP32
37.42
FP64
0.58
Compare
NVIDIA GeForce RTX 3090
Sep 2020にリリース
NVIDIA Ampere
24 GB GDDR6X
10,496
350W
936.2 GB/s
FP16
35.58
FP32
35.58
FP64
0.56
Compare
NVIDIA A100 PCIe 40 GB
Jun 2020にリリース
NVIDIA Ampere
40 GB HBM2E
6,912
250W
1.56 TB/s
FP16
77.97
FP32
19.49
FP64
9.75
1
2
Compare
HyperAI
HyperAI
メイン
ホーム
GPU
コンソール
ドキュメント
料金
パルス
ニュース
リソース
論文
ノートブック
データセット
Wiki
ベンチマーク
SOTA
LLMモデル
GPUランキング
コミュニティ
イベント
ユーティリティ
検索
概要
利用規約
プライバシーポリシー
日本語
HyperAI
HyperAI
Toggle Sidebar
⌘
K
Command Palette
Search for a command to run...
サインイン
HyperAI
GPU リーダーボード
GPU リーダーボード
機械学習およびAIワークロードのGPUパフォーマンスベンチマークを比較
GPUデータベース
(29 GPU)
Compare
AMD Instinct™ MI355X
Jun 2025にリリース
CDNA4
288 GB HBM3E
1,024
1400W
8.19 TB/s
FP16
157.3
FP32
157.3
FP64
78.6
Compare
NVIDIA RTX PRO 6000 Blackwell Server
Mar 2025にリリース
NVIDIA Blackwell 2.0
96 GB GDDR7
24,064
600W
1597 GB/s
FP16
126
FP32
126
FP64
1.968
Compare
NVIDIA GeForce RTX 5090
Jan 2025にリリース
NVIDIA Blackwell
32 GB GDDR7
21,760
575W
1.79 TB/s
FP16
104.8
FP32
104.8
FP64
1.64
Compare
NVIDIA H200 SXM 141 GB
Nov 2024にリリース
NVIDIA Hopper
141 GB HBM3
16,896
700W
4.8 TB/s
FP16
267.6
FP32
67
FP64
34
Compare
NVIDIA H200 NVL
Nov 2024にリリース
NVIDIA Hopper
141 GB HBM3
16,896
600W
4.89 TB/s
FP16
241.3
FP32
60
FP64
30
Compare
AMD Instinct™ MI325X
Oct 2024にリリース
CDNA™ 3
256 GB HBM3E
1,216
1000W
10.3 TB/s
FP32
653.7
FP64
163.4
Compare
NVIDIA B200
Mar 2024にリリース
NVIDIA Blackwell
180 GB HBM3E
37,888
1000W
8.20 TB/s
FP16
2,382.4
FP32
74.45
FP64
74.44
Compare
AMD Instinct™ MI300X
Dec 2023にリリース
CDNA3
192 GB HBM3
1,216
750W
10.3 TB/s
FP8
2.61
FP16
1.3
FP32
163.4
FP64
163.4
Compare
Cloud AI 100 Ultra
Nov 2023にリリース
150W
548 GB/s
FP16
288
Compare
NVIDIA L40s
Aug 2023にリリース
NVIDIA Ada Lovelace
48 GB GDDR6
14,080
350W
864 GB/s
FP16
733
FP32
91.61
Compare
NVIDIA H100 PCIe 80 GB
Mar 2023にリリース
NVIDIA Hopper
80 GB HBM3
16,896
350W
2.04 TB/s
FP8
3,026
FP16
204.9
FP32
51.22
FP64
25.61
Compare
NVIDIA H100 PCIe 96 GB
Mar 2023にリリース
NVIDIA Hopper
96 GB HBM3
16,896
350W
3.35 TB/s
FP8
3,026
FP16
248.3
FP32
67
FP64
34
Compare
NVIDIA H100 SXM5 80 GB
Mar 2023にリリース
NVIDIA Hopper
80 GB HBM3
16,896
700W
3.35 TB/s
FP8
3,958
FP16
267.6
FP32
67
FP64
34
Compare
NVIDIA H100 SXM5 96 GB
Mar 2023にリリース
NVIDIA Hopper
96 GB HBM3
16,896
700W
3.36 TB/s
FP8
3,026
FP16
248.3
FP32
66.91
FP64
31.04
Compare
NVIDIA GeForce RTX 4090
Oct 2022にリリース
NVIDIA Ada Lovelace
24 GB GDDR6X
16,384
450W
1.01 TB/s
FP16
82.58
FP32
82.58
FP64
1.29
Compare
NVIDIA L40
Oct 2022にリリース
NVIDIA Ada Lovelace
48 GB GDDR6
14,080
300W
864 GB/s
FP16
90.52
FP32
90.52
FP64
1.41
Compare
Intel Gaudi 2
May 2022にリリース
Gaudi 2
96 GB HBM2e
6,144
600W
2451.5 GB/s
FP16
11
FP32
5.5
Compare
AMD Instinct™ MI250
Nov 2021にリリース
CNDA2
128 GB HBM2E
880
500W
3.28 TB/s
FP16
362.1
FP32
45.3
FP64
45.3
Compare
NVIDIA A100 PCIe 80 GB
Jun 2021にリリース
NVIDIA Ampere
80 GB HBM2E
6,912
300W
1.94 TB/s
FP16
77.97
FP32
19.49
FP64
9.75
Compare
NVIDIA RTX A6000
Mar 2021にリリース
NVIDIA Ampere
48 GB GDDR6
10,752
300W
768.0 GB/s
FP16
38
FP32
38.71
FP64
0.6
Compare
NVIDIA A100 SXM4 80 GB
Nov 2020にリリース
NVIDIA Ampere
80 GB HBM2E
6,912
400W
2.04 TB/s
FP16
77.97
FP32
19.49
FP64
9.75
Compare
NVIDIA A40 PCIe
Oct 2020にリリース
NVIDIA Ampere
48 GB GDDR6
10,752
300W
695.8 GB/s
FP16
37.42
FP32
37.42
FP64
0.58
Compare
NVIDIA GeForce RTX 3090
Sep 2020にリリース
NVIDIA Ampere
24 GB GDDR6X
10,496
350W
936.2 GB/s
FP16
35.58
FP32
35.58
FP64
0.56
Compare
NVIDIA A100 PCIe 40 GB
Jun 2020にリリース
NVIDIA Ampere
40 GB HBM2E
6,912
250W
1.56 TB/s
FP16
77.97
FP32
19.49
FP64
9.75
1
2
Compare