NVIDIA H200 GPU 是人工智能領(lǐng)域備受期待的下一個(gè)產(chǎn)品。NVIDIA 展示了 H200 的一些出色規(guī)格,其內(nèi)存容量幾乎是其前代產(chǎn)品的兩倍。和H100一樣, 兩款 GPU 均基于強(qiáng)大的Hopper 架構(gòu),針對(duì)更大的 AI 和 HPC 工作負(fù)載進(jìn)行了增強(qiáng)。那么NVIDIA H100 與 H200 GPU有什么不同?下面全面比較一下。
一、NVIDIA H100 與 H200 基準(zhǔn)測(cè)試
H100 令人印象深刻,而 H200 則進(jìn)一步提升了其功能。它是第一款采用HBM3e 內(nèi)存,內(nèi)存容量為 141 GB,幾乎是 H100 的兩倍。增加的內(nèi)存大小對(duì)于 AI 來說意義重大,因?yàn)樗试S將更大的模型和數(shù)據(jù)集直接存儲(chǔ)在 GPU 上,從而減少與數(shù)據(jù)傳輸相關(guān)的延遲。
H200 的 4.8 TB/s 內(nèi)存帶寬較 H100 的 3.35 TB/s 有了顯著提升,表明其能夠更快地將數(shù)據(jù)傳輸?shù)教幚砗诵?,這對(duì)于需要高吞吐量的工作負(fù)載至關(guān)重要。
對(duì)于內(nèi)存密集型 HPC 任務(wù)(如天氣建模),H200 的卓越內(nèi)存帶寬意味著數(shù)據(jù)可以在 GPU 內(nèi)存和處理核心之間更自由地流動(dòng),從而減少瓶頸并縮短洞察時(shí)間。據(jù)報(bào)道,HPC 任務(wù)的性能提升高達(dá) 110 倍,這表明 H200 具有處理高度復(fù)雜模擬的潛力,使研究人員和工程師能夠在更短的時(shí)間內(nèi)取得更多成果。
H200 在 FP64 和 FP32 操作中保持與 H100 相同的性能指標(biāo)。FP8 和 INT8 性能也沒有區(qū)別,每個(gè)類別均為 3,958 TFLOPS。這仍然令人印象深刻,因?yàn)?INT8 精度在計(jì)算效率和模型精度之間取得了平衡,并且通常用于計(jì)算資源非常寶貴的邊緣設(shè)備。
H200 不僅性能增強(qiáng),而且能耗水平與 H100 相同。50%減少能源用于 LLM 任務(wù),再加上加倍的內(nèi)存帶寬,可將其總體擁有成本 (TCO) 降低 50%。
二、H200 比 H100 快多少?
NVIDIA H200 GPU 的性能優(yōu)于 H100,在特定生成式 AI 和 HPC(高性能計(jì)算)基準(zhǔn)測(cè)試中性能提升高達(dá) 45%。這一改進(jìn)主要?dú)w功于 H200 的 HBM3e 增強(qiáng)內(nèi)存容量和更大的內(nèi)存帶寬,以及熱管理方面的優(yōu)化。性能增強(qiáng)的確切程度可能因特定工作負(fù)載和設(shè)置而異。
三、NVIDIA H100 與 H200 MLPerf 推理基準(zhǔn)測(cè)試
讓我們看看 NVIDIA H100 與 NVIDIA H200 的比較MLPerf 推理分析。
以下是 H100 與 H200 在處理推理任務(wù)方面的比較,我們通過查看它們?cè)谔囟〞r(shí)間范圍內(nèi)可以生成多少個(gè) token 來進(jìn)行對(duì)比。這種方法為評(píng)估它們的性能提供了一個(gè)實(shí)用的指標(biāo),尤其是在與自然語言處理相關(guān)的任務(wù)中:
根據(jù)MLPerf Inference v4.0 性能基準(zhǔn)規(guī)定Llama 2 70B 型號(hào)。其中,H100在離線場(chǎng)景下達(dá)到了22290個(gè)代幣/秒的吞吐量,H200在相同場(chǎng)景下達(dá)到了31712個(gè)代幣/秒的吞吐量,性能大幅提升。
在服務(wù)器場(chǎng)景下,H100 達(dá)到了 21504 個(gè) token/秒,而 H200 達(dá)到了 29526 個(gè) token/秒,這意味著在服務(wù)器場(chǎng)景下,H200 的吞吐量比 H100 提高了 37%,性能提升非常明顯。在離線場(chǎng)景下,也有明顯的提升。
造成這種情況的原因歸結(jié)為以下幾點(diǎn):
1、H200 的內(nèi)存和帶寬提升:
與 H100 相比,H200 的內(nèi)存更大(141GB),帶寬更高(4.8 TB/s),分別約為 H100 的 1.8 倍和 1.4 倍。這有助于 H200 比 H100 容納更大的數(shù)據(jù)量,從而減少不斷從較慢的外部內(nèi)存中獲取數(shù)據(jù)的需要。更高的帶寬允許內(nèi)存和 GPU 之間更快地傳輸數(shù)據(jù)。
有了這些,H200 可以處理大型任務(wù),而無需張量并行(拆分?jǐn)?shù)據(jù))或管道并行(分階段處理)等復(fù)雜技術(shù)。
2、提高推理吞吐量:
由于沒有內(nèi)存和通信瓶頸,H200 可以將更多的處理能力用于計(jì)算,從而加快推理速度。Llama 測(cè)試的基準(zhǔn)測(cè)試證明了這一優(yōu)勢(shì),即使在與 H100 相同的功率水平 (700W TDP) 下,H200 也能實(shí)現(xiàn)高達(dá) 28% 的提升。
3、性能提升:
基準(zhǔn)測(cè)試顯示,當(dāng)功耗配置為 1000W 時(shí),H200 在 Llama 測(cè)試中的表現(xiàn)比 H100 提高了 45%。
這些比較凸顯了 H200 GPU 相對(duì)于 H100 所取得的技術(shù)進(jìn)步和性能增強(qiáng),特別是在通過更大的內(nèi)存容量、更高的內(nèi)存帶寬和改進(jìn)的熱管理來處理像 Llama 2 70B 這樣的生成式 AI 推理工作負(fù)載的需求方面。
隨著 GPU 技術(shù)快速發(fā)展,未來保障是一個(gè)重要問題。H200 和 H100 雖然目前處于領(lǐng)先地位,但可能很快就會(huì)被新型號(hào)所取代。用戶需要考慮升級(jí)途徑和這些 GPU 的潛在過時(shí)性,權(quán)衡投資最新技術(shù)的好處與在不久的將來需要再次升級(jí)的可能性。