AIGC行業(yè)市場前景及投資研究報告:液冷AI時代“光模塊”_第1頁
AIGC行業(yè)市場前景及投資研究報告:液冷AI時代“光模塊”_第2頁
AIGC行業(yè)市場前景及投資研究報告:液冷AI時代“光模塊”_第3頁
AIGC行業(yè)市場前景及投資研究報告:液冷AI時代“光模塊”_第4頁
AIGC行業(yè)市場前景及投資研究報告:液冷AI時代“光模塊”_第5頁
已閱讀5頁,還剩34頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

液冷,AI時代的下一個“光模塊”AIGC行業(yè)深度報告(16)2024年7月24日核心邏輯:

為什么說液冷是AI的下一個光模塊:

AI高速互聯(lián)時代,高算力與高效傳輸架構相匹配,從40G取代10G,100G取代40G,400G取代100G,800G取代400G,1.6T有望取代800G,升級之路永不停息;液冷已經(jīng)從“選配”到“必配”,高溫環(huán)境下,芯片內部的電子元件會因為長時間工作而受到損耗,從而縮短芯片的使用壽命,風冷的極限芯片散熱功率是800W,英偉達部分產(chǎn)品已經(jīng)突破風冷能力上線,例如GH200以及最新款B200、GB200

。此外單機柜密度來說,

2025年AI集群算力單機柜密度將有望到20-50kW,也遠遠超出了風冷的上限。政策為液冷市場扎入“強心劑”,國家政策對PUE值要求趨緊,呈逐年下降趨勢。

深度拆解液冷的核心價值鏈:液冷分為冷板式液冷,浸沒式液冷、噴淋式液冷,我們判斷冷板式液冷有望率先放量。根據(jù)我們的測算,2024、2025年我國的液冷市場規(guī)模分別為208.17、1700.23億元,同比增速分別為756.6%、716.8%。液冷散熱系統(tǒng)通常由至少兩個相互隔離的循環(huán)回路組成,一次側主要的散熱設備主要有三種:干冷器、冷卻塔和制冷機組,冷板式液冷的二次側組件包括:冷板組件、快速接頭QDC、機柜工藝冷媒供回歧管RCM、環(huán)路工藝冷媒供回歧管LCM、冷量分配單元CDU及工藝冷媒,相關公司有望在液冷趨勢下快速放量。

深度拆解液冷的受益公司類型:維諦技術(Vertiv)深度綁定英偉達從而邁向成長,公司2023年3月31日股價為11.75美元,公司2024年3月31日公司股價為81.67美元,我們判斷其背后的原因為由于AIGC爆發(fā),公司相關液冷數(shù)據(jù)中心產(chǎn)品業(yè)績迎來高增。我們將液冷產(chǎn)業(yè)鏈的受益公司簡單拆解為三類,分別是服務器內側端、液冷建設端、液冷基礎設施提供商;我們將服務器內側端定義為服務器內部的組件,可直接受益高功率AI芯片放量。液冷建設端,由于建設主體的不同,我們將液冷建設端分為液冷全鏈條式解決方案廠商、服務器廠商以及IDC廠商,每種類型廠商獨具優(yōu)勢。液冷基礎設施提供商即可提供相關液冷單獨產(chǎn)品,隨著液冷的升級換代,其相關產(chǎn)品有望量價齊升。

投資建議:在AI芯片架構升級的大趨勢下,高算力與高功耗相匹配,英偉達相關產(chǎn)品功耗已經(jīng)超過風冷極限,液冷已經(jīng)從“選配”到“必配”,受益標的為:服務器內側端:服務器內側端:飛榮達等;液冷建設端,全鏈條式解決:

英維克、申菱環(huán)境、高瀾股份等;液冷建設端,服務器廠商:

工業(yè)富聯(lián)、浪潮信息、曙光數(shù)創(chuàng)等;液冷建設端,IDC建設:潤澤科技、奧飛數(shù)據(jù)、數(shù)據(jù)港等;液冷基礎設施提供商:強瑞技術、淳中科技、朗威股份、川環(huán)科技、海鷗股份等;

風險提示:

核心技術水平升級不及預期的風險、AI倫理風險、政策推進不及預期的風險、中美貿易摩擦升級的風險。2目錄01液冷已經(jīng)從“選配”到“必配”02深度拆解液冷的核心價值鏈03梳理液冷產(chǎn)業(yè)鏈的受益公司04投資建議05風險提示301

液冷已經(jīng)從“選配”到“必配”41.1算力在大模型時代迎來爆發(fā),光模塊需求高增

大模型參數(shù)呈現(xiàn)指數(shù)規(guī)模,引爆海量算力需求:

根據(jù)財聯(lián)社和OpenAI數(shù)據(jù),ChatGPT浪潮下算力缺口巨大,根據(jù)OpenAI數(shù)據(jù),模型計算量增長速度遠超人工智能硬件算力增長速度,存在萬倍差距。運算規(guī)模的增長,帶動了對AI訓練芯片單點算力提升的需求,并對數(shù)據(jù)傳輸速度提出了更高的要求。根據(jù)智東西數(shù)據(jù),過去五年,大模型發(fā)展呈現(xiàn)指數(shù)級別,部分大模型已達萬億級別,因此對算力需求也隨之攀升。

大模型參數(shù)量的增長,數(shù)據(jù)中心互聯(lián)互通成為核心關鍵:在萬億級大數(shù)據(jù)的背景下,單卡/單服務器算力已經(jīng)無法支撐龐大模型的訓練,而芯片與芯片之間的互聯(lián)成為重中之重,集群的效應顯得尤為關鍵,因此在AI的大背景下,由于葉脊網(wǎng)絡架構中的服務器交換流量較大,因此服務器與交換機互聯(lián)的統(tǒng)一互聯(lián)互通的數(shù)據(jù)中心均使用光模塊,而光模塊傳輸速度越高,證明其互聯(lián)互通的效率也就越高,因此在整體算力芯片架構升級的大背景下,傳輸速率較高的光模塊成為當下的首選。近年大模型的參數(shù)規(guī)模增長趨勢光模塊細分市場預測51.1算力在大模型時代迎來爆發(fā),光模塊需求高增

AI高速互聯(lián)時代,高算力與高效傳輸架構相匹配:復盤英偉達數(shù)據(jù)中心芯片產(chǎn)品,其中明顯可以看到顯存帶寬與互聯(lián)互通傳輸速度的穩(wěn)定增長。AI高速互聯(lián)時代,高算力與高效傳輸架構相匹配架構型號規(guī)格英偉達Volta架構V100英偉達Turing架構T4英偉達Ampere架構V100sPCIeA100A800PCIePCIeSXM2PCIeSXMPCIeSXMNVIDIAAmpereNVIDIAAmpere芯片架構NVIDIAVoltaNVIDIAVoltaNVIDIAVoltaNVIDIATuringNVIDIAAmpere

NVIDIAAmpereNVIDIAAmpere顯存顯存帶寬32GB或16GBHBM2

32GB或16GBHBM232GBHBM21134GB/s8.2TFLOPS16GBGDDR6320GB/S80GBHBM2e1935GB/s80GBHBM2e2039GB/s40GBHBM2

80GBHBM2e1555GB/s

1935GB/s80GBHBM2e2039GB/s900GB/s7TFLOPS900GB/sFP64算力7.8TFLOPS254.4GFLOPS9.7TFLOPS19.5TFLOPS19.5TFLOPS9.7TFLOPS19.5TFLOPS19.5TFLOPS9.7TFLOPS

9.7TFLOPS19.5TFLOPS

19.5TFLOPS19.5TFLOPS

19.5TFLOPS9.7TFLOPS19.5TFLOPS19.5TFLOPSFP64TensorCoreFP32算力14TFLOPS15.7TFLOPS125TFLOPS16.4TFLOPS8.1TFLOPS65TFLOPSFP32算力(Tensor)TensorFloat32(TF32)TF32(TensorCore)FP16算力(TensorCore)BFLOAT16(TensorCore)FP8(TensorCore)INT8算力

(TensorCore)CUDA核心數(shù)量156TFLOPS312TFLOPS312TFLOPS312TFLOPS-156TFLOPS312TFLOPS312TFLOPS312TFLOPS-156TFLOPS

156TFLOPS312TFLOPS

312TFLOPS312TFLOPS

312TFLOPS312TFLOPS

312TFLOPS156TFLOPS312TFLOPS312TFLOPS312TFLOPS-112TFLOPS130TFLOPS--624TOPS6912432130TOPS2560320624TOPS624TOPS624TOPS624TOPS51206406912432TensorCores核心數(shù)量功耗250瓦300瓦211250瓦70瓦136300瓦400瓦250瓦300瓦542400瓦晶管數(shù)量(億)制成(nm)5427nm12nm12nm7nmNVLink:600GB/sPCIe4.0:64GB/sNVLink:600GB/sPCIe4.0:64GB/sNVLink:400GB/sPCIe4.0:64GB/sNVLink:400GB/sPCIe4.0:64GB/s互聯(lián)速度32GB/s300GB/s32GB/s32GB/S61.1算力在大模型時代迎來爆發(fā),光模塊需求高增

英偉達Blackwell架構發(fā)布,傳輸速率更上一層樓:可以看到英偉達Blackwell架構下的新品傳輸速率和顯存帶寬相較于Hopper架構有顯著提升;AI高速互聯(lián)時代,高算力與高效傳輸架構相匹配架構型號英偉達Hopper架構H800Blackwell架構B200H100PCIeH200SXMGH200B100GB200規(guī)格SXMNVLSXMNVIDIAHopperPCIe芯片架構NVIDIAHopper

NVIDIAHopper

NVIDIAHopperNVIDIAHopperNVIDIAHopperNVIDIAHopper+ARMNVDIABlakwellNVDIABlakwellNVDIABlakwell顯存顯存帶寬80GBHBM33.35TB/s34TFLOPS67TFLOPS67TFLOPS80GBHBM2e2TB/s188GBHBM37.8TB/s80GBHBM380GB

HBM32TB/s141GBHBM3e4.8TB/s96GB|144GBHBM3e512GB/s(CPU)34TFLOPS192GB8TB/s192GB8TB/s384GB3.35TB/s1TFLOP16TB/sFP64算力26TFLOPS51TFLOPS51TFLOPS68TFLOPS134TFLOPS134TFLOPS0.8TFLOP0.8TFLOP51TFLOPS34TFLOPS67TFLOPS67TFLOPSFP64TensorCoreFP32算力1TFLOP67TFLOPS30TFLOPS40TFLOPS90TFLOPS67TFLOPS67TFLOPSFP32算力(Tensor)TensorFloat32

(TF32)67TFLOPSTF32(TensorCore)494.5TFLOPS378TFLOPS756.5TFLOPS756.5TFLOPS1513

TFLOPS1513TOPS16896989.5TFLOPS

494.5TFLOPS1979TFLOPS

989.5TFLOPS1979TFLOPS

989.5TFLOPS3958

TFLOPS

1979TFLOPS378TFLOPS756.5TFLOPS756.5TFLOPS1513TFLOPS1513TOPS494.5TFLOPS989.5TFLOPS989.5TFLOPS1,979TFLOPS1,979TOPS16896494TFLOPS990TFLOPS990TFLOPS1,979TFLOPS1,979TOPS0.9PFLOPS1.8PFLOPS1.8PFLOPS3.5PFLOPS3.5PFLOPS1.12PFLOPS2.25PFLOPS2.25PFLOPS4.5PFLOPS4.5PFLOPS2.5PFLOPS5PFLOPS5PFLOPS10PFLOPS10PFLOPSFP16算力(TensorCore)

989.5TFLOPSBFLOAT16(TensorCore)

989.5TFLOPSFP8(TensorCore)INT8算力(TensorCore)CUDA

核心數(shù)量1979TFLOPS1979TOPS3958TOPS1979

TOPS16896TensorCores核心數(shù)量功耗528528528700瓦300-350瓦8002x350-400W

高達700瓦300-350瓦700瓦1000瓦700W1000W2700W晶管數(shù)量(億)制成(nm)8004nm8004nm4nm4nmNVLink:600GB/sPCIeGen5:NVLink:400GB/sPCIe5.0:128GB/sNVIDIA

NVLink?:·900GB/S·PCleGen5:128GB/sNVLink:

NVLink:900GB/sPCIe

600GB/sPCIeGen5:128GB/s

Gen5:128GB/sNVLink:400GB/sPCIe5.0:128GB/s互聯(lián)速度900GB/sbidirectional

NVLink:1.8TB/sNVLink:1.8TB/sNVLink:2x1.8TB/S128GB/s71.2

液冷已經(jīng)從“選配”到“必配”,液冷拐點已經(jīng)到來

為什么說液冷是AI的下一個光模塊:電子產(chǎn)品升級迭代規(guī)律使然,從上文證實的光模塊成長路徑,AI高速互聯(lián)時代,高算力與高效傳輸架構相匹配。從40G取代10G,100G取代40G,400G取代100G,800G取代400G,1.6T有望取代800G,升級之路永不停息,全部體驗到從“奢侈”、“嘗鮮”到“普及”、“剛需”的過程。同樣,散熱領域也是相同,相關技術也在提升,先是自然風冷、空調風扇、散熱片,繼而是液冷。液冷也有噴淋式、冷板式和浸沒式等等。

為什么說液冷已經(jīng)從“選配”到“必配”

芯片:環(huán)境溫度對芯片的影響不容忽視,高溫環(huán)境下,芯片內部的電子元件會因為長時間工作而受到損耗,從而縮短芯片的使用壽命。溫度升高會引起電容、電阻以及金屬線等材料的熱膨脹,進而導致它們的機械變形和結構破壞,最終影響芯片的正常運行。根據(jù)與非往消息,而單從芯片來看,風冷的極限芯片散熱功率是800W,英偉達部分產(chǎn)品已經(jīng)突破風冷能力上線。

數(shù)據(jù)中心:根據(jù)與非往消息,自然風冷的數(shù)據(jù)中心,單機柜密度一般只支持

8-10kW,在機柜功率超過

10kW

后性價比大幅下降。而根據(jù)與非網(wǎng)數(shù)據(jù),2025年AI集群算力單機柜密度將有望到20-50kW,也遠遠超出了風冷的上限。Transormer架構(左圖Encoder,右圖Decoder)隨著功率密度降低,液冷成本顯著降低7.27.026.9876.86.66.46.266.336.025.85.65.4風冷/10kW液冷/10kW液冷/20kW液冷/40kW81.1算力在大模型時代迎來爆發(fā),光模塊需求高增

AI高速互聯(lián)時代,高算力與高功耗相匹配:復盤英偉達數(shù)據(jù)中心芯片產(chǎn)品,其中明顯可以看到其芯片算力和芯片的功耗成明顯的正相關。AI高速互聯(lián)時代,高算力與高效傳輸架構相匹配架構型號英偉達Volta架構V100英偉達Turing架構T4英偉達Ampere架構V100sPCIeA100A800PCIe規(guī)格PCIeSXM2PCIeSXMPCIeSXMNVIDIAAmpereNVIDIAAmpere芯片架構NVIDIAVoltaNVIDIAVoltaNVIDIAVoltaNVIDIATuringNVIDIAAmpere

NVIDIAAmpereNVIDIAAmpere顯存顯存帶寬32GB或16GBHBM2

32GB或16GBHBM232GBHBM21134GB/s8.2TFLOPS16GBGDDR6320GB/S80GBHBM2e1935GB/s80GBHBM2e2039GB/s40GBHBM2

80GBHBM2e1555GB/s

1935GB/s80GBHBM2e2039GB/s900GB/s7TFLOPS900GB/sFP64算力7.8TFLOPS254.4GFLOPS9.7TFLOPS19.5TFLOPS19.5TFLOPS9.7TFLOPS19.5TFLOPS19.5TFLOPS9.7TFLOPS

9.7TFLOPS19.5TFLOPS

19.5TFLOPS19.5TFLOPS

19.5TFLOPS9.7TFLOPS19.5TFLOPS19.5TFLOPSFP64TensorCoreFP32算力14TFLOPS15.7TFLOPS125TFLOPS16.4TFLOPS8.1TFLOPS65TFLOPSFP32算力(Tensor)TensorFloat32(TF32)TF32(TensorCore)FP16算力(TensorCore)BFLOAT16(TensorCore)FP8(TensorCore)INT8算力

(TensorCore)CUDA核心數(shù)量156TFLOPS312TFLOPS312TFLOPS312TFLOPS-156TFLOPS312TFLOPS312TFLOPS312TFLOPS-156TFLOPS

156TFLOPS312TFLOPS

312TFLOPS312TFLOPS

312TFLOPS312TFLOPS

312TFLOPS156TFLOPS312TFLOPS312TFLOPS312TFLOPS-112TFLOPS130TFLOPS--624TOPS6912432130TOPS2560320624TOPS624TOPS624TOPS624TOPS51206406912432TensorCores核心數(shù)量功耗250瓦300瓦211250瓦70瓦136300瓦400瓦250瓦300瓦542400瓦晶管數(shù)量(億)制成(nm)5427nm12nm12nm7nmNVLink:600GB/sPCIe4.0:64GB/sNVLink:600GB/sPCIe4.0:64GB/sNVLink:400GB/sPCIe4.0:64GB/sNVLink:400GB/sPCIe4.0:64GB/s互聯(lián)速度32GB/s300GB/s32GB/s32GB/S91.2

液冷已經(jīng)從“選配”到“必配”,液冷拐點已經(jīng)到來

英偉達部分產(chǎn)品已經(jīng)超過風冷極限:如下圖所示,GH200以及最新款B200、GB200的功耗已經(jīng)超過風冷極限,H200和B100的功耗已經(jīng)接近風冷極限;AI高速互聯(lián)時代,高算力與高效傳輸架構相匹配架構型號英偉達Hopper架構H800Blackwell架構B200H100PCIeH200SXMGH200B100GB200規(guī)格SXMNVLSXMNVIDIAHopperPCIe芯片架構NVIDIAHopper

NVIDIAHopper

NVIDIAHopperNVIDIAHopperNVIDIAHopperNVIDIAHopper+ARMNVDIABlakwellNVDIABlakwellNVDIABlakwell顯存顯存帶寬80GBHBM33.35TB/s34TFLOPS67TFLOPS67TFLOPS80GBHBM2e2TB/s188GBHBM37.8TB/s80GBHBM380GB

HBM32TB/s141GBHBM3e4.8TB/s96GB|144GBHBM3e512GB/s(CPU)34TFLOPS192GB8TB/s192GB8TB/s384GB3.35TB/s1TFLOP16TB/sFP64算力26TFLOPS51TFLOPS51TFLOPS68TFLOPS134TFLOPS134TFLOPS0.8TFLOP0.8TFLOP51TFLOPS34TFLOPS67TFLOPS67TFLOPSFP64TensorCoreFP32算力1TFLOP67TFLOPS30TFLOPS40TFLOPS90TFLOPS67TFLOPS67TFLOPSFP32算力(Tensor)TensorFloat32

(TF32)67TFLOPSTF32(TensorCore)494.5TFLOPS378TFLOPS756.5TFLOPS756.5TFLOPS1513

TFLOPS1513TOPS16896989.5TFLOPS

494.5TFLOPS1979TFLOPS

989.5TFLOPS1979TFLOPS

989.5TFLOPS3958

TFLOPS

1979TFLOPS378TFLOPS756.5TFLOPS756.5TFLOPS1513TFLOPS1513TOPS494.5TFLOPS989.5TFLOPS989.5TFLOPS1,979TFLOPS1,979TOPS16896494TFLOPS990TFLOPS990TFLOPS1,979TFLOPS1,979TOPS0.9PFLOPS1.8PFLOPS1.8PFLOPS3.5PFLOPS3.5PFLOPS1.12PFLOPS2.25PFLOPS2.25PFLOPS4.5PFLOPS4.5PFLOPS2.5PFLOPS5PFLOPS5PFLOPS10PFLOPS10PFLOPSFP16算力(TensorCore)

989.5TFLOPSBFLOAT16(TensorCore)

989.5TFLOPSFP8(TensorCore)INT8算力(TensorCore)CUDA

核心數(shù)量1979TFLOPS1979TOPS3958TOPS1979

TOPS16896TensorCores核心數(shù)量功耗528528528700瓦300-350瓦8002x350-400W

高達700瓦300-350瓦700瓦1000瓦700W1000W2700W晶管數(shù)量(億)制成(nm)8004nm8004nm4nm4nmNVLink:600GB/sPCIeGen5:NVLink:400GB/sPCIe5.0:128GB/sNVIDIA

NVLink?:·900GB/S·PCleGen5:128GB/sNVLink:

NVLink:900GB/sPCIe

600GB/sPCIeGen5:128GB/s

Gen5:128GB/sNVLink:400GB/sPCIe5.0:128GB/s互聯(lián)速度900GB/sbidirectional

NVLink:1.8TB/sNVLink:1.8TB/sNVLink:2x1.8TB/S128GB/s101.3

液冷政策為液冷市場扎入“強心劑”

PUE值(電能利用效率)是衡量數(shù)據(jù)中心綠色程度的關鍵指標。PUE(Power

Usage

Effectiveness),即電能利用效率。PUE是數(shù)據(jù)中心消耗的所有能源與IT負載消耗的能源的比值。PUE的值越高,數(shù)據(jù)中心的整體效率越低。當該值超過1時,表示數(shù)據(jù)中心需要額外電力開銷以支持IT負載。PUE值越接近于1,說明數(shù)據(jù)中心的電大部分被服務器、網(wǎng)絡設備、存儲設備消耗,該數(shù)據(jù)中心的綠色化程度越高。在數(shù)據(jù)中心中,制冷系統(tǒng)能耗占數(shù)據(jù)中心總體能耗較高。根據(jù)中國通信學會通信電源委員會數(shù)據(jù),在典型的數(shù)據(jù)中心能耗構成中,比重最大部分為IT設備,占比50%,其次為制冷系統(tǒng)設備,占比35%,最后為供配電系統(tǒng)設備以及其他消耗電能的數(shù)據(jù)化中心設施。在制冷系統(tǒng)中,主要包括空調設備、提供冷源設備以及新風系統(tǒng),具體能耗構成如下表所示。

與傳統(tǒng)風冷相比,液冷技術PUE值普遍更低。根據(jù)CSDN數(shù)據(jù),傳統(tǒng)風冷的PUE值大概為1.3,而采用液冷技術,PUE值會顯著降低。其中,采用傳統(tǒng)冷板技術的PUE值大概為1.2,浸沒液冷的PUE值在1.05-1.07之間。典型數(shù)據(jù)中心能耗數(shù)據(jù)中心能耗構成不同冷卻技術的PUE值對比IT設備制冷系統(tǒng)供配電系統(tǒng)其它子系統(tǒng)冷卻技術傳統(tǒng)風冷PUE值IT支撐類提供冷源設備服務器類

存儲類網(wǎng)絡類空調設備新風系統(tǒng)送風風扇5%10%機房專用空調風冷室外機替代能源系統(tǒng)(光伏、風能等)機架式磁帶庫交換機KVM辦公區(qū)域電燈照明1.31.2虛擬帶庫監(jiān)控

行間精密管理刀片式塔式路由器防火墻冷水機組冷卻塔回風風扇風閥配電柜人事部門負載戶外燈空調濕度調節(jié)空調機房專用空調50%自動轉換開關(ATS)不間斷電源(UPS)35%VPN負載均衡“白空間”的電燈照明傳統(tǒng)冷板水泵水處理靜態(tài)轉換開關(STS)

機電室的電燈照明液冷災難恢復電力系統(tǒng)發(fā)電機其他控制設備浸沒液冷1.05-1.07IT設備

制冷系統(tǒng)

供配電系統(tǒng)

照明及其他電源分配單元(PDU)111.3

液冷政策為液冷市場扎入“強心劑”

國家政策對PUE值要求趨緊,呈逐年下降趨勢。根據(jù)國務院相關部門文件,對于新建大型及以上數(shù)據(jù)中心,在總算力要求提高的同時,還要求其PUE值在2021年底降至1.35以下;到2023年底,降低到1.3以下,嚴寒和寒冷地區(qū)力爭降低到1.25以下;到2025年底,在此基礎上綠色低碳等級達到4A級以上。

制冷系統(tǒng)政策導向明顯,利好液冷技術。2023年,在財政部等三部門聯(lián)合發(fā)布文件《綠色數(shù)據(jù)中心政府采購需求標準(試行)》中,明確提出,鼓勵數(shù)據(jù)中心相關設備和服務優(yōu)先選用新能源、液冷、分布式供電、模塊化機房等高效方案。國務院相關部門關于各數(shù)據(jù)中心PUE值政策要求政策文件名稱發(fā)布時間2019年1月2021年5月發(fā)布部門內容摘要到2022年,數(shù)據(jù)中心平均能耗基本達到國際先進水平,新建大型、超大型數(shù)據(jù)中心的電能使用效率值達到1.4以下,高能耗老舊設備基本淘汰。《關于加強綠色數(shù)據(jù)中心建設的指導意見》《全國一體化大數(shù)據(jù)中心協(xié)同創(chuàng)新體系算力樞紐實施方案》工業(yè)和信息化部等三部門國家發(fā)展改革委等四部門

支持開展“東數(shù)西算”示范工程。建立健全數(shù)據(jù)中心能耗監(jiān)測機制和技術體系。到2021年底,全國數(shù)據(jù)中心平均利用率力爭提升到55%以上,總算力超過120

EFLOPS,新建大型及以上數(shù)據(jù)中心PUE降低到1.35以下?!缎滦蛿?shù)據(jù)中心發(fā)展三年行動計劃(2021-2023年)》2021年7月工業(yè)和信息化部到2023年底,全國數(shù)據(jù)中心機架規(guī)模年均增速保持在20%左右,平均利用率力爭提升到60%以上,總算力超過200

EFLOPS,高性能算力占比達到10%。國家樞紐節(jié)點算力規(guī)模占比超過70%。新建大型及以上數(shù)據(jù)中心PUE降低到1.3以下,嚴寒和寒冷地區(qū)力爭降低到1.25以下。到2025年,數(shù)據(jù)中心和5G基本形成綠色集約的一體化運行格局。數(shù)據(jù)中心運行電能利用效率和可再生能源利用率明顯提升,全國新建大型、超大型數(shù)據(jù)中心平均電能利用效率降到1.3以下,國家樞紐節(jié)點進一步降到1.25

以下,綠色低碳等級達到4A級以上。全國數(shù)據(jù)中心整體利用率明顯提升,西部數(shù)據(jù)中心利用率由30%提高到50%以上?!敦瀼芈鋵嵦歼_峰碳中和目標要求推動數(shù)據(jù)中心和5G等新型基礎設施綠色高質量發(fā)展實施方案》2021年11月

國家發(fā)展改革委等四部門《工業(yè)能效提升行動計劃》工業(yè)和信息化部等六部門

到2025年,新建大型、超大型數(shù)據(jù)中心電能利用效率優(yōu)于

1.3。2022年6月2022年8月推動綠色集約化布局。加強數(shù)據(jù)中心統(tǒng)籌布局,推進“東數(shù)西算”工程,梯次布局全國一體化算力網(wǎng)絡國家樞紐節(jié)點、省內數(shù)據(jù)中心、邊緣數(shù)據(jù)中心。加快國家綠色數(shù)據(jù)中心建設,引導企業(yè)建設綠色集約型數(shù)據(jù)中心,加快“老舊小散”存量數(shù)據(jù)中心資源整合和節(jié)能改造。《信息通信行業(yè)綠色低碳發(fā)展行動計劃(2022-2025年)》《綠色數(shù)據(jù)中心政府采購需求標準(試行)》工業(yè)和信息化部等七部門財政部等三部門到

2025

年,全國新建大型、超大型數(shù)據(jù)中心電能利用效率降到

1.3

以下。2023年3月數(shù)據(jù)中心相關設備和服務應當優(yōu)先選用新能源、液冷、分布式供電、模塊化機房等高效方案。121.3

液冷政策為液冷市場扎入“強心劑”各省市對數(shù)據(jù)中心PUE值要求匯總

各省、一級PUE標準向國家政策標準靠攏。在國務院政策標準基礎上,將數(shù)據(jù)中心細化為大型及超大型數(shù)據(jù)中心及中小型數(shù)據(jù)中心;存量改造智算中心及新建智算中心,進行差異化政策制定。對大型、超大型數(shù)據(jù)中心以及新建數(shù)據(jù)中心要求更嚴格。年平均氣溫℃城市北京數(shù)據(jù)中心PUE要求年能源消費量小于1萬噸標準煤的項目PUE值不應高于1.3;年能源消費量大于等于1萬噸標準煤且小于2萬噸標準煤的項目,PUE值不應高于1.25;年能源消費量大于等于2萬噸標準煤且小于3萬噸標準煤的項目,PUE值不應高于1.2;年能源消費量大于等于3萬噸標準煤的項目,PUE值不應高于1.15;1.4<PUE≤1.8,每度電加價¥0.2;PUE>1.8,每度電加價¥0.512.3到2025年,新建智算中心PUE值達到1.25以下;存量改造智算中心PUE值達到1.4以下;智算中心內綠色能源使用占比超過20%,液冷機柜數(shù)量占比超過50%上海廣東浙江江蘇山東青島重慶16.622.616.515.514.712.718.4新增或擴建數(shù)據(jù)中心PUE不高于1.3,優(yōu)先支持PUE低于1.25的數(shù)據(jù)中心項目,起步區(qū)內PUE要求低于1.25到2025年,大型及以上數(shù)據(jù)中心電能利用效率不超過1.3,集群內數(shù)據(jù)中心電能利用效率不得超過1.25

液冷機柜數(shù)量開始列入政策硬性要求。2024年3月,上海市通信管理局等11個部門聯(lián)合印發(fā)《上海市智能算力基礎設施高質量發(fā)展

“算力浦江”智算行動實施方案(2024-2025年)》正式發(fā)布。該方案表示:至2025年,新建智算中心PUE值達到1.25以下;存量改造智算中心PUE值達到1.4以下;智算中心內綠色能源使用占比超過20%,液冷機柜數(shù)量占比超過50%。到2023年底,全省數(shù)據(jù)中心機架規(guī)模年均增速保持在20%左右,平均利用率提升到65%,全省新型數(shù)據(jù)中心比例不低于30%,高性能算力占比達10%,新建大型及以上數(shù)據(jù)中心電能利用效率(PUE)降低到1.3以下,起步區(qū)內電能利用效率不得超過1.25自2020年起,新建數(shù)據(jù)中心PUE值原則上不高于1.3,到2022年年底,存量改造數(shù)據(jù)中心PUE值不高于1.4。到2025年,實現(xiàn)大型數(shù)據(jù)中心運行電能利用效率降到1.3以下。新建1.3,至2022年存量改造1.4到2025年,電能利用效率(PUE)不高于1.3。集群起步區(qū)內PUE不高于1.25。到2023年底,大型及超大型數(shù)據(jù)中心的PUE降到1.3以下,中小型數(shù)據(jù)中心的PUE降到1.4

以下;到2025年底,大型及超大型數(shù)據(jù)中心的PUE力爭降到1.25以下,中小型數(shù)據(jù)中心的PUE力爭降到1.35下甘肅

0~14℃到2025年,電能利用效率(PUE)不高于1.3。集群起步區(qū)內PUE不高于1.25。各市(州)要充分發(fā)揮已建在建數(shù)據(jù)中心作用,除天府數(shù)據(jù)中心集群外,區(qū)域內平均上架率未達到60%、平均PUE值未達到1.3及以下的,原則上不得新建數(shù)據(jù)中心。四川15.34.3內蒙古到2025年,全區(qū)大型數(shù)據(jù)中心平均PUE值降至1.3以下,寒冷及極賽地區(qū)力爭降到1.25以下,起步區(qū)做到1.2以下到2025年,建成國家(中衛(wèi))數(shù)據(jù)中心集群,集群內數(shù)據(jù)中心的平均PUE≤1.15.WUE≤0.8,分級分類升級改造國家(中衛(wèi))數(shù)據(jù)中心集群外的城市數(shù)據(jù)中心,通過改造或關停,到2025年,力爭實現(xiàn)PUE降至1.2及以下。寧夏貴州9.5引導大型和超大型數(shù)據(jù)中心設計PUE值不高于1.3;改造既有大型、超大型數(shù)據(jù)中心,使其數(shù)據(jù)中心PUE值不高于1.4。實施數(shù)據(jù)中心減量替代,根據(jù)PUE值嚴控數(shù)據(jù)中心的能源消費新增量,PUE低1.3的教據(jù)中心可享受新增能源消費量支持15.5131.4深度綁定英偉達,維諦技術(

Ver

tiv)邁向成長

維諦技術數(shù)字建設基礎設施的提供商:提供硬件、軟件、分析和延展服務技術的整體解決方案,幫助現(xiàn)代數(shù)據(jù)中心、通信網(wǎng)絡、商業(yè)和工業(yè)設施用戶所面臨的艱巨挑戰(zhàn),提供全面覆蓋云到網(wǎng)絡邊緣的電力、制冷和IT基礎設施解決方案和技術服務組合,其前身為艾默生,該公司專注于提供關鍵基礎設施技術及服務,包括電源、熱管理和IT基礎設施解決方案。

公司數(shù)據(jù)中心產(chǎn)品與服務是公司的核心競爭力,最主要包括電力、熱管理等一體化的解決方案:

關鍵電源管理:可提供直流電源、交流不間斷電源、配電、變頻器、電源監(jiān)控等一系列解決方案;

熱管理:即風冷、液冷整體解決方案等;

IT管理:即一體化解決方案、后續(xù)市場的監(jiān)控、管理、服務等等。維諦技術冷板液冷解決方案示意圖維諦技術產(chǎn)品分類示意圖基礎設施和解決方案一體化機架解決方案一體化解決方案服務和備件關鍵電源管理熱管理監(jiān)控和管理服務數(shù)字化基礎設施解決方案交流不間斷電源(UPS)

房間級精密空調機架&模塊化機房原廠服務直流電源系統(tǒng)配電列間級精密空調預制式戶外空調綜合布線戶外電源串口管理器IPKVM切換器桌面KVM和鍵鼠切換器監(jiān)控工程服務創(chuàng)新服務備件管理工業(yè)交流和直流系統(tǒng)高熱密度解決方案電源監(jiān)控和控制變頻器IT管理風能AI智能運維和軟件141.4深度綁定英偉達,維諦技術(

Ver

tiv)邁向成長

維諦技術收購CoolTera,強強聯(lián)合加大強液冷布局:2023年12月11日,根據(jù)今日熱點網(wǎng)消息,維諦技術子公司將收購購數(shù)據(jù)中心液冷技術基礎設施提供商CoolTera全部股份和相關資產(chǎn)。CoolTera成立于2016年,是一家總部位于英國的數(shù)據(jù)中心液冷基礎設施解決方案廠家,具備冷量分配單元、二次側管路和Manifold的專業(yè)原廠研發(fā)設計制造能力。此前,Vertiv與CoolTera在液冷技術領域已密切合作三年,共同部署了全球多個數(shù)據(jù)中心和超算系統(tǒng)。我們判斷,本次收購進一步增強了Vertiv的熱管理能力和行業(yè)影響力。

Vertiv參與了英偉達COOLERCHIPS

計劃,并被指定為唯一的制冷系統(tǒng)合作伙伴:我們判斷AIGC與液冷趨勢有望穩(wěn)定其龍頭地位。

此前Vertiv已經(jīng)與英偉達專家團隊進行高密度數(shù)據(jù)中心制冷方案進行測試,根據(jù)極目新聞消息,實測結果顯示IT負載從100%風冷轉型為75%液冷的方案時,服務器風扇用電量降低最多達到80%,使總體使用效率(TotalUsageEffectiveness,

TUE)提高15%以上;

根據(jù)搜狐網(wǎng)消息,今年3月,英偉達NVIDIA

與維諦Vertiv

共同提出的機架式混合冷卻系統(tǒng)方案,是業(yè)界首次將兩種液冷技術:冷板液冷和浸沒液冷耦合到同一系統(tǒng)中的解決方案這項創(chuàng)新系統(tǒng)預計可冷卻運行環(huán)境高達

40℃的機架式數(shù)據(jù)中心,單機柜IT功率可達200kW,是目前常規(guī)服務器單機柜功率的

25倍。與傳統(tǒng)風冷相比,兩種液冷混合冷卻模式的成本更低,運作效率可提高

20%。英偉達混合液冷解決方案示意圖維諦技術與英偉達合作圖示151.4深度綁定英偉達,維諦技術(

Ver

tiv)邁向成長

基礎設備及解決方案是公司核心產(chǎn)品:復盤公司2020年至2023年各產(chǎn)品收入增速,其中基礎設施產(chǎn)品收入占比最大且增速較快,2020年公司基礎設施產(chǎn)品收入為160.36億元,占比為56.23%,2023年收入為315.12億元,占比為64.83%,增速為30.19%,超過公司收入增速。

美洲為公司銷售產(chǎn)品的核心地區(qū):復盤公司2020年至2023年地域收入,美洲(拉丁美洲)為公司核心銷售區(qū)域,2020年美國和加拿大公司公司收入為121.24億元,占比42.51%,2023年美洲地區(qū)相關收入為275.15億元。

踏浪AIGC,公司股價迎來增長:公司2023年3月31日股價為11.75美元,公司2024年7月24日公司股價為91美元,我們判斷其背后的原因為由于AIGC爆發(fā),公司相關液冷數(shù)據(jù)中心產(chǎn)品業(yè)績迎來高增。維諦技術產(chǎn)品收入(億元)及同比增速維諦技術業(yè)務占比示意圖維諦技術股價漲跌幅60011510595857565554535253000250020001500100050050040030020010002020202120222023歐洲,中東,非洲地區(qū)

美國/加拿大亞洲歐洲0中東及非洲亞太區(qū)拉丁美洲美洲成交金額VERTIV1602

深度拆解液冷的核心價值鏈172.1液冷的概念及分類及比較

液冷:一種確保計算機在安全的溫度下運行的冷卻方法。液冷技術通過利用流動液體的高比熱容來吸收并遷移計算機內部元件產(chǎn)生的熱量到外部,這種方法的優(yōu)點在于利用液體傳熱,相較于空氣,液體的高比熱容能更高效地傳遞熱量,從而降低能量消耗。

液冷技術根據(jù)接觸方式不同,分為直接液冷技術和間接液冷技術。間接液冷技術中,冷卻液體與發(fā)熱器件不直接接觸,主要包括冷板式。直接液冷技術中,冷卻液體與發(fā)熱器件直接接觸,主要包括浸沒式和噴淋式液冷,其中浸沒式根據(jù)冷卻介質是否發(fā)生相變又可分為單相浸沒式和相變浸沒式。

與傳統(tǒng)風冷技術相比,液冷技術節(jié)能效果顯著提高。根據(jù)《綠色高能效數(shù)據(jù)中心散熱冷卻技術研究現(xiàn)狀及發(fā)展趨勢》數(shù)據(jù)顯示,風冷散熱下數(shù)

據(jù)中心的

PUE

值通常在

1.5

左右;根據(jù)開放數(shù)據(jù)中心委員會ODCC數(shù)據(jù),冷板式液冷PUE值為1.1-1.2,相變浸沒式液冷PUE值小于1.05,單相浸沒式液冷PUE值小于1.09,噴淋式液冷PUE值小于1.1。液冷技術分類液冷通用技術原理液冷方案各指標比較及總體分析單項冷板式兩相冷板式浸沒式相變浸沒式

單相浸沒式液冷方案投資成本冷板式噴淋式冷板式結構改造及液體消耗成本大,液冷系統(tǒng)初始投資成本低間接冷卻初始投資中等,

初始投資及運

初始投資及運維成本高運維成本低維成本高PUE1.1-1.2<1.05<1.09<1.1可維護性較簡單復雜復雜液冷方式阿里巴巴、H3C、綠色云圖、云酷職能、曙光數(shù)創(chuàng)、浪潮、曙光、聯(lián)想、超聚變等主流供應商單相浸沒式相變浸沒式供應商僅曙光僅廣東合一浸沒式噴淋式數(shù)據(jù)中心場景無批量使用應用案例多超算領域較多較多初始投資中等,

初始投資最高,運維成本低,

PUE收益最高,PUE

收益中等,

需使用專用機部署方式與風冷

柜,服務器結相同,從傳統(tǒng)模

構需改造為刀初始投資較高,運維成本高,液體消耗成本高,PUE收益中等,部署方式同浸沒式,服務器結構需改造初始投資較高,PUE

收益較高,部分部件不兼容,服務器結構需改造直接冷卻分析式過渡較平滑片式182.1液冷的概念及分類及比較

冷板式液冷技術:通過設置在設備內部的液冷板間接傳遞發(fā)熱器件的熱量至循環(huán)管路中的冷卻液體,利用冷卻液體將熱量有效帶走,實現(xiàn)散熱,為設備提供一種高效的散熱方式。

液冷系統(tǒng)的架構分為室外側和室內側兩部分。室外側包括冷卻塔(一次側冷源的核心部件)、一次側管網(wǎng)和一次側冷卻液;室內側包括CDU(核心組件之一)、液冷機柜、ICT設備、二次側管網(wǎng)和二次冷卻液。其中,CDU確保冷卻液的有效循環(huán)和熱量的有效轉移,分為分布式CDU和集中式CDU。集中式

CDU適用于規(guī)模部署液冷服務器機柜的場景。

冷板式液冷目前應用最廣泛,具有諸多優(yōu)勢。存量的數(shù)據(jù)中心機房由風冷向液冷改造時,冷板式液冷的改造成本相對更低。同時,其PUE值更低(1.2)、可實現(xiàn)在線維護方案。集中式CDU與分布式CDU對比冷板式液冷及其系統(tǒng)原理圖集中式CDU分布式CDU機柜形態(tài),與一個服務器機柜尺寸

設備形態(tài),寬、深與服務器尺寸基本相基本相同

本相同,高度4U左右形態(tài)部署方式與服務器機柜并排部署,可同時為

部署在服務器機柜底部,只能為所在服多個務器機柜提供制冷能力

個服務器機柜提供制冷能力服務器機房需要進行二次側管路部報務器機房免二次側管路部署,部署復雜部署復雜性服務器機房免二次側管路部署,部署簡單每個機柜1臺CDU,無法實現(xiàn)CDU間冗余能力,可靠性低(理論上可以通過兩個機柜間CDU1+1備份提高可靠性)通過多個CDU集群方式提供N+M冗余能力,可靠性高可靠性冷量分配單元CDU分類示意圖CDU需占用機柜安裝空間,液冷機

CDU不占用機柜安裝空間,液冷機柜規(guī)柜規(guī)模較小時,空間利用率較分布

模較小時,空間利用率較高;規(guī)模部署空間利用率

式CDU低;規(guī)模部署液冷機柜時,

液冷機柜時,空間利用率較集中式CDU空間利用率高

低小規(guī)模時成本較分布式CDU高,大

小規(guī)模時成本低,大規(guī)模時較集中式規(guī)模時成本高

CDU高成本適用場景大型數(shù)據(jù)中心,液冷大規(guī)模部署中小型數(shù)據(jù)中心,液冷小規(guī)模部署192.1液冷的概念及分類及比較

浸沒式液冷技術:一種通過將發(fā)熱器件完全浸沒于冷卻液中,實現(xiàn)部件與冷卻液之間直接接觸且發(fā)生熱交換的冷卻方法。浸沒式液冷系統(tǒng)室外側包含冷卻塔、一次側管網(wǎng)、一次側冷卻液;

室內側包含

CDU、浸沒腔體、IT

設備、二次側管網(wǎng)和二次側冷卻液。

單相浸沒式液冷:在熱量傳遞過程中,傳熱介質二次側冷卻液只會經(jīng)歷溫度的改變,沒有發(fā)生任何相態(tài)的變化,即熱量的傳遞完全依賴于物質的感熱變化。制冷過程:CDU的循環(huán)泵推動二次側的冷冷卻液自浸沒腔體的底部進入,在流過豎直放置于浸沒腔中的IT設備時,移走設備熱量。隨后,吸收了熱量并升溫的二次側冷卻液從浸沒腔體的頂部離開,流向CDU。在CDU中,通過板式熱交換器,冷卻液將其所攜帶的熱量轉移給一次側的冷卻液。然后,已經(jīng)升溫的一次側冷卻液經(jīng)過冷卻塔,將熱量釋放至大氣中,完成整個冷卻過程。

相變浸沒式液冷:二次側冷卻液在熱量傳遞過程中發(fā)生相態(tài)轉變,依靠物質的潛熱變化傳遞熱量。傳熱路徑與前者基本相同,區(qū)別在于,二次側冷卻液只在浸沒腔體內循環(huán),且浸沒腔體內部形成了液態(tài)和氣態(tài)兩個區(qū)域:頂部為氣態(tài)區(qū),底部為液態(tài)區(qū)。IT設備被完全沉浸在具有低沸點的液態(tài)冷卻液中,當冷卻液吸收了設備產(chǎn)生的熱量后沸騰并轉化為高溫氣態(tài)。這些氣態(tài)冷卻液的密度較低,會逐漸上升到浸沒腔體的頂部,在那里與頂部的冷凝器進行熱交換并冷凝成低溫的液態(tài)。這些冷卻液在重力的作用下重新回到腔體底部,從而完成IT設備的散熱過程。單相浸沒式液冷技術原理示意圖浸沒式液冷冷卻液部分性能對比對比項成本碳氫及有機硅類冷卻液碳氫類冷卻液碳氟化合物全氟三丁胺,XP68電子冷卻氟化液天然礦物油合成油有機硅油全氟碳化合物3MFC40氫氟烴氫氟醚低較高高高可靠性及壽命低,3-5年高,超過10年相變浸沒式液冷技術原理示意圖導熱率惰性高低低高粘性高,不便于維護,需要清洗劑維護性粘性低,易揮發(fā),便于維護對高速信號傳輸有一定影響介電常數(shù)低低低低1.91.9資料:

《綠色高能效數(shù)據(jù)中心散熱冷卻技術研究現(xiàn)狀及發(fā)展趨勢》,通訊《液冷技術白皮書》,華西證券研究所202.1液冷的概念及分類及比較

噴淋式液冷:一種將冷卻液直接噴灑到芯片級器件或其連接的導熱元件上的直接接觸式冷卻方式,通過重力或系統(tǒng)壓力實現(xiàn)精準冷卻。這種系統(tǒng)主要包括冷卻塔、冷卻配送單元(CDU)、一次側和二次側的冷卻管路、冷卻介質,以及配備有管路系統(tǒng)、布液系統(tǒng)、噴淋模塊和回液系統(tǒng)的噴淋式液冷機柜。目前,噴淋式液冷應用較少。

制冷過程:在噴淋式液冷系統(tǒng)中,經(jīng)CDU冷卻的冷卻液被泵送至噴淋機柜,直接通過分液器進入與服務器對應的布液裝置進行噴淋,或先輸送至進液箱以獲得驅動噴淋的重力勢能。冷卻液在經(jīng)過IT設備的發(fā)熱部件或其連接的導熱材料時進行噴淋制冷,加熱后的冷卻液再通過回液箱收集并被泵送回CDU,進行下一輪的冷卻循環(huán)。

噴淋式液冷與浸沒式液冷各有優(yōu)劣。噴淋式液冷實現(xiàn)了

100%液冷,其結構顛覆性優(yōu)于浸沒式液冷;但節(jié)能效果差于浸沒式液冷,且存在與浸沒式液冷相同的局限性問題,如器件選型的局限性、維護局限性以及機房環(huán)境的特殊性。噴淋式液冷原理圖不同液冷方式的優(yōu)劣對比優(yōu)勢劣勢產(chǎn)品架構兼容性:可兼容現(xiàn)有硬件架構冷板式液冷未能實現(xiàn)

100%

液體冷卻,因此存在機柜功耗低、液冷占比低時,節(jié)能收益不顯著問題維護性:易開展維護性設計,可實現(xiàn)在線維護方案機房適應性:靈活適用于舊機房改造和新建機房節(jié)能:數(shù)據(jù)中心的PUE

值可降至1.2

以下可靠性:液體與設備不直接接觸,可靠性更高噪聲:風機轉速大幅降低,噪聲值可至70dB

左右冷板式液冷液冷板設計需要考慮現(xiàn)有設備的器件布局,結構設計和實現(xiàn)的難度較大,標準化推進難度大節(jié)能:低溫液體直接與發(fā)熱芯片接觸散熱,傳熱路徑更短;傳熱方式為液液換熱和蒸發(fā)汽化換熱,傳熱效率更高緊湊:支持高密機柜,單柜散熱量高達

160kW;機柜間無需隔開距離,機房不需要空調、無需安裝冷熱通道封閉設施;浸沒式

高可靠:設備完全浸沒在液體中,排除了溫度、風機振動、灰塵維護局限性:浸沒式液冷設備維護時需要打開

Tank

上蓋,并配備可移動機械吊臂或專業(yè)維護車實現(xiàn)設備的豎直插拔,維護復雜度高,耗時長;且開蓋維護過程有一定的冷卻液揮發(fā)問題,增加運行成本液冷等帶來的可靠性問題低噪聲:100%

液體冷卻,無需配置風扇,實現(xiàn)極致“靜音”機

機房環(huán)境特殊性:因浸沒式液冷系統(tǒng)Tank

內充滿冷卻液,整柜重量大幅增加,結構顛覆性:區(qū)別于傳統(tǒng)意義上的立式機架結構,浸沒液冷所用

對機房有特殊承重要求,普遍要求浸沒式房的浸沒腔體為臥式Tank液冷機房地板承重應大于1500kg/m2節(jié)能效果差于浸沒式液冷,且存在與浸沒式液冷相同的局限性問題噴淋式液冷實現(xiàn)了100%

液冷,其結構顛覆性優(yōu)于浸沒式液冷212.2液冷市場空間測算:

千億市場蓄勢待發(fā)

市場拆分:

根據(jù)我們的判斷,液冷或風冷的市場規(guī)模根據(jù)IDC的建設情況來判斷,而整個IDC市場基本可以分為云計算、超算、智算市場,而根據(jù)云計算、超算、智算市場下游又可以分成CPU服務器及通用服務器和AI服務器,其中智算中心的AI服務器為液冷的直接增量因素。

滲透率:根據(jù)財聯(lián)社與浪潮信息數(shù)據(jù),我國的液冷發(fā)展是逐步迭代的過程,2023年滲透率在5%左右,到2025年則有望超20%。

價格/KW:根據(jù)知乎的數(shù)據(jù),以單kw計價,風冷在6000元左右,冷板在10000元,浸沒式液冷在12000元。

AI服務器的液冷測算:根據(jù)中商研究院數(shù)據(jù),2023年AI服務器出貨量為35.4萬臺,我們假設2024年AI服務器增速為120%,2025年行業(yè)增速增速為80%,其中2023年、2024年、2025年服務器型號分別為DGX

A100、DGX

H100、DGXB200(不考慮美國禁令因素),根據(jù)英偉達數(shù)據(jù),其單個服務器功耗分別為6.5

KW、10.2KW、14.3KW,我們假設平均功耗為巔峰功率的80%,2023年液冷滲透率為10%,2024年液冷滲透率為30%,2025年液冷滲透率由于芯片工藝原因滲透率為100%。2023-2025冷板式液冷占比分別為95%、90%、80%其余全為浸沒式液冷。AI服務器增量液冷的市場規(guī)模202335.4202477.88120%30%2025140.18480%AI服務器數(shù)量(萬)同比增速液冷滲透率10%3.546.5100%AI服務器液冷數(shù)量(萬)服務器巔峰功耗(KW)平均功耗比例23.3610.280%140.1814.380%80%服務器平均功耗冷板式液冷占比單體價單價(萬)冷板式液冷規(guī)模(億)浸沒式液冷占比浸沒式液冷單價浸沒式液冷規(guī)模(億)液冷市場合計5.28.1690%11.4480%95%11117.495%171.5910%1282.9620%1.21.21.21.1018.5922.88194.46384.891667.85222.2液冷市場空間測算:

千億市場蓄勢待發(fā)

通用服務器的液冷測算:根據(jù)中國信息通信研究院數(shù)據(jù)我國2022年通用服務器出貨量為384.6萬臺,由于AI時代的到來,采購商對于通用服務器的預算降低,我們預測2023-2025年行業(yè)平均增速為5%,由于2U服務器滿載功耗約為350W,由于服務器更新?lián)Q代導致功耗增加,我們假設2023年、2024年、2025年通用服務器滿載功耗分別為350W、400W、450W,我們假設平均功耗為巔峰功率的80%,此外,我們假設通用服務器2023年、2024年、2025年液冷的滲透率為5%、10%、20%,2023-2025冷板式液冷占比分別為95%、95%、95%其余全為浸沒式液冷。

整體液冷市場規(guī)模測算:我們測算2024、2025年我國的液冷市場規(guī)模分別為208.17、1700.23億元,同比增速分別為756.6%、716.8%。通用服務器增量液冷的市場規(guī)模液冷市場規(guī)模預測202320242025通用服務器數(shù)量同比增速403.835%424.025%445.225%液冷滲透率5%10%20%202320242025通用服務器液冷數(shù)量(萬)服務器巔峰功耗(KW)平均功耗比例20.190.3580%42.400.489.040.4580%液冷市場合計同比增速24.30208.17756.6%1700.23716.8%80%服務器平均功耗冷板式液冷占比單體價單價(萬)冷板式液冷規(guī)模(億)浸沒式液冷占比浸沒式液冷單價浸沒式液冷規(guī)模(億)液冷市場合計0.2895%0.3295%0.3695%1115.3712.8930.455%5%5%1.21.21.20.345.710.8113.701.9232.38232.3液冷產(chǎn)業(yè)生態(tài)拆分

液冷產(chǎn)業(yè)生態(tài)涉及產(chǎn)業(yè)鏈上中下游,包括上游的產(chǎn)品零部件提供商、中游的液冷服務器提供商及下游的算力使用者。

產(chǎn)業(yè)鏈上游:上游主要為產(chǎn)品零部件及液冷設備,包括快速接頭QDC、冷量分配單元CDU、電磁閥、浸沒液冷

TANK、分級液器Manifold、冷卻液、環(huán)路工藝冷媒供回歧管LCM等組件或產(chǎn)品供應商。部分代表廠商有英維克、3M、云酷、競鼎、諾亞、廣東合一、綠色云圖、維諦技術、潤和材料等。

產(chǎn)業(yè)鏈中游:中游主要為液冷服務器、芯片廠商以及液冷集成設施、模塊與機柜等。部分代表廠商有、、浪潮信息、中科曙光、新華三、聯(lián)想、超聚變、英特爾等。

產(chǎn)業(yè)鏈下游:下游主要包括三家電信運營商,百度、阿里巴巴、騰訊、京東等互聯(lián)網(wǎng)企業(yè)以及信息化行業(yè)應用客戶,主要在電信信息、互聯(lián)網(wǎng)、政府、金融、交通和能源等信息化應用。根據(jù)搜狐網(wǎng)消息,目前,阿里巴巴以單相浸沒式液冷為主要發(fā)展方向,其他用戶以冷板式液冷試點應用居多。液冷產(chǎn)業(yè)生態(tài)圖解上游CDU/CDM中游下游液冷服務器快速接頭芯片廠商機柜電信信息金融政府電磁閥冷卻液互聯(lián)網(wǎng)能源液冷集成設施、模塊TANKManifold交通242.3.1

液冷產(chǎn)業(yè)生態(tài)拆分——一次側

液冷散熱系統(tǒng)通常由至少兩個相互隔離的循環(huán)回路組成。供給設備的內循環(huán)也稱作二次側,將熱量傳遞給外界環(huán)境的循環(huán)也叫一次側,兩個循環(huán)通過

CDU

內置的板換進行隔離和交換熱量。

一次側主要的散熱設備主要有三種:干冷器、冷卻塔和制冷機組。干冷器、冷卻塔屬于自然冷卻系統(tǒng),制冷機組屬于機械制冷系統(tǒng)。液冷系統(tǒng)一次側與二次側示意圖不同一次側進水溫度等級下的冷源配置機械制冷系統(tǒng)【制冷機組】自然冷卻閉式冷卻塔液冷水溫等級一側進水溫度冷源配置風冷冷凍水系統(tǒng)水冷冷凍系統(tǒng)開式冷卻塔干冷器W17W27W32W40W45W+17℃27℃32℃40℃45℃水冷冷水機組冷凍水泵冷卻水泵冷卻塔板式換熱器等冷水機組輔以水經(jīng)濟器(板式換熱器)風冷冷水機組冷凍水泵及配套設施組成圖示將管式換熱器置于塔內,通過室外流通的空氣、噴淋水與管內的循環(huán)冷卻水進行熱交換,向大氣散熱。液態(tài)制冷劑在循環(huán)冷卻水直接噴淋到冷卻塔填料上,由通過室外空氣來冷卻換熱器盤管內的冷卻水,從而降低冷卻水的溫度,達到冷卻目的冷卻塔或干冷器輔以冷水機組或區(qū)域熱回收系統(tǒng)液態(tài)制冷劑在其

蒸發(fā)器盤管內蒸發(fā)器盤管內直

直接蒸發(fā)為氣接蒸發(fā)為氣態(tài),

態(tài),實現(xiàn)對盤原

風機帶動冷卻塔內氣流流動,通過室外空理

氣與冷卻水之間的熱質交換冷卻循環(huán)水,冷卻后的循環(huán)水在冷卻塔底部出水由內循環(huán)和外循環(huán)兩個系統(tǒng)組成。內循環(huán)通過與被冷卻設備連接,構成一個封閉式系統(tǒng),將系統(tǒng)熱量帶到冷卻塔,即內循環(huán)水通過換熱盤管將熱量傳遞到大氣中;外

增加噴淋設備強化冷卻。循環(huán)由循環(huán)噴淋泵、布水系統(tǒng)、集水盤及管路組成,外循環(huán)水不與內循環(huán)水相接觸,只是通過冷卻塔內的換熱器吸收內循環(huán)水的熱量,然后通過和空氣直接接觸來散熱原

實現(xiàn)對盤管外的

管外的冷凍水理

冷凍水吸熱制冷,吸熱制冷,并根據(jù)室外條件,可選擇性并通過風冷冷凝

通過水冷冷凝

配的方式將氣態(tài)制

的方式將氣態(tài)

套冷劑冷卻為液態(tài)

制冷劑冷卻為液態(tài)一般需要增設可拆卸的板式換熱器隔離使用,否則易因水質問題導致CDU內不可拆卸的焊接式板式換熱器臟堵干冷器中的冷卻水通常使用乙二醇溶液來防凍,需要根據(jù)項目地冬季極端溫度選取溶液濃度設施冷卻塔或干冷器輔以區(qū)域熱回收系統(tǒng)>45℃能耗制冷機組>>干冷器>冷卻塔(但是冷卻塔需要消耗大量的水,對于無水區(qū)域則難以使用)對比制冷機組可以獲得7-12℃的冷卻水;干冷器出來的冷卻水高于環(huán)境干球溫度

8.3-11.1℃;冷卻塔可以獲得高于環(huán)境濕球溫度2.8-3.9℃(開式)/3.9-6.7℃(閉式)的冷卻水制取水溫注:最低供水溫度不低于2℃252.3.2

液冷產(chǎn)業(yè)生態(tài)拆分——二次側:

冷板式

冷板式液冷的二次側組件包括:冷板組件、快速接頭QDC、機柜工藝冷媒供回歧管RCM、環(huán)路工藝冷媒供回歧管LCM、冷量分配單元CDU及工藝冷媒。

冷板組件包括:冷板、配套管路、扣具、轉接頭、快速接頭QDC、漏液檢測裝置等主要零部件。

快速接頭QDC:連接在服務器的冷板組件和RCM/RCM和LCM之間的零件。根據(jù)安裝位置不同分為自鎖式快速接頭和球閥式快速接頭。

軟管:軟管連接包括機柜級軟管和服務器級軟管,機柜級軟管作用是連接

RCM

LCM,服務器級軟管作用是連接

RCM

與冷板。冷板組件圖例及實物冷板組件圖例及實物軟管圖示自鎖式快速接頭球閥式快速接頭圖示連接一般規(guī)格冷板組件與RCM1/8寸~1/2寸RCM與LCM1寸、2寸(丹佛斯FD83)功能液冷系統(tǒng)帶液插拔維護功能自帶球閥,可手動調節(jié)球閥通斷的快速接頭安裝便捷:左右兩半接頭完全相同銷鎖設計:左右接頭耦合前,閥芯不能開啟;閥芯閉合前,左右接頭無法斷開。避免意外打開導致泄漏。帶壓通斷:可以實現(xiàn)熱連接、斷開和在線流體通斷。當插頭和插座斷開時,彈簧自復位確保供液中斷,工藝冷媒不會溢出到系統(tǒng)外,以避免頻繁工藝冷媒補液,污染甚至危及服務器工作特點多種尾端:多種接口方式,可以直接連接軟管和硬管。標準OCP標準中提供性能參數(shù),接頭需提供流量-壓降曲線262.3.2

液冷產(chǎn)業(yè)生態(tài)拆分——二次側:

冷板式

機柜工藝冷媒供回歧管RCM:安裝于液冷機柜內部,功能為分液、集液和排氣等,一般由排氣閥、分支管路和主管路等組成。分支管路的軟管端部安裝有QDC,實現(xiàn)與服務器內冷板組件的連接。主管路接口位于上端或下端,是工藝冷媒供回液冷機柜的接口,與LCM通過軟管連接。

冷量分配單元CDU:CDU的作用是將進入服務器冷板組件的工藝冷媒與冷源側的冷卻水進行隔離,并將冷卻后的工藝冷媒分配給不同服務器的冷板的冷卻設備。根據(jù)布置方式不同,分為機架式CDU和柜式CDU。其比較具體見2.1.1。

環(huán)路工藝冷媒供回歧管LCM:LCM一般安裝于數(shù)據(jù)中心地板底部,有時也會安裝于機柜頂部,具備分液、集液和排氣等功能。LCM一般由排氣閥、分支管路、主管路、閥件等組成。LCM將從CDU冷卻的工藝冷媒,通過分支軟管輸送到RCM處。

工藝冷媒:主要選擇純水液和配方液。純水液主要為去離子水,配方液主要為乙二醇或丙二醇溶液。RCM圖示及設計要求CDU內部器件示意圖CDU不入列LCM布置架構方案RCM圖示左為機架式CDU,右為柜式CDUCDU入列LCM布置架構方案通常采用

304

以上方鋼,20

個分支管路以上的

RCM,建議尺寸30×30mm或

40×40mm設計要求主路上限流量下的壓損建議不超過

5kPa作為分集液器,應保證流量均勻,各分支管路的最大流量與最小流量之差建議不超過

10%設計壓力建議不小于

1.0MPa資料:

ODCC《冷板液冷標準化及技術優(yōu)化白皮書》,華西證券研究所272.3.3

液冷產(chǎn)業(yè)生態(tài)拆分——二次側:

浸沒式

浸沒式液冷的二次側組件可分為:浸沒腔體TANK、液冷換熱模塊CDM、水平/豎直分液集氣單元以及浸沒式液冷冷卻介質等。

浸沒腔體TANK:單項浸沒式液冷系統(tǒng)的核心部件。由密閉箱體、液體分配單元、溫度傳感器、液位傳感器等組成,作為電子元件與液體進行熱交換的場所,為電子元器件提供安全可靠的冷卻環(huán)境。底部宜采用多孔板加填充塊設計,需要注意保證進入各節(jié)點的液體流量均勻。填充塊固定在Tank兩側和下部,形成Tank內液體流道,同時起到減少液體使用量的作用。

液冷換熱模塊CDM:用于二次側氣態(tài)冷卻介質與一次側冷源進行換熱,對液冷IT設備提供冷量分配與智能管理的模塊,是為解決相變浸沒式液冷服務器散熱問題所推出的一體化散熱模塊。

水平/豎直分液集氣單元(HCDU/VCDU):前者分為集氣器和水平分液器兩部分,部署于計算刀箱的后部;后者連接如下圖所示。

浸沒式液冷冷卻介質:浸沒式液冷冷卻介質與服務器直接接觸,應具有良好的化學穩(wěn)定性、良好的熱穩(wěn)定性、絕緣性等。相變浸沒式液冷冷卻介質還應具備較低的沸點和較高的汽化潛熱。碳氟化合物是滿足以上條件的最佳材料,也是浸沒式液冷核心技術之一。TANK形態(tài)示意圖CDM特點及原理上為VCDU,下為VCDUCDM超低能耗、高制冷效率、低噪聲、高可靠性特點在二次側循環(huán)中,通過冷卻介質的相變實現(xiàn)熱量的轉移:低溫液態(tài)冷卻介質由CDM輸送至熱源散熱器中,冷卻介質在熱源散熱器沸騰變成氣態(tài)冷卻介質,然后冷卻介質氣體匯集進入CDM的冷凝器中與一次側水進行換熱,冷凝成為低溫液態(tài)冷卻介質,然后再次被CDM輸送至熱源散熱器中,完成二次側循環(huán)。在一次側循環(huán)中,通過水的溫升實現(xiàn)熱量的轉移:低溫水在CDM換熱器中升溫后變成高溫水,高溫水由一次側循環(huán)水泵輸送到室外冷卻塔中與大氣進行換熱,變成低溫水。然后低溫水再被輸送到CDM換熱器中,完成一次側循環(huán)。工作原理CDM原理圖為冷卻介質提供循環(huán)動力將冷卻介質攜帶的熱量傳遞到一次側控制循環(huán)系統(tǒng)中冷卻介質的溫度、壓力和流量功能服務器充排液標準化預制機柜設備支撐架為計算機柜和CDM提供支撐為CDM提供水力調節(jié)和冷卻介質循環(huán)配套設備28梳理液冷產(chǎn)業(yè)鏈的受益公司03293.1液冷受益產(chǎn)業(yè)鏈——服務器內側端

我們將液冷產(chǎn)業(yè)鏈的受益公司簡單拆解為三類,分別是服務器內側端、液冷建設端、液冷基礎設施提供商。

服務器內側端:

我們將服務器內側端的定義為服務器內部的組件,直接受益于高算力、高功率的AI芯片放量,此類公司的代表性產(chǎn)品冷板組件、快速接頭QDC等產(chǎn)品,采購方為或服務器廠商、英偉達或英偉達服務器廠商。

代表公司:

飛榮達:其散熱器件產(chǎn)品包括服務器液冷散熱產(chǎn)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論