2023年通信行業(yè)云基建專題報告 海外巨頭布局-國內(nèi)有望迎來加速_第1頁
2023年通信行業(yè)云基建專題報告 海外巨頭布局-國內(nèi)有望迎來加速_第2頁
2023年通信行業(yè)云基建專題報告 海外巨頭布局-國內(nèi)有望迎來加速_第3頁
2023年通信行業(yè)云基建專題報告 海外巨頭布局-國內(nèi)有望迎來加速_第4頁
2023年通信行業(yè)云基建專題報告 海外巨頭布局-國內(nèi)有望迎來加速_第5頁
已閱讀5頁,還剩6頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

2023年通信行業(yè)云基建專題報告海外巨頭布局_國內(nèi)有望迎來加速AI加速超算/智算中心發(fā)展趨勢AIGC等新場景:有望成為新一輪的云基建建設(shè)驅(qū)動力AIGC等新應用場景的出現(xiàn),成為未來云基建投資的重要推動力。數(shù)據(jù)中心作為流量的基石,算力的重要載體,核心受益于算力和流量的擴張,近十年行業(yè)經(jīng)歷了幾輪快速的發(fā)展增長,分別受益于移動互聯(lián)網(wǎng)、帶來的線上流量增長等;隨著AI等新應用場景的出現(xiàn),為行業(yè)賦予了新的增長動能,有望帶動行業(yè)新一輪建設(shè)升級。ChatGPT:基于NLP的大模型訓練ChatGPT:基于自然語言處理(NLP)下的AI大模型,產(chǎn)品能夠通過大算力、大規(guī)模訓練數(shù)據(jù)突破AI瓶頸,通過理解和學習人類的語言來進行對話,實現(xiàn)聊天交流、撰寫郵件、視頻腳本、文案、翻譯、代碼,寫論文等任務。ChatGPT引入新技術(shù)RLHF(ReinforcementLearningwithHumanFeedback,即基于人類反饋的強化學習)進一步提升了人工智能模型的產(chǎn)出和人類的常識、認知、需求、價值觀保持一致,促進了利用人工智能進行內(nèi)容創(chuàng)作、提升內(nèi)容生產(chǎn)效率與豐富度。AI投資:海外巨頭布局,國內(nèi)有望迎來加速國內(nèi)企業(yè)積極陸續(xù)布局AI等應用場景投資,后續(xù)有望持續(xù)加大。在中國,浪潮、中科院、阿里達摩院等陸續(xù)推出源1.0、紫東太初、M6等。其中,浪潮“源1.0”巨量模型,參數(shù)量和數(shù)據(jù)集分別達到2457億和50000GB,相比于美國GPT-3,源1.0參數(shù)集規(guī)模高40%,訓練數(shù)據(jù)集規(guī)模領(lǐng)先近10倍。AI加速下IDC產(chǎn)業(yè)趨勢:智算/超算數(shù)據(jù)中心占比有望進一步提升隨著AI、ChatGPT等大模型場景的發(fā)展,未來我國超算/智算中心的占比有望進一步提升:智能計算中心:服務于人工智能的數(shù)據(jù)計算中心,包括人工智能、機器學習、深度學習等需求,以GPU等AI訓練芯片為主,為AI計算提供更大的計算規(guī)模和更快的計算速度,以提升單位時間單位能耗下的運算能力及質(zhì)量為核心訴求;超算中心:為集中放置的超級計算機(由通用或?qū)S玫母咝阅苡布蛙浖M成的,為處理復雜的數(shù)據(jù)、算法和應用等提供算力的高性能計算平臺提供運行環(huán)境的建筑場所)設(shè)備提供運行環(huán)境的場所。我國目前建成的智算中心超過20個,未來比例有望進一步提升截至2021年底,我國在用數(shù)據(jù)中心機架總規(guī)模達520萬標準機架,在用數(shù)據(jù)中心服務器規(guī)模1900萬臺,算力總規(guī)模超過140EFLOPS,其中在用超大型和大型數(shù)據(jù)中心超過450個,智算中心超過20個,投資主體包括云廠商、AI企業(yè)、政府等,典型的數(shù)據(jù)中心案例包括;阿里云張北超級智算中心可提供12EFLOPS(每秒1200億億次浮點運算)AI算力,將超過谷歌的9EFLOPS和特斯拉的1.8EFLOPS,成為全球最大的智算中心,可為AI大模型訓練、自動駕駛、空間地理等人工智能探索應用提供強大的智能算力服務;商湯“新一代人工智能計算與賦能平臺”臨港超算中心總算力規(guī)模超過3700PFLOPS??偼顿Y金額超過50億元人民幣,一期將安置5000個等效8000W的機柜。算力中心建成并投入使用后,可同時接入850萬路視頻,1天即可完成23600年時長的視頻處理工作;南京智算中心已運營AI計算能力達每秒80億億次(AI算力遠超傳統(tǒng)數(shù)據(jù)中心提供的基礎(chǔ)算力供給),采用浪潮AI服務器算力機組,搭載寒武紀思元270和思元290智能芯片及加速卡。1小時可完成100億張圖像識別、300萬小時語音翻譯或1萬公里的自動駕駛AI數(shù)據(jù)處理任務。ChatGPT場景下智算中心投資趨勢測算大模型訓練算力需求測算根據(jù)openAI披露,ChatGPT3.0版本模型參數(shù)已達1750億,2023年3月發(fā)布的GPT-4.0版本模型參數(shù)較4.0進一步躍升,未來隨著算力場景的增長,模型所需的算力有望呈現(xiàn)持續(xù)加速增長態(tài)勢。超算/智算模型投資成本測算——單臺GPU及配套未來大模型的參數(shù)訓練主要通過GPU完成,以NVIDIADGXA100基礎(chǔ)架構(gòu)通用系統(tǒng)舉例,單臺GPU配置包括:從算力上看:產(chǎn)品配置8個英偉達A100GPU,320GHNM2GPU存儲、6個第二代NVSwitch、2塊64核AMDCPU、2TB內(nèi)存,并針對NVIDIACUDA-X?軟件和整套端到端NVIDIA數(shù)據(jù)中心解決方案進行全面優(yōu)化。同時,產(chǎn)品提供高速網(wǎng)絡(luò)連接選項,進一步提高可擴展性提升響應速度,系統(tǒng)配置NVIDIA?ConnectX?-7InfiniBand或以太網(wǎng)網(wǎng)卡,雙向帶寬峰值為500GB/s。超算/智算模型投資成本測算——以單臺GPU及配套測算參考英偉達AI數(shù)據(jù)中心建設(shè)的單元結(jié)構(gòu),結(jié)合目前市場上對于上述產(chǎn)品的報價情況,我們測算,單臺GPU節(jié)點(內(nèi)含8張A100加速卡、雙核CPU),疊加其配套的網(wǎng)絡(luò)、存儲、光模塊以及機電暖通設(shè)備等,單臺GPU服務器(內(nèi)配8張A100GPU卡)及配套網(wǎng)絡(luò)等產(chǎn)品整體價值量有望達到170萬元以上。投資成本對比分析:傳統(tǒng)數(shù)據(jù)中心VS超算/智算數(shù)據(jù)中心我們以6KW云計算數(shù)據(jù)中心機柜建設(shè)成本造價對比分析8臺GPU所對應的AI服務器,初期建設(shè)成本如下:對于標準6KW服務器機柜,假設(shè)在80%上架率情況下,對應服務器端的投資約35萬元,產(chǎn)品采用風冷方式散熱,平均投資為60萬元(含服務器),其中ICT設(shè)備環(huán)節(jié)整體占比超過50%%,基建及機電環(huán)節(jié)占比約40以上%;對于未來GPU算力,服務器環(huán)節(jié)價值量快速提升,預計服務器占總價值量比例有望進一步提升。高密算力下ICT及機電設(shè)備發(fā)展趨勢算力芯片趨勢:超算/智算中心GPU算力有望成為主流在高算力場景下GPU為核心的AI服務器占比快速提升。傳統(tǒng)的通用服務器主要依靠CPU完成計算功能,CPU作為服務器的中央處理器,可用于廣泛應用場景的計算程序執(zhí)行等,是通用服務器的核心。GPU具有超強的計算能力、具有較強的并發(fā)能力和強大的多任務處理功能。(通用服務器并沒有加顯卡)用GPU來大大加速那些CPU不是很擅長的浮點運算,可以滿足3D圖形應用程序、視頻解碼、深度學習、科學計算等要求。隨著AI、大模型等應用場景的快速提升,GPU服務器占比有望持續(xù)提升。算力芯片趨勢:芯片功耗實現(xiàn)數(shù)倍增長GPU芯片算力和功耗較CPU明顯提升。對比普通的云計算及通用服務器主要以CPU芯片為主,平均功耗為100-300W/芯片,超算數(shù)據(jù)中心中,主要以GPU、DPU、FPGA等異構(gòu)加速芯片為主,以英偉達V100芯片為例,GPU平均功耗可以達到400-700W,按照目前主流使用的GPU超算服務器(內(nèi)含8個V100加速卡),單臺服務器功耗可以達到3-6KW。實際總算力=單芯片性能X芯片數(shù)量X宏觀算力(利用率)。服務器趨勢:AI服務器增長提速,占比持續(xù)提升x86服務器:采用CISC架構(gòu)處理器,大多數(shù)CPU廠商(如AMD,Intel)生產(chǎn)的就是這種處理器。x86服務器價格便宜、兼容性好,在現(xiàn)在的服務器市場里,主要用在中小企業(yè)和非關(guān)鍵業(yè)務中。2021年全球x86服務器市場規(guī)模為893億美元,占服務器總銷售額的91%。2021年中國x86服務器行業(yè)市場規(guī)模為241億美元(1687億元),占服務器總銷售額的96.7%。內(nèi)部算力網(wǎng)絡(luò):以超大規(guī)模、超高帶寬、超低時延網(wǎng)絡(luò)為主智算中心內(nèi)部對于網(wǎng)絡(luò)的高帶寬、超低時延、超高可靠性提出了更高的要求。智算中心主要以AI訓練模型為主,要求不同的節(jié)點之前有更強的資源供給彈性,是智算中心擴展性和算力提升的關(guān)鍵。智算中心在算力上將算力資源全面解耦,以追求計算、存儲資源極致的彈性供給和利用,并將池化算力資源基礎(chǔ)上提供基于CPU、GPU、存儲之間高效連接的網(wǎng)絡(luò)體系,以滿足強大的資源網(wǎng)絡(luò)擴張趨勢,因此,在超算和智算網(wǎng)絡(luò)中心,相較于傳統(tǒng)的數(shù)據(jù)中心網(wǎng)絡(luò)有望呈現(xiàn)采取新的網(wǎng)絡(luò)拓撲設(shè)計、推進高效IPv6演進、采用新型IB網(wǎng)絡(luò)、加大智算中心內(nèi)部互聯(lián)、加強端網(wǎng)協(xié)同等趨勢。高速算力網(wǎng)絡(luò):Infiniband高速網(wǎng)絡(luò)Infiniband網(wǎng)絡(luò)(IB網(wǎng)絡(luò)):是指通過一套中心Infiniband交換機在存儲、網(wǎng)絡(luò)以及服務器等設(shè)備之間建立一個單一的連接鏈路,通過中心Infiniband交換機來控制流量,能夠降低硬件設(shè)備間數(shù)據(jù)流量擁塞,有效解決傳統(tǒng)I/O結(jié)構(gòu)的通信傳輸瓶頸,還能與遠程存儲設(shè)備和網(wǎng)絡(luò)設(shè)備相連接,是高算力網(wǎng)絡(luò)主流架構(gòu);光模塊趨勢:CPO(光電共封裝)技術(shù)演變趨勢隨著電口速率提升到112G,高速信號在PCB傳輸中的損耗隨之增加,對PCB的設(shè)計難度、材料成本帶來挑戰(zhàn),同時還需要在可插拔光模塊和交換芯片之間的高速走線上增加更多的Retimer芯片,整機的運行功耗也將大幅提升。為了克服這些問題,CPO逐漸成為共識。CPO也就是將光模塊不斷向交換芯片靠近,縮短芯片和模塊之間的走線距離,并逐步替代可插拔光模塊,最終把交換芯片(或XPU)ASIC和光/電引擎(光收發(fā)器)共同封裝在同一基板上,引擎盡量靠近ASIC,以最大程度地減少高速電通道損耗和阻抗不連續(xù)性,從而可以使用速度更快、功耗更低的片外I/O驅(qū)動器。目前CPO還有許多亟待解決的關(guān)鍵技術(shù)問題需要突破,例如如何選擇光引擎的調(diào)制方案、如何進行架構(gòu)光引擎內(nèi)部器件間的封裝以及如何實現(xiàn)量產(chǎn)可行的高耦合效率光源耦合。傳統(tǒng)的基于像EML、DML等分立式光學引擎設(shè)計的一些方式,基本上不再能滿足Co-packaging對空間的一些要求。目前主流的CPO有兩種技術(shù)方案和應用場景。一是基于VCSEL的多模方案,30m及以下距離,主要面向超算及AI集群的短距光互聯(lián);二是基于硅光集成的單模方案,2公里及以下距離,主要面向大型數(shù)據(jù)中心內(nèi)部光互聯(lián)。硅基方案具有無需氣密封裝、高帶寬、易集成等優(yōu)勢。溫控設(shè)備趨勢:液冷的價值量占比較風冷有望明顯提升以單KW價值量來算,液冷環(huán)節(jié)的價值量較傳統(tǒng)的風冷冷卻方式有望較快增長。根據(jù)CDCC2020年披露,液冷機組環(huán)節(jié)在數(shù)據(jù)中心建造成本中占比約15%-17%,考慮到傳統(tǒng)風冷技術(shù)相對成熟,液冷涉及到服務器機組內(nèi)部(冷板)、管道接頭、外部冷凍水機、水泵、冷卻液等諸多環(huán)節(jié),從全鏈條價值量看,液冷系統(tǒng)的價值量在數(shù)據(jù)中心建造成本構(gòu)成(不含服務器)中占比有望進一步提升。市場競爭相對充分,我們認為,從風冷—間接蒸發(fā)冷—液冷的升級的過程中,液冷在數(shù)據(jù)中心單KW建造成本中價值量有望持續(xù)提升(高功率有望接近20%)。IDC行業(yè)周期趨勢回顧政策端:基礎(chǔ)設(shè)施仍然是未來投資重要的方向AIGC等新應用場景的出現(xiàn),成為未來云基建投資的重要推動力。數(shù)據(jù)中心作為流量的基石,算力的重要載體,核心受益于算力和流量的擴張,近十年行業(yè)經(jīng)歷了幾輪快速的發(fā)展增長,分別受益于移動互聯(lián)網(wǎng)、帶來的線上流量增長等;隨著AI等新應用場景的出現(xiàn),為行業(yè)賦予了新的增長動能,有望帶動行業(yè)新一輪建設(shè)升級。新場景帶來的流量擴張,推動行業(yè)需求快速增長移動互聯(lián)網(wǎng)流量爆發(fā)式增長,是推動IDC行業(yè)發(fā)展的第一波浪潮。移動互聯(lián)網(wǎng)的流量快速發(fā)展的周期始于2013年,隨著移動電話的普及、移動網(wǎng)絡(luò)升級流量迎來快速增長。2018年,在各種線上線下服務加快融合,移動互聯(lián)網(wǎng)業(yè)務創(chuàng)新大力驅(qū)動下,移動支付/出行/視頻直播等應用場景快速普及,移動互聯(lián)網(wǎng)接入流量增速創(chuàng)下新高(同比+189%)。2020年,隨著的爆發(fā),大量的線下場景轉(zhuǎn)為線上,帶動了行業(yè)第二波高速增長。參考我國第三方IDC企業(yè)龍頭萬國數(shù)據(jù)、世紀互聯(lián),二者均在2013-2015年間、2018-2020年享受了行業(yè)高增長帶來的增長紅利。機柜數(shù):存量機構(gòu)數(shù)超過350萬架數(shù)據(jù)中心是算力重要載體,2021年我國存量機柜數(shù)超過350萬架。根據(jù)CDCC統(tǒng)計,截至2021年,我國存量數(shù)據(jù)中心機柜數(shù)超過350萬架,其中華東地區(qū)超過100萬架,華南華北地區(qū)分別達到90/80萬架,未來隨著數(shù)字經(jīng)濟發(fā)展以及流量的增長,國內(nèi)數(shù)據(jù)中心2025年規(guī)模有望超過750萬架。行業(yè)內(nèi)平均上架率約58%。根據(jù)科智咨詢統(tǒng)計,截止當前我國IDC機柜平均上架率約58%,在保持基礎(chǔ)設(shè)施建設(shè)適當超前水平下,預計未來行業(yè)上架率整體有望維持在該水平區(qū)間。第三方IDC:22年交付情況各異,需求復蘇下景氣度提升修正后預計22年新增機柜數(shù)較此前略有下調(diào),主要受到了及客戶上架速度影響。根據(jù)各家公告數(shù)統(tǒng)計,國內(nèi)頭部第三方IDC企業(yè)2021年交付總機柜數(shù)超過49萬架,較2020年全年新交付14萬架,2021年全年

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論