網(wǎng)絡(luò)升級(jí)可提升算力效率1.6T光模塊有望加速產(chǎn)業(yè)化_第1頁
網(wǎng)絡(luò)升級(jí)可提升算力效率1.6T光模塊有望加速產(chǎn)業(yè)化_第2頁
網(wǎng)絡(luò)升級(jí)可提升算力效率1.6T光模塊有望加速產(chǎn)業(yè)化_第3頁
網(wǎng)絡(luò)升級(jí)可提升算力效率1.6T光模塊有望加速產(chǎn)業(yè)化_第4頁
網(wǎng)絡(luò)升級(jí)可提升算力效率1.6T光模塊有望加速產(chǎn)業(yè)化_第5頁
已閱讀5頁,還剩13頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

目錄TOC\o"1-1"\h\z\u一、網(wǎng)絡(luò)在算力系統(tǒng)中的地位有望繼續(xù)提升,1.6T光塊加速推進(jìn) 1二、北美云廠商資本開支指引樂觀,800G及1.6T光模塊需求或爆發(fā) 8三、投資建議 15四、風(fēng)險(xiǎn)分析 16圖表目錄圖表1:英達(dá)DGXA100SuperPOD系統(tǒng)意圖 1圖表2:光信業(yè)和電升迭示圖 2圖表3:英達(dá)GH200VSH100IB集在內(nèi)模下的現(xiàn) 2圖表4:GH200網(wǎng)接示圖 3圖表5:1.6T的OSFP-XD封與OSFD和QSFP-DD封裝對(duì)比 3圖表6:OSFPMSA和4x400GMSA的1.6T主方案 4圖表7:OSFP-XD的DR8網(wǎng)絡(luò)撲圖 4圖表8:OSFP-XD的4xFR2絡(luò)撲圖 4圖表9:OSFPMSA和4x400GMSA的1.6T主方案 5圖表10:三菱200GEML結(jié)示圖 5圖表11:博通200GEML及PD決案意圖 5圖表12:Marvell于模塊的DSP產(chǎn)升意圖 6圖表13:OSFP-XD裝式下分接的意圖 6圖表14:NVLink同的級(jí)Roadmap 7圖表15:在PCIe和NVLink不情的GPU與模塊例況 7圖表16:北四云資本支況百美) 8圖表17:亞遜收況(萬元) 8圖表18:亞遜本情況百美) 8圖表19:的代EC2UltraClusters的絡(luò)構(gòu)介示圖 9圖表20:的代EC2UltraClusters的絡(luò)構(gòu)介示圖 9圖表21:含的HPC軟棧意圖 10圖表22:SRD協(xié)意圖 10圖表23:2020-2023Q2年Meta收情(萬) 10圖表24:2020-2023Q2年Meta資開情(美元) 10圖表25:Meta的SuperCluster網(wǎng)架介示圖 11圖表26:Meta早發(fā)的數(shù)中網(wǎng)架示圖 12圖表27:Meta新數(shù)中心備布意圖 12圖表28:2020-2023Q2谷歌收情(萬元) 13圖表29:2020-2023Q2谷歌本支況百美元) 13圖表30:谷歌Spine換機(jī)步成OCS13圖表31:谷包含OCS網(wǎng)絡(luò)構(gòu)意圖 14圖表32:谷歌PalomarOCS內(nèi)部構(gòu)意圖 14圖表33:谷內(nèi)置Circulator的模結(jié)示圖 14圖表34:2020-2023Q2微軟收情(萬元) 15圖表35:2020-2023Q2微軟本支況百美元) 15一、網(wǎng)絡(luò)在算力系統(tǒng)中的地位有望繼續(xù)提升,1.6T光模塊加速推進(jìn)算力基礎(chǔ)設(shè)施是影響AI發(fā)展與應(yīng)用的核心因素,優(yōu)秀的網(wǎng)絡(luò)性能可以提升計(jì)算效率,顯著提升算力水平。ChatGPTAIGCAI模型和海量數(shù)據(jù),能夠在多個(gè)應(yīng)用場(chǎng)景下產(chǎn)生優(yōu)質(zhì)的內(nèi)容,AIGCAI發(fā)展與應(yīng)用的核心因素。算力基礎(chǔ)設(shè)施成了目前行業(yè)亟需布局的資源,目前除了CPU/GPU等算力硬件需求強(qiáng)勁之外,網(wǎng)絡(luò)端也催生了更大的帶寬需求,以匹配日益增長(zhǎng)的流量,未來隨著AI應(yīng)用的發(fā)展,對(duì)于流量與帶寬的需求有望進(jìn)一步增長(zhǎng)。圖表1:英偉達(dá)DGXA100SuperPOD系統(tǒng)示意圖資料來源:英偉達(dá),2022年開始,北美傳統(tǒng)云計(jì)算市場(chǎng)的光模塊已經(jīng)開始向800G速率升級(jí),在AI領(lǐng)域,我們認(rèn)為無論是訓(xùn)練還是推理,800G在2023年-2024年,都將是AI數(shù)據(jù)中心的首選。速率已經(jīng)升級(jí)到800G的速率。從電口來看,單個(gè)Serdes的速率達(dá)到了100G,而單個(gè)光路的速率也達(dá)到了50GBaud(EML的速率)PAM4100G速率。800G2022年底開始小批量出貨,2023AIAI的客戶也是采用目前行業(yè)速率最高的800G光模塊。2024年,800G光模塊的出貨量有望大幅增長(zhǎng)。目前,英偉達(dá)的A100GPU主要對(duì)應(yīng)使用200G光模塊,H100GPU主要對(duì)應(yīng)使用800G光模塊。每個(gè)A100GPU配一張MellanoxHDR200Gb/sInfiniband網(wǎng)卡,每個(gè)H100GPU配一張MellanoxNDR400Gb/sInfinibandH100SuperPOD800G1800G2400G8SerDes8100G通道一一對(duì)應(yīng)。因此,在這種設(shè)計(jì)之下,交換機(jī)的通道密度提高,物理尺寸顯著降低。行業(yè)動(dòng)態(tài)報(bào)告圖表2:光通信行業(yè)光口和電口升級(jí)迭代示意圖資料來源:思科,增加網(wǎng)絡(luò)帶寬能夠顯著提升算力,且性價(jià)比很高,GH200便是重要的實(shí)例。NVLink帶寬遠(yuǎn)大于網(wǎng)卡側(cè)的PCIeNVLinkGPUGPU互連,將顯著提升系統(tǒng)的帶寬。20236月,英偉達(dá)創(chuàng)始人兼CEO黃仁勛在NVIDIAComputex2023演講中宣布,生成式AI引擎NVIDIADGXGH200現(xiàn)已投入量產(chǎn)。GH200NVLink4900GB/s超大網(wǎng)絡(luò)帶寬能力來提升算力,服務(wù)器256GH2001GH2009800G256GH2001GH20012800G光模塊。相較傳統(tǒng)的IB/Ethernet的網(wǎng)絡(luò),GH200采用的NVLink網(wǎng)絡(luò)部分的成本占比雖然大幅增長(zhǎng),但是因?yàn)榫W(wǎng)絡(luò)在數(shù)據(jù)中心中的成本占比較低,因此通過提升網(wǎng)絡(luò)性能來提升算力效率,性價(jià)比實(shí)際很高。圖表3:英偉達(dá)GH200VSH100IB集群在大內(nèi)存模型下的表現(xiàn)資料來源:英偉達(dá),網(wǎng)絡(luò)對(duì)AI的作用愈發(fā)重要,包括帶寬,架構(gòu)和協(xié)議層。更高的網(wǎng)絡(luò)帶寬能夠在單位時(shí)間傳輸更多的數(shù)據(jù)量,在內(nèi)存增加的同時(shí)帶寬也相應(yīng)提升,從而變相提升系統(tǒng)的算力水平;無阻塞的網(wǎng)絡(luò)架構(gòu)能夠保證在數(shù)據(jù)量Infiniband、NVLink系統(tǒng)中的協(xié)議、基于RDMA的以太網(wǎng)協(xié)議、云廠商定制化的網(wǎng)絡(luò)協(xié)議,都能保證數(shù)據(jù)傳輸時(shí)的高穩(wěn)定性、高可靠性及低時(shí)延等。圖表4:GH200的網(wǎng)絡(luò)連接示意圖資料來源:英偉達(dá),1.6T光模塊有望在2024年下半年小批量出貨,比預(yù)期提早一年左右。在AI數(shù)據(jù)中心中,越來越多的客戶傾向于選擇更大帶寬的網(wǎng)絡(luò)硬件。帶寬越大,單位bit傳輸?shù)某杀靖?、功耗更低及尺寸更小?00G光模塊的高增速已經(jīng)能夠反映出AI對(duì)于帶寬迫切的需求,其在2022年底開始小批量,2023年和2024年的出貨量都有望大幅增長(zhǎng)。而AI對(duì)于帶寬的需求是沒有極限的,得益于網(wǎng)絡(luò)較高的性價(jià)比,1.6T光模塊有望加速應(yīng)用。圖表5:1.6T的OSFP-XD封裝與OSFD和QSFP-DD封裝的對(duì)比資料來源:OSFPMSA,目前1.6T光模塊的MSA標(biāo)準(zhǔn)包括4x400G和OSFP。4x400GMSA202112月,主要成員包括AristaMolex等廠商。4x400GMSA100G200G單通道的硬件逐步成熟,4x400G的方案將會(huì)受到比較大的挑戰(zhàn)。而行業(yè)動(dòng)態(tài)報(bào)告OSFPMSA201611400G100多家,包括谷歌、、Coherent、中際旭創(chuàng)、思科和安費(fèi)諾等廠商。OSFPMSA1.6TOSFP1600OSFPXD等兩種封裝方式。圖表6:OSFPMSA和4x400GMSA的1.6T主要方案資料來源:OSFPMSA,4x400GMSA官網(wǎng),目前OSFP-XD封裝方案為1.6T光模塊主流的選擇。OSFP-XDOctalSmallFormFactoreXtraDensePluggableModule2023OFC1.6TOSFP-XD1.6TOSFP-XDDR8+200G,溫度范圍0-7023W2kmOSFP-XD1.6T4xFR2光模塊,采用4xSN16100G4x400GFR21291nm1311nm兩個(gè)波長(zhǎng),同時(shí)公司的官網(wǎng)上DR82xFR4兩款產(chǎn)品;Coherent200G800GGen2和1.6T1.6T1.6T的研發(fā)。圖表7:OSFP-XD的DR8網(wǎng)絡(luò)拓?fù)鋱D 圖表8:OSFP-XD的4xFR2網(wǎng)絡(luò)拓?fù)鋱D資料來源:OSFPMSA, 資料來源:OSFPMSA,1.6T光模塊按照傳輸距離、通道數(shù)和波長(zhǎng)可以分為多種產(chǎn)品,下游客戶可以根據(jù)實(shí)際需求定制化相關(guān)產(chǎn)品。100Gbps100G200GIM-DD的調(diào)制方式,若光口單通道100G16DR16(采用一個(gè)波長(zhǎng)),4FR4(采用四個(gè)波長(zhǎng)),2FR8(采用八個(gè)波長(zhǎng))200G8DR8(采用一個(gè)波長(zhǎng)),4FR2(采用兩個(gè)波長(zhǎng)),2FR4(采用4個(gè)波長(zhǎng)),F(xiàn)R8(采用八個(gè)波長(zhǎng))。以相干的調(diào)制方式,若單通道速率為800G,包括ZR2(采用兩個(gè)波長(zhǎng))。我們認(rèn)為,光口單通道200G預(yù)計(jì)是1.6T光模塊未來的主流選擇。圖表9:OSFPMSA和4x400GMSA的1.6T主要方案資料來源:OSFPMSA,從上游的光芯片來看,200GPAM4EML進(jìn)展加速。1.6T光模塊的發(fā)展,核心元件是芯片,包括光芯片和100GBaudEML200GPAM4EML20233月200GPAM4EMLCWDM的光模塊中,800G采用四個(gè),1.6T采用八個(gè);Lumentum的200GPAM4EMLLightwave2023創(chuàng)新獎(jiǎng),該產(chǎn)品最大限度地降低了輸入電壓的波動(dòng),從而降低驅(qū)動(dòng)芯片PAM4PAM6PAM8200GEML也在加速研發(fā)中,2022年公司已經(jīng)可以提供相關(guān)的解決方案,同時(shí)公司可以提供創(chuàng)新的無制冷的200GEML激光器方案。圖表10:三菱200GEML結(jié)構(gòu)示意圖 圖表11:博通200GEML及PD解決方案示意圖資料來源:三菱, 資料來源:博通,從上游的電芯片來看,1.6TDSP有望迅速取得突破。2023年3月,Marvell發(fā)布了新一代Nova系列PAM4DSP5nm先進(jìn)制程。NovaDSPGearbox16100G8200G1.6TDR8/DR4.2/2xFR4/LR8DSPSNR的性能監(jiān)控、FFE-taps、PRBS發(fā)生器等功能。2023OFCSemtech200G單通道電光112GBdPAM4DSP1.6T網(wǎng)絡(luò)奠定了基礎(chǔ)。圖表12:Marvell用于光模塊中的DSP產(chǎn)品升級(jí)示意圖資料來源:Marvell,從上游的光連接器來看,多款不同產(chǎn)品將采用不同的連接器。根據(jù)光路的數(shù)量和波長(zhǎng)的分類,有不同的連LC連接器、MPO連接器、MXC連接器、CSSN連接器等產(chǎn)品。比如,MPO-12TxRx發(fā)射端;四個(gè)SN連接器可以用于1.6T4xFR2光模塊中。圖表13:OSFP-XD封裝形式下部分連接器的示意圖資料來源:OSFPMSA,從下游客戶來看,英偉達(dá)、谷歌和亞馬遜可能會(huì)是1.6T光模塊的主要需求方。英偉達(dá)網(wǎng)絡(luò)帶寬的需求非GH200中,NVLinkGPUGPU的互連。NVLink4.0的PCIe5.091.6T光模塊,則單位bit1.6TNVLink5.0,帶寬將進(jìn)一步提升,那么對(duì)于光模塊的需求將持續(xù)增長(zhǎng)。我們認(rèn)為,谷歌作為在數(shù)通光模塊市場(chǎng)需求的主力,對(duì)光模塊更1.6T1.6T也將成為谷歌的主要需求產(chǎn)品。而400G1.6T1.6T產(chǎn)品成熟,亞馬遜可能會(huì)大量采購。圖表14:NVLink不同代際的升級(jí)Roadmap資料來源:英偉達(dá),以英偉達(dá)的GH200架構(gòu)為例,假設(shè)PCIe和NVLink的下一代帶寬增加一倍,那么在訓(xùn)練場(chǎng)景下,非常樂觀的情況下,H100與1.6T光模塊對(duì)應(yīng)比例有望達(dá)到1:12。假設(shè)PCIe6.0的帶寬增加一倍,那么從GPU到網(wǎng)卡適配器的帶寬增加一倍,光模塊的總帶寬也增加一倍。在胖樹三層架構(gòu)的基礎(chǔ)上,H100和800G的比例由1:3上升到1:6,與1.6T的比例則可能達(dá)到1:3。假設(shè)NVLink下一代5.0的帶寬增加一倍,在GH200的產(chǎn)品中,H100800G1:91:181.6T1:9256GH200假設(shè)樂觀情況下PCIe和NVLink同時(shí)升級(jí)到下一代產(chǎn)品,且?guī)捲黾右槐叮敲碒100與800光模塊比例有望達(dá)到1:24,與1.6T光模塊比例有望達(dá)到1:12。圖表15:在PCIe和NVLink不同情況下的GPU與光模塊比例情況資料來源:英偉達(dá),(假設(shè)PCIe6.0的帶寬相比5.0增加一倍,NVLink5.0的帶寬相比4.0提升一倍)二、北美云廠商資本開支指引樂觀,800G及1.6T光模塊需求或爆發(fā)北美云廠商收入增速有所回暖,短期資本開支同比下降,但各家云廠商對(duì)未來AI的投資指引樂觀。2023Q2,北美三家云廠商亞馬遜、谷歌和微軟的云業(yè)務(wù)收入總計(jì)541.64億美元(Meta露),15.43%6.41%,增速有所提升。2023Q2334.29.56%89.4330.16%,Meta18.52%,谷0.88%27.15%2023Q2Capex降幅有所擴(kuò)大,但是各家云廠商對(duì)未來(今年下半年及明年)AI業(yè)務(wù)發(fā)展均給予較高期待。圖表16:北美四大云廠商資本開支情況(百萬美元)亞馬遜 微軟 谷歌 Meta 亞馬遜YoY 微軟YoY 谷歌YoY MetaYoY45000 2540000 35000 2030000 1525000 102000015000 50100005000 0%0 -5資料來源:,2023Q2221.412.16%3.68%。雖然在過去的幾個(gè)季AWS客戶在云計(jì)算業(yè)務(wù)的開支不斷減少,但是目前公司已經(jīng)看到客戶開始將注意力更多放在創(chuàng)新上,同時(shí)考慮將新的工作負(fù)載放在云上。2023Q2114.5527.15%,環(huán)比下降19.37%2023500億美元,同比有一定的下降,其中用于配送和運(yùn)輸?shù)闹С鲇蠥I的技術(shù)基礎(chǔ)設(shè)施投資有所增加。圖表17:亞馬遜云收入情況(百萬美元) 圖表18:亞馬遜資本開支情況(百萬美元)AWS收入(百美元) 環(huán)比 同比

資本開支(百萬美元) 環(huán)比 同比25000

20000

200%0

40%30%20%10%0%2020Q12020Q22020Q12020Q22020Q32020Q42021Q12021Q22021Q32021Q42022Q12022Q22022Q32022Q42023Q12023Q2

0

150%100%50%0%2020Q12020Q22020Q12020Q22020Q32020Q42021Q12021Q22021Q32021Q42022Q12022Q22022Q32022Q42023Q12023Q2資料來源:, 資料來源:,AWS用于AI的超算集群,采用無阻塞網(wǎng)絡(luò),AI芯片包括英偉達(dá)GPU和自研的芯片。第一代EC2UltraClusters4000A100GPU400GEFA8A100GPU,4100GEC2UltraClusters,該集群包含20000H100GPUEFA800G3.2T,大幅提升,且同樣采用無阻塞網(wǎng)絡(luò)架構(gòu),因此光模塊用量及速率將大幅提升。UltraClusterTrainiumInferentialAI3Trainium6EFlops。圖表19:AWS的第一代EC2UltraClusters的網(wǎng)絡(luò)架構(gòu)介紹示意圖資料來源:AWS,圖表20:AWS的第二代EC2UltraClusters的網(wǎng)絡(luò)架構(gòu)介紹示意圖資料來源:AWS,行業(yè)動(dòng)態(tài)報(bào)告AWS的網(wǎng)絡(luò)采用EFA配合SRD協(xié)議,因此光模塊及交換機(jī)預(yù)計(jì)也采用定制化方案。EFA是定制化的低HPCRDMATCP通信,網(wǎng)絡(luò)延遲更低,數(shù)據(jù)吞吐量更高。EFA允許應(yīng)用程序直接訪問網(wǎng)絡(luò)接口,而無需讓操作系統(tǒng)參與,從而減少開銷且使得應(yīng)用程序更有效地運(yùn)行。SRDScalableReliableDatagramAWS網(wǎng)絡(luò)構(gòu)建和優(yōu)化的協(xié)議。在HPC中,數(shù)據(jù)包延遲和丟包會(huì)增加時(shí)延,降低擴(kuò)展效率。SRD可以提供可靠的亂序交付,增加盡量多的網(wǎng)絡(luò)路徑發(fā)送數(shù)據(jù)包,在接收處快速排序,既可以降低傳輸延遲,也可以提升數(shù)據(jù)吞吐量。同時(shí)SRD有專門的擁塞控制,保證在各種負(fù)載下較高的傳輸帶寬和穩(wěn)定的時(shí)延。AWS原來的光模塊升級(jí)計(jì)劃是從400G到1.6T,但我們認(rèn)為網(wǎng)絡(luò)帶寬需求不斷提升,2024800G1.6T需求也有望加速。圖表21:包含的HPC軟件棧示意圖 圖表22:SRD協(xié)議示意圖資料來源:AWS, 資料來源:AWS,2023Q2,Meta77.8816.46%36.42%,業(yè)績(jī)表現(xiàn)出色。2023Q2公61.3418.52%2023270億美元-300億美元,本年度第二次下調(diào)全年預(yù)期,主要原因是在非AI的服務(wù)器上節(jié)省了成本,同時(shí)由于項(xiàng)目延遲和設(shè)備交付推遲,這20242024年資本開支將保持增長(zhǎng),驅(qū)動(dòng)力來自數(shù)據(jù)中心和服務(wù)器,尤其用于支撐AI方面的發(fā)展。公司過去在人工智能基礎(chǔ)設(shè)施上投入了數(shù)十億美元,目前這些投入已經(jīng)對(duì)公司的相關(guān)業(yè)務(wù)產(chǎn)生了明顯的推動(dòng)作用,包括排序和推薦系統(tǒng)的優(yōu)化。圖表23:2020-2023Q2年Meta收入情況(百萬美元) 圖表24:2020-2023Q2年Meta資本開支情況(百萬美元)收入(百萬美元) 環(huán)比 同比

資本開支(百萬美元) 環(huán)比 同比40000 60%35000 50%

10000 9000

140%120%0

40%30%20%10%0%-10%-20%-30%

0

100%80%60%40%20%0%-20%2020Q12020Q22020Q12020Q22020Q32020Q42021Q12021Q22021Q32021Q42022Q12022Q22022Q32022Q42023Q12023Q2資料來源:Meta, 資料來源:Meta,行業(yè)動(dòng)態(tài)報(bào)告20221月,Meta發(fā)布了“ResearchSuperCluster”項(xiàng)目,旨在部署超大規(guī)模的服務(wù)器集群。第一階段公760DGXA1006080GPU200GInfiniband3Clos網(wǎng)絡(luò)架20235Meta’sAIInfra@Scale活動(dòng)上表示第二階段的部署之前也已經(jīng)完成。目前,Meta2000DGXA10016000A100GPU。而網(wǎng)絡(luò)部分,Meta采取了當(dāng)Infiniband480002000臺(tái)交換機(jī)。4800096000個(gè)連接點(diǎn),每DACMeta的服務(wù)器集群中,A100與光模塊的比例為1:6,與英偉達(dá)胖樹三層架構(gòu)計(jì)算側(cè)的比例基本一致。我們認(rèn)為,Meta的用于訓(xùn)練的超級(jí)集群的網(wǎng)絡(luò)與英偉達(dá)的DGXA100SuperPOD胖樹三層網(wǎng)絡(luò)架構(gòu)非常相似,GPU與光模塊的比例也基本一致。圖表25:Meta的SuperCluster的網(wǎng)絡(luò)架構(gòu)介紹示意圖資料來源:Meta,追溯Meta老數(shù)據(jù)中心的網(wǎng)絡(luò)架構(gòu),可類比胖樹三層Clos架構(gòu)。2014年,Meta基于簡(jiǎn)單模塊化的設(shè)計(jì)思維,為了能夠擴(kuò)展更大的服務(wù)器規(guī)模,對(duì)現(xiàn)有的網(wǎng)絡(luò)架構(gòu)做了一定的更新。該網(wǎng)絡(luò)架構(gòu)的最小單元為1個(gè)PODPOD48TORTOR440G1610GPOD48TOR4FabricPODSpine行業(yè)動(dòng)態(tài)報(bào)告圖表26:Meta早期發(fā)布的數(shù)據(jù)中心網(wǎng)絡(luò)架構(gòu)示意圖資料來源:Meta,2023Q1,Meta2023340億美元-370300億美元-330億美元,主要原因是數(shù)據(jù)中心建設(shè)的成本降低,因?yàn)樾碌臄?shù)據(jù)中心架構(gòu)性價(jià)比高,可以同時(shí)支持AI和非AI的工作載荷。從MetaAISuperClusterCLOS架構(gòu)。可以看出,Meta1.6T雖然Meta沒有提供新網(wǎng)絡(luò)架構(gòu)的細(xì)節(jié)內(nèi)容,但是我們認(rèn)為可能是非AI和AI服務(wù)器共用存儲(chǔ)、網(wǎng)絡(luò)和液冷等設(shè)備,其中網(wǎng)絡(luò)采用三層CLOS的網(wǎng)絡(luò)基礎(chǔ)架構(gòu),再根據(jù)實(shí)際的工作載荷進(jìn)行切換。圖表27:Meta新的數(shù)據(jù)中心設(shè)備分布示意圖資料來源:Meta,行業(yè)動(dòng)態(tài)報(bào)告2023Q280.3127.96%7.74%Q1基本持平,沒有再出現(xiàn)前兩個(gè)季度同比增速持續(xù)放緩的情況。2023Q268.880.88%,環(huán)比增長(zhǎng)9.52%。公司二季度資本開支略低,主要是由于辦公設(shè)施的優(yōu)化和部分?jǐn)?shù)據(jù)中心建設(shè)延誤。但是公司20232022年,下半年將會(huì)對(duì)技術(shù)基礎(chǔ)設(shè)施的投資有所增加。因此可以推測(cè),下半年18323.11%800G光模塊市場(chǎng)的主要需求廠商,明年需求有望持續(xù)快速增長(zhǎng)。圖表28:2020-2023Q2年谷歌云收入情況(百萬美元) 圖表29:2020-2023Q2年谷歌資本開支情況(百萬美元)收入(百萬美元) 環(huán)比 同比

資本開支(百萬美元) 環(huán)比 同比9000 60%

12000

80%0

50%40%30%20%10%0%

10000 80006000400020000

60%40%20%0%-20%-40%-60% 資料來源:, 資料來源:,谷歌數(shù)據(jù)中心探索OCS(opticalcircuitswitch)光交換機(jī)新方向,可取代Spine層交換機(jī)。谷歌以前的數(shù)CLOSOCSOCS的網(wǎng)絡(luò)。傳統(tǒng)的CLOS網(wǎng)絡(luò)中,Spine層交換機(jī)一直存在需提前部署靈活性差、性能容易成為瓶頸、成本高和功耗高等SpineOCSSpine側(cè)去掉了光電轉(zhuǎn)換過程,同時(shí)在帶寬不斷升級(jí)的背景下,OCS無需做更新,能夠有效降低成本和功耗等問題。圖表30:谷歌Spine層交換機(jī)逐步替換成OCS交換機(jī)資料來源:谷歌,行業(yè)動(dòng)態(tài)報(bào)告基于OCS的網(wǎng)絡(luò)架構(gòu),對(duì)光模塊用量影響實(shí)際較小。目前谷歌采用MEMS方案來實(shí)現(xiàn)OCS。通過對(duì)MEMS中不同鏡面施加一定的電壓,調(diào)節(jié)鏡面的反射角度,以實(shí)現(xiàn)光路方向的轉(zhuǎn)換,完成光信號(hào)在不同交換機(jī)之間的傳輸。MEMS具備一定的商用成熟度,擁有波長(zhǎng)和數(shù)據(jù)速率普適性、低功耗和低時(shí)延的優(yōu)點(diǎn),但同時(shí)也有量產(chǎn)成熟度低、轉(zhuǎn)換時(shí)間長(zhǎng)、成本高和可靠性不高等缺點(diǎn),仍需時(shí)間去解決。在Spine層采用OCS交換機(jī),那么在Spine側(cè)OCS交換機(jī)無需光模塊,而在匯聚層的一側(cè)仍需光模塊。假設(shè)整個(gè)網(wǎng)絡(luò)采用胖樹架構(gòu),若匯聚層采用一層交換機(jī),那么GPU和光模塊的比例略有降低,會(huì)有一定影響;若匯聚層采用兩層交換機(jī),那么GPU和光模塊的比例會(huì)有相應(yīng)的提升。因此綜上分析,雖然Spine層采用OCS交換機(jī),對(duì)光模塊的影響較小。圖表31:谷歌包含OCS的網(wǎng)絡(luò)架構(gòu)示意圖資料來源:谷歌,基于OCS的網(wǎng)絡(luò)架構(gòu),光模塊的ASP將有明顯提升。OCS交換機(jī)不再使用光模塊,取而代之的是光纖直PalomarOCS136個(gè)端口,光纖數(shù)量較多,因此降低光纖數(shù)量成為剛需。若匯聚層交換機(jī)上的光模塊還是按照收發(fā)各一根光纖,那么OCS的端口數(shù)及光纖的數(shù)量翻倍。而如果兩根光纖變成一根,那么將大大提升端口利用的效率。因此OCS的網(wǎng)絡(luò)中使用的光模塊,首先必須是波分復(fù)用的方案,其次需要加上一個(gè)環(huán)形器(circulator)800GMux/DeMux組件進(jìn)行波分復(fù)用/解復(fù)用,然后通過環(huán)形器耦合到一根收發(fā)共用的光纖中。定制化增加研發(fā)溢價(jià),加之環(huán)形器增加BOM成本,因此單個(gè)光模塊的價(jià)值量將有明顯提升。谷歌在光連接需求一直保持領(lǐng)先,也有望成為1.6T的主要需求客戶。圖表32:谷歌PalomarOCS內(nèi)部結(jié)構(gòu)示意圖 圖表33:谷歌內(nèi)置Circulator的光模塊結(jié)構(gòu)示意圖資料來源:谷歌, 資料來源:谷歌,行業(yè)動(dòng)態(tài)報(bào)告2023Q2239.9314.75%8.66%,增速有所放緩,AI相關(guān)的收入增量還不是很明顯。2023Q2,微軟的資本開支為89.43億美元(不包含融資租賃),同比增長(zhǎng)30.16%,環(huán)比增長(zhǎng)35.36%。公司預(yù)計(jì)2024財(cái)年的資本開支將逐季度環(huán)比提升,主要用于數(shù)據(jù)中心、CPU和GPU以及網(wǎng)絡(luò)設(shè)備方面。20236Microsoft365Copilot30/月,超市場(chǎng)預(yù)期。AI收入capex的持續(xù)性,若Copilot用戶數(shù)不斷提升,則微軟有望投入更多去強(qiáng)化算力基礎(chǔ)設(shè)施。公司專注于打造強(qiáng)大的人工智能平臺(tái),幫助客戶在數(shù)字化支出中充分受益。圖表34:2020-2023Q2年微軟云收入情況(百萬美元) 圖表35:2020-2023Q2年微軟資本開支情況(百萬美元)收入(百萬美元) 環(huán)比 同比

資本開支(百萬美元) 環(huán)比 同比30000 35%25000 30%20000 20%

10000 9000 800070006000

50%40%30%20%10%0

15%10%5%0%-5%

0

0%-10%-20%-30%-40%-50%2020Q12020Q22020Q12020Q22020Q32020Q42021Q12021Q22021Q32021Q42022Q12022Q22022Q32022Q42023Q12023Q2資料來源:, 資料來源:,三、投資建議雖然近期包括光模塊等在內(nèi)的AI算力板塊有一些調(diào)整,但是中長(zhǎng)期維度下我們?nèi)匀粓?jiān)定看好AI發(fā)展給算力板塊帶來的需求拉動(dòng),行業(yè)景氣度仍在提升,業(yè)績(jī)兌現(xiàn)的概率較高。若不考慮AI的拉動(dòng),傳統(tǒng)數(shù)通光模塊市場(chǎng)需求相對(duì)保持

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論