通信行業(yè)專題報(bào)告_第1頁
通信行業(yè)專題報(bào)告_第2頁
通信行業(yè)專題報(bào)告_第3頁
通信行業(yè)專題報(bào)告_第4頁
通信行業(yè)專題報(bào)告_第5頁
已閱讀5頁,還剩26頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

通信行業(yè)專題報(bào)告:GPT~4引發(fā)新一輪AI算力需求爆發(fā)一、OpenAI正式發(fā)布多模態(tài)大模型GPT-4,實(shí)現(xiàn)多重能力躍升(一)多模態(tài)大模型GPT-4是OpenAI公司GPT系列最新一代模型美國OpenAI公司成立于2015年12月,是全球頂級(jí)的人工智能研究機(jī)構(gòu)之一,創(chuàng)始人包括ElonMusk、著名投資者SamAltman、支付服務(wù)PayPal創(chuàng)始人PeterThiel等人。OpenAI作為人工智能領(lǐng)域的革命者,成立至今開發(fā)出多款人工智能產(chǎn)品。2016年,OpenAI推出了用于強(qiáng)化學(xué)習(xí)研究的工具集OpenAIGym;同時(shí)推出開源平臺(tái)OpenAIUniverse,用于測(cè)試和評(píng)估智能代理機(jī)器人在各類環(huán)境中的表現(xiàn)。2019年,OpenAI發(fā)布了GPT-2模型,可根據(jù)輸入文本自動(dòng)生成語言,展現(xiàn)出人工智能創(chuàng)造性思維的能力;2020年更新了GPT-3語言模型,并在其基礎(chǔ)上發(fā)布了OpenAICodex模型,該模型可以自動(dòng)生成完整有效的程序代碼。2021年1月,OpenAI發(fā)布了OpenAICLIP,用于進(jìn)行圖像和文本的識(shí)別分類;同時(shí)推出全新產(chǎn)品DALL-E,該模型可以根據(jù)文字描述自動(dòng)生成對(duì)應(yīng)的圖片,2022年更新的DALL-E2更是全方位改進(jìn)了生成圖片的質(zhì)量,獲得了廣泛好評(píng)。2022年12月,OpenAI推出基于GPT-3.5的新型AI聊天機(jī)器人ChatGPT,在發(fā)布進(jìn)兩個(gè)月后擁有1億用戶,成為史上用戶增長最快的應(yīng)用;美東時(shí)間2023年3月14日,ChatGPT的開發(fā)機(jī)構(gòu)OpenAI正式推出多模態(tài)大模型GPT-4。GPT(GeneralPre-Training)系列模型即通用預(yù)訓(xùn)練語言模型,是一種利用Transformer作為特征抽取器,基于深度學(xué)習(xí)技術(shù)的自然語言處理模型。GPT系列模型由OpenAI公司開發(fā),經(jīng)歷了長達(dá)五年時(shí)間的發(fā)展:(1)其最早的產(chǎn)品GPT模型于2018年6月發(fā)布,該模型可以根據(jù)給定的文本序列進(jìn)行預(yù)測(cè)下一個(gè)單詞或句子,充分證明通過對(duì)語言模型進(jìn)行生成性預(yù)訓(xùn)練可以有效減輕NLP任務(wù)中對(duì)于監(jiān)督學(xué)習(xí)的依賴;(2)2019年2月GPT-2模型發(fā)布,該模型取消了原GPT模型中的微調(diào)階段,變?yōu)闊o監(jiān)督模型,同時(shí),GPT-2采用更大的訓(xùn)練集嘗試zero-shot學(xué)習(xí),通過采用多任務(wù)模型的方式使其在面對(duì)不同任務(wù)時(shí)都能擁有更強(qiáng)的理解能力和較高的適配性;(3)GPT-3模型于2020年6月被發(fā)布,它在多項(xiàng)自然語言處理任務(wù)上取得了驚人的表現(xiàn),并被認(rèn)為是迄今為止最先進(jìn)的自然語言處理模型之一。GPT-3訓(xùn)練使用的數(shù)據(jù)集為多種高質(zhì)量數(shù)據(jù)集的混合,一次保證了訓(xùn)練質(zhì)量;同時(shí),該模型在下游訓(xùn)練時(shí)用Few-shot取代了GPT-2模型使用的zero-shot,即在執(zhí)行任務(wù)時(shí)給予少量樣例,以此提高準(zhǔn)確度;除此之外,它在前兩個(gè)模型的基礎(chǔ)上引入了新的技術(shù)——“零樣本學(xué)習(xí)”,即GPT-3即便沒有對(duì)特定的任務(wù)進(jìn)行訓(xùn)練也可以完成相應(yīng)的任務(wù),這使得GPT-3面對(duì)陌生語境時(shí)具有更好的靈活性和適應(yīng)性。(4)2022年11月,OpenAI發(fā)布GPT-3.5模型,是由GPT-3微調(diào)出來的版本,采用不同的訓(xùn)練方式,其功能更加強(qiáng)大?;贕PT-3.5模型,并加上人類反饋強(qiáng)化學(xué)習(xí)(RLHF)發(fā)布ChatGPT應(yīng)用,ChatGPT的全稱為ChatGenerativePre-trainedTransformer,是建立在大型語言模型基礎(chǔ)上的對(duì)話式自然語言處理工具,表現(xiàn)形式是一種聊天機(jī)器人程序,能夠?qū)W習(xí)及理解人類的語言,根據(jù)聊天的上下文進(jìn)行互動(dòng),甚至能夠完成翻譯、編程、撰寫論文、編輯郵件等功能。(5)2023年3月,OpenAI正式發(fā)布大型多模態(tài)模型GPT-4(輸入圖像和文本,輸出文本輸出),此前主要支持文本,現(xiàn)模型能支持識(shí)別和理解圖像。(二)GPT大模型通過底層技術(shù)的疊加,實(shí)現(xiàn)組合式的創(chuàng)新由于OpenAI并沒有提供關(guān)于GPT-4用于訓(xùn)練的數(shù)據(jù)、算力成本、訓(xùn)練方法、架構(gòu)等細(xì)節(jié),故我們本章主要討論ChatGPT模型的技術(shù)路徑。ChatGPT模型從算法分來上來講屬于生成式大規(guī)模語言模型,底層技術(shù)包括Transformer架構(gòu)、有監(jiān)督微調(diào)訓(xùn)練、RLHF強(qiáng)化學(xué)習(xí)等,ChatGPT通過底層技術(shù)的疊加,實(shí)現(xiàn)了組合式的創(chuàng)新。GPT模型采用了由Google提出的Transformer架構(gòu)。Transformer架構(gòu)采用自注意力機(jī)制的序列到序列模型,是目前在自然語言處理任務(wù)中最常用的神經(jīng)網(wǎng)絡(luò)架構(gòu)之一。相比于傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)或卷積神經(jīng)網(wǎng)絡(luò)(CNN),Transformer沒有顯式的時(shí)間或空間結(jié)構(gòu),因此可以高效地進(jìn)行并行計(jì)算,并且Transformer具有更好的并行化能力和更強(qiáng)的長序列數(shù)據(jù)處理能力。ChatGPT模型采用了“預(yù)訓(xùn)練+微調(diào)”的半監(jiān)督學(xué)習(xí)的方式進(jìn)行訓(xùn)練。第一階段是Pre-Training階段,通過預(yù)訓(xùn)練的語言模型(PretrainedLanguageModel),從大規(guī)模的文本中提取訓(xùn)練數(shù)據(jù),并通過深度神經(jīng)網(wǎng)絡(luò)進(jìn)行處理和學(xué)習(xí),進(jìn)而根據(jù)上下文預(yù)測(cè)生成下一個(gè)單詞或者短語,從而生成流暢的語言文本;第二階段是Fine-tuning階段,將已經(jīng)完成預(yù)訓(xùn)練的GPT模型應(yīng)用到特定任務(wù)上,并通過少量的有標(biāo)注的數(shù)據(jù)來調(diào)整模型的參數(shù),以提高模型在該任務(wù)上的表現(xiàn)。ChatGPT在訓(xùn)練中使用了RLHF人類反饋強(qiáng)化學(xué)習(xí)模型,是GPT-3模型經(jīng)過升級(jí)并增加對(duì)話功能后的最新版本。2022年3月,OpenAI發(fā)布InstructGPT,這一版本是GPT-3模型的升級(jí)版本。相較于之前版本的GPT模型,InstructGPT引入了基于人類反饋的強(qiáng)化學(xué)習(xí)技術(shù)(ReinforcementLearningwithHumanFeedback,RLHF),對(duì)模型進(jìn)行微調(diào),通過獎(jiǎng)勵(lì)機(jī)制進(jìn)一步訓(xùn)練模型,以適應(yīng)不同的任務(wù)場(chǎng)景和語言風(fēng)格,給出更符合人類思維的輸出結(jié)果。RLHF的訓(xùn)練包括訓(xùn)練大語言模型、訓(xùn)練獎(jiǎng)勵(lì)模型及RLHF微調(diào)三個(gè)步驟。首先,需要使用預(yù)訓(xùn)練目標(biāo)訓(xùn)練一個(gè)語言模型,同時(shí)也可以使用額外文本進(jìn)行微調(diào)。其次,基于語言模型訓(xùn)練出獎(jiǎng)勵(lì)模型,對(duì)模型生成的文本進(jìn)行質(zhì)量標(biāo)注,由人工標(biāo)注者按偏好將文本從最佳到最差進(jìn)行排名,借此使得獎(jiǎng)勵(lì)模型習(xí)得人類對(duì)于模型生成文本序列的偏好。最后利用獎(jiǎng)勵(lì)模型輸出的結(jié)果,通過強(qiáng)化學(xué)習(xí)模型微調(diào)優(yōu)化,最終得到一個(gè)更符合人類偏好語言模型。(三)GPT-4相較于ChatGPT實(shí)現(xiàn)多重能力躍遷ChatGPT于2022年11月推出之后,僅用兩個(gè)月時(shí)間月活躍用戶數(shù)便超過1億,在短時(shí)間內(nèi)積累了龐大的用戶基數(shù),也是歷史上增長最快的消費(fèi)應(yīng)用。多模態(tài)大模型GPT-4是OpenAI的里程碑之作,是目前最強(qiáng)的文本生成模型。ChatGPT推出后的三個(gè)多月時(shí)間里OpenAI就正式推出GPT-4,再次拓寬了大模型的能力邊界。GPT-4是一個(gè)多模態(tài)大模型(接受圖像和文本輸入,生成文本),相比上一代,GPT-4可以更準(zhǔn)確地解決難題,具有更廣泛的常識(shí)和解決問題的能力:更具創(chuàng)造性和協(xié)作性;能夠處理超過25000個(gè)單詞的文本,允許長文內(nèi)容創(chuàng)建、擴(kuò)展對(duì)話以及文檔搜索和分析等用例。(1)GPT-4具備更高的準(zhǔn)確性及更強(qiáng)的專業(yè)性。GPT-4在更復(fù)雜、細(xì)微的任務(wù)處理上回答更可靠、更有創(chuàng)意,在多類考試測(cè)驗(yàn)中以及與其他LLM的benchmark比較中GPT-4明顯表現(xiàn)優(yōu)異。GPT-4在模擬律師考試GPT-4取得了前10%的好成績,相比之下GPT-3.5是后10%;生物學(xué)奧賽前1%;美國高考SAT中GPT-4在閱讀寫作中拿下710分高分、數(shù)學(xué)700分(滿分800)。(2)GPT能夠處理圖像內(nèi)容,能夠識(shí)別較為復(fù)雜的圖片信息并進(jìn)行解讀。GPT-4突破了純文字的模態(tài),增加了圖像模態(tài)的輸入,支持用戶上傳圖像,并且具備強(qiáng)大的圖像能力—能夠描述內(nèi)容、解釋分析圖表、指出圖片中的不合理指出或解釋梗圖。在OpenAI發(fā)布的產(chǎn)品視頻中,開發(fā)者給GPT-4輸入了一張“用VGA電腦接口給iPhone充電”的圖片,GPT-4不僅可以可描述圖片,還指出了圖片的荒謬之處。(3)GPT-4可以處理超過25000字的文本。在文本處理上,GPT-4支持輸入的文字上限提升至25000字,允許長文內(nèi)容創(chuàng)建、擴(kuò)展對(duì)話以及文檔搜索和分析等用例。且GPT-4的多語言處理能力更優(yōu),在GPT-4的測(cè)評(píng)展示中,GPT-4可以解決法語的物理問題,且在測(cè)試的英語、拉脫維亞語、威爾士語和斯瓦希里語等26種語言中,有24種語言下,GPT-4優(yōu)于GPT-3.5和其他大語言模型(Chinchilla、PaLM)的英語語言性能。(4)具備自我訓(xùn)練與預(yù)測(cè)能力,同時(shí)改善幻覺、安全等局限性。GPT-4的一大更新重點(diǎn)是建立了一個(gè)可預(yù)測(cè)拓展的深度學(xué)習(xí)棧,使其具備了自我訓(xùn)練及預(yù)測(cè)能力。同時(shí),GPT-4在相對(duì)于以前的模型已經(jīng)顯著減輕了幻覺問題。在OpenAI的內(nèi)部對(duì)抗性真實(shí)性評(píng)估中,GPT-4的得分比最新的GPT-3.5模型高40%;在安全能力的升級(jí)上,GPT-4明顯超出ChatGPT和GPT3.5。(四)商業(yè)模式愈發(fā)清晰,微軟Copilot引發(fā)跨時(shí)代的生產(chǎn)力變革OpenAI已正式宣布為第三方開開發(fā)者開放ChatGPTAPI,價(jià)格降低加速場(chǎng)景應(yīng)用爆發(fā)。起初ChatGPT免費(fèi)向用戶開放,以獲得用戶反饋;今年2月1日,OpenAI推出新的ChatGPTPlus訂閱服務(wù),收費(fèi)方式為每月20美元,訂閱者能夠因此而獲得更快、更穩(wěn)定的響應(yīng)并優(yōu)先體驗(yàn)新功能。3月2日,OpenAI官方宣布正式開放ChatGPTAPI(應(yīng)用程序接口),允許第三方開發(fā)者通過API將ChatGPT集成至他們的應(yīng)用程序和服務(wù)中,價(jià)格為1ktokens/$0.002,即每輸出100萬個(gè)單詞需要2.7美元,比已有的GPT-3.5模型價(jià)格降低90%。模型價(jià)格的降低將推動(dòng)ChatGPT被集成到更多場(chǎng)景或應(yīng)用中,豐富ChatGPT的應(yīng)用生態(tài),加速多場(chǎng)景應(yīng)用的爆發(fā)。GPT-4發(fā)布后OpenAI把ChatGPT直接升級(jí)為GPT-4最新版本,同時(shí)開放了GPT-4的API。ChatGPTPlus付費(fèi)訂閱用戶可以獲得具有使用上限的GPT-4訪問權(quán)限(每4小時(shí)100條消息),可以向GPT-4模型發(fā)出純文本請(qǐng)求。用戶可以申請(qǐng)使用GPT-4的API,OpenAI會(huì)邀請(qǐng)部分開發(fā)者體驗(yàn),并逐漸擴(kuò)大邀請(qǐng)范圍。該API的定價(jià)為每輸入1000個(gè)字符(約合750個(gè)單詞),價(jià)格為0.03美元;GPT-4每生成1000個(gè)字符價(jià)格為0.06美元。Office引入GPT-4帶來的結(jié)果是生產(chǎn)力、創(chuàng)造力的全面躍升。微軟今天宣布,其與OpenAI共同開發(fā)的聊天機(jī)器人技術(shù)BingChat正在GPT-4上運(yùn)行。CopilotOpenAI發(fā)布升級(jí)后的GPT-4后,微軟重磅發(fā)布了GPT-4平臺(tái)支持的新AI功能,Microsoft365Copilot,并將其嵌入Word、PowerPoint、Excel、Teams等Office辦公軟件中。Copilot可以在一篇速記的基礎(chǔ)上快速生成新聞草稿、并完成草稿潤色;在Excel中完成各種求和、求平均數(shù),做表格、歸納數(shù)據(jù)、甚至是完成總結(jié)提??;在PPT上可以直接將文稿內(nèi)容一鍵生成;在Outlook郵件中自動(dòng)生成內(nèi)容、并自由調(diào)整寫作風(fēng)格、插入圖表;在Teams中總結(jié)視頻會(huì)議的要點(diǎn)/每個(gè)發(fā)言人誰說了核心內(nèi)容,跟進(jìn)會(huì)議流程和內(nèi)容,自動(dòng)生成會(huì)議紀(jì)要、要點(diǎn)和任務(wù)模板?;贕PT-4的Copilot可以看作是一個(gè)辦公AI助理,充分發(fā)揮出了AI對(duì)于辦公場(chǎng)景的賦能作用,有望從根本上改變工作模式并開啟新一輪生產(chǎn)力增長浪潮。二、GPT-4帶動(dòng)多模態(tài)x多場(chǎng)景落地,AIGC藍(lán)海市場(chǎng)打開(一)歷經(jīng)三階段發(fā)展,AIGC技術(shù)升級(jí)步入深化階段AIGC全程為AI-GeneratedContent,人工智能生成內(nèi)容,是繼專業(yè)生成內(nèi)容(PGC,ProfessionalGenerateContent)和用戶生成內(nèi)容(UGC,UserGenerateContent)之后,利用AI自動(dòng)生成內(nèi)容的新型生產(chǎn)方式。傳統(tǒng)AI大多屬于分析式AI,對(duì)已有數(shù)據(jù)進(jìn)行分析并應(yīng)用于相應(yīng)領(lǐng)域。以AIGC為典型的生成式AI不在局限于分析固有數(shù)據(jù),而是基于訓(xùn)練數(shù)據(jù)和算法模型自主生成創(chuàng)造新的文本、3D、視頻等各種形式的內(nèi)容。歷經(jīng)三階段迭代,AIGC現(xiàn)已進(jìn)入快速發(fā)展階段:(1)早期萌芽階段(1950s-1990s),受限于科技水平及高昂的系統(tǒng)成本,AIGC僅限于小范圍實(shí)驗(yàn)。(2)沉淀積累階段(1990s-2010s),AIGC開始從實(shí)驗(yàn)性向?qū)嵱眯灾饾u轉(zhuǎn)變。但由于其受限于算法瓶頸,完成創(chuàng)作能力有限,應(yīng)用領(lǐng)域仍具有局限性;(3)快速發(fā)展階段(2010s-至今),GAN(GenerativeAdversarialNetwork,生成式對(duì)抗網(wǎng)絡(luò))等深度學(xué)習(xí)算法的提出和不斷迭代推動(dòng)了AIGC技術(shù)的快速發(fā)展,生成內(nèi)容更加多元化。AIGC可分為智能數(shù)字內(nèi)容孿生、智能數(shù)字內(nèi)容編輯及智能數(shù)字內(nèi)容創(chuàng)作三大層次。生成式AI是指利用現(xiàn)有文本、音頻文件或圖像創(chuàng)建新內(nèi)容的人工智能技術(shù),其起源于分析式AI,在分析式AI總結(jié)歸納數(shù)據(jù)知識(shí)的基礎(chǔ)上學(xué)習(xí)數(shù)據(jù)產(chǎn)生模式,創(chuàng)造出新的樣本內(nèi)容。在分析式AI的技術(shù)基礎(chǔ)上,GAN、Transformer網(wǎng)絡(luò)等多款生成式AI技術(shù)催生出許多AIGC產(chǎn)品,如DALL-E、OpenAI系列等,它們?cè)谝纛l、文本、視覺上有眾多技術(shù)應(yīng)用,并在創(chuàng)作內(nèi)容的方式上變革演化出三大前沿能力。AIGC根據(jù)面向?qū)ο?、?shí)現(xiàn)功能的不同可以分為智能數(shù)字內(nèi)容孿生、智能數(shù)字內(nèi)容編輯及智能數(shù)字內(nèi)容創(chuàng)作三大層次。(二)生成算法+預(yù)訓(xùn)練模型+多模態(tài)推動(dòng)AIGC的爆發(fā)AIGC的爆發(fā)離不開其背后的深度學(xué)習(xí)模型的技術(shù)加持,生成算法、預(yù)訓(xùn)練和多模態(tài)技術(shù)的不斷發(fā)展幫助了AIGC模型具備通用性強(qiáng)、參數(shù)海量、多模態(tài)和生成內(nèi)容高質(zhì)量的特質(zhì),讓AIGC實(shí)現(xiàn)從技術(shù)提升到技術(shù)突破的轉(zhuǎn)變。(1)生成算法模型不斷迭代創(chuàng)新,為AIGC的發(fā)展奠定基礎(chǔ)。早期人工智能算法學(xué)習(xí)能力不強(qiáng),AIGC技術(shù)主要依賴于事先指定的統(tǒng)計(jì)模型或任務(wù)來完成簡(jiǎn)單的內(nèi)容生成和輸出,對(duì)客觀世界和人類語言文字的感知能力較弱,生成內(nèi)容刻板且具有局限性。GAN(GenerativeAdversarialNetwork,生成式對(duì)抗網(wǎng)絡(luò))的提出讓AIGC發(fā)展進(jìn)入新階段,GAN是早期的生成模型,利用博弈框架產(chǎn)生輸出,被廣泛應(yīng)用于生成圖像、視頻語音等領(lǐng)域。隨后Transformer、擴(kuò)散模型、深度學(xué)習(xí)算法模型相繼涌現(xiàn)。Transformer被廣泛應(yīng)用于NLP、CV等領(lǐng)域,GPT-3、LaMDA等預(yù)訓(xùn)練模型大多是基于transformer架構(gòu)構(gòu)建的。ChatGPT是基于Transformer架構(gòu)上的語言模型,Transformer負(fù)責(zé)調(diào)度架構(gòu)和運(yùn)算邏輯,進(jìn)而實(shí)現(xiàn)最終計(jì)算。Tansformer是谷歌于2017年《AttentionisAllYouNeed》提出的一種深度學(xué)習(xí)模型架構(gòu),其完全基于注意力機(jī)制,可以按照輸入數(shù)據(jù)各部分重要性來分配不同的權(quán)重,無需重復(fù)和卷積。相較于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)流水線式的序列計(jì)算,Transformer可以一次處理所有的輸入,擺脫了人工標(biāo)注數(shù)據(jù)集的缺陷,實(shí)現(xiàn)了大規(guī)模的并行計(jì)算,模型所需的訓(xùn)練時(shí)間明顯減少,大規(guī)模的AI模型質(zhì)量更優(yōu)。Transformer的核心構(gòu)成是編碼模塊和解碼模塊。GPT使用的是解碼模塊,通過模塊間彼此大量堆疊的方式形成了GPT模型的底層架構(gòu),模塊分為前饋神經(jīng)網(wǎng)絡(luò)層、編解碼自注意力機(jī)制層(Self-Attention)、自注意力機(jī)制掩碼層。自注意力機(jī)制層負(fù)責(zé)計(jì)算數(shù)據(jù)在全部內(nèi)容的權(quán)重(即Attention),掩碼層幫助模型屏蔽計(jì)算位置右側(cè)未出現(xiàn)的數(shù)據(jù),最后把輸出的向量結(jié)果輸入前饋神經(jīng)網(wǎng)絡(luò),完成模型參數(shù)計(jì)算。(2)預(yù)訓(xùn)練模型引發(fā)AIGC技術(shù)能力的質(zhì)變。AI預(yù)訓(xùn)練模型是基于大規(guī)模寬泛的數(shù)據(jù)進(jìn)行訓(xùn)練后擁有適應(yīng)廣泛下游任務(wù)能力的模型,預(yù)訓(xùn)練屬于遷移學(xué)習(xí)的領(lǐng)域,其主旨是使用標(biāo)注數(shù)據(jù)前,充分利用大量無標(biāo)注數(shù)據(jù)進(jìn)行訓(xùn)練,模型從中全面學(xué)習(xí)到與標(biāo)注無關(guān)的潛在知識(shí),進(jìn)而使模型靈活變通的完成下游任務(wù)。視覺大模型提升AIGC感知能力,語言大模型增強(qiáng)AIGC認(rèn)知能力。NLP模型是一種使用自然語言處理(NaturalLanguageProcessing,NLP)技術(shù)來解決自然語言相關(guān)問題的機(jī)器學(xué)習(xí)模型。在NLP領(lǐng)域,AI大模型可適用于人機(jī)語言交互,并進(jìn)行自然語言處理從實(shí)現(xiàn)相應(yīng)的文本分類、文本生成、語音識(shí)別、序列標(biāo)注、機(jī)器翻譯等功能。NLP的研究經(jīng)過了以規(guī)則為基礎(chǔ)的研究方法和以統(tǒng)計(jì)為基礎(chǔ)的研究方法的發(fā)展,目前以基于Transformer的預(yù)訓(xùn)練模型已成為當(dāng)前NLP領(lǐng)域的研究熱點(diǎn),BERT、GPT等模型均采用這一方法。CV模型指計(jì)算機(jī)視覺模型,是一種基于圖像或視頻數(shù)據(jù)的人工智能模型。常見的CV模型有采用深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)(CNN)和生成對(duì)抗網(wǎng)絡(luò)(GAN)。近年來以視覺Transformer(ViT)為典型的新型神經(jīng)網(wǎng)絡(luò),通過人類先驗(yàn)知識(shí)引入網(wǎng)絡(luò)設(shè)計(jì),使得模型的收斂速度、泛化能力、擴(kuò)展性及并行性得到飛速提升,通過無監(jiān)督預(yù)訓(xùn)練和微調(diào)學(xué)習(xí),在多個(gè)計(jì)算機(jī)視覺任務(wù),如圖像分類、目標(biāo)檢測(cè)、物體識(shí)別、圖像生成等取得顯著的進(jìn)步。(3)多模態(tài)技術(shù)拓寬了AIGC技術(shù)的應(yīng)用廣度。多模態(tài)技術(shù)將不同模態(tài)(圖像、聲音、語言等)融合在預(yù)訓(xùn)練模型中,使得預(yù)訓(xùn)練模型從單一的NLP、CV發(fā)展成音視頻、語言文字、文本圖像等多模態(tài)、跨模態(tài)模型。多模態(tài)大模型通過尋找模態(tài)數(shù)據(jù)之間的關(guān)聯(lián)點(diǎn),將不同模態(tài)的原始數(shù)據(jù)投射在相似的空間中,讓模態(tài)之間的信號(hào)相互理解,進(jìn)而實(shí)現(xiàn)模態(tài)數(shù)據(jù)之間的轉(zhuǎn)化和生成。這一技術(shù)對(duì)AIGC的原創(chuàng)生成能力的發(fā)展起到了重要的支持作用,2021年OpenAI推出AI繪畫產(chǎn)品DALL.E可通過輸入文字理解生成符合語義且獨(dú)一無二的繪畫作品,其背后離不開多模態(tài)技術(shù)的支持。(三)多模態(tài)x多場(chǎng)景落地,AIGC爆發(fā)商業(yè)潛力ChatGPT的廣泛應(yīng)用意味著AIGC規(guī)?;⑸虡I(yè)化的開始。ChatGPT是文字語言模態(tài)AIGC的具體應(yīng)用,在技術(shù)、應(yīng)用領(lǐng)域和商業(yè)化方面和傳統(tǒng)AI產(chǎn)品均有所不同。ChatGPT已經(jīng)具備了一定的對(duì)現(xiàn)實(shí)世界內(nèi)容進(jìn)行語義理解和屬性操控的能力,并可以對(duì)其回以相應(yīng)的反饋。ChatGPT是AIGC重要的產(chǎn)品化應(yīng)用,意味著AIGC規(guī)模化、商業(yè)化的開始。創(chuàng)新工場(chǎng)董事長兼CEO李開復(fù)博士在3月14日表示,ChatGPT快速普及將進(jìn)一步引爆AI2.0商業(yè)化。AI2.0是絕對(duì)不能錯(cuò)過的一次革命。多家公司正加緊研發(fā)ChatGPT類似產(chǎn)品,引爆新一輪科技企業(yè)AI軍備競(jìng)賽。在GPT4推出之后,Google開放自家的大語言模型API「PaLMAPI」,此外還發(fā)布了一款幫助開發(fā)者快速構(gòu)建AI程序的工具M(jìn)akerSuite。2月底,Meta公布一款全新的AI大型語言模型LLaMA,宣稱可幫助研究人員降低生成式AI工具可能帶來的“偏見、有毒評(píng)論、產(chǎn)生錯(cuò)誤信息的可能性”等問題。AIGC的應(yīng)用領(lǐng)域分為視頻、音頻、文本、圖像、跨模態(tài)生成五個(gè)部分。AIGC以其真實(shí)性、多樣性、可控性、組合性的特質(zhì),為各行業(yè)、各領(lǐng)域提供了更加豐富多元、動(dòng)態(tài)且可交互的內(nèi)容。根據(jù)AIGC生成內(nèi)容的模態(tài)不同,可將AIGC的應(yīng)用領(lǐng)域分為視頻、音頻、文本、圖像、跨模態(tài)生成五個(gè)部分。其中,在圖像、文本、音頻等領(lǐng)域,AIGC已經(jīng)得到了較大優(yōu)化,生成內(nèi)容質(zhì)量得到明顯提升;而在視頻與跨模態(tài)內(nèi)容生成方面,AIGC擁有巨大發(fā)展?jié)摿?。三、高算力需求帶?dòng)基礎(chǔ)設(shè)施迭代加速(一)AI大模型驅(qū)動(dòng)高算力需求數(shù)據(jù)、算力及模型是人工智能發(fā)展的三要素。以GPT系列為例:(1)數(shù)據(jù)端:自O(shè)penAI于2018年發(fā)布GPT-1,到2020年的GPT-3,GPT模型參數(shù)數(shù)量和訓(xùn)練數(shù)據(jù)量實(shí)現(xiàn)指數(shù)型增長。參數(shù)數(shù)量從GPT-1的1.17億增長到GPT-3的1750億,訓(xùn)練數(shù)據(jù)量從5GB增長到的45TB;(2)模型端:ChatGPT在以往模型的基礎(chǔ)上,在語料庫、計(jì)算能力、預(yù)訓(xùn)練、自我學(xué)習(xí)能力等方面有了明顯提升,同時(shí)Transformer架構(gòu)突破了人工標(biāo)注數(shù)據(jù)集的不足,實(shí)現(xiàn)與人類更順暢的交流;(3)算力端:根據(jù)OpenAl發(fā)布的《LanguageModelsareFew-ShotLearners》,訓(xùn)練13億參數(shù)的GPT-3XL模型訓(xùn)練一次消耗的算力約為27.5PFlop/s-dav,訓(xùn)練1750億參數(shù)的完整GPT-3模型則會(huì)消耗算力3640PFlop/s-dav(以一萬億次每秒速度計(jì)算,需要3640天完成)。在人工智能發(fā)展的三要素中,數(shù)據(jù)與算法都離不開算力的支撐。隨著AI算法突飛猛進(jìn)的發(fā)展,越來越多的模型訓(xùn)練需要巨量算力支撐才能快速有效實(shí)施,同時(shí)數(shù)據(jù)量的不斷增加也要求算力配套進(jìn)化。如此看來,算力成為AI突破的關(guān)鍵因素。AI大模型的算力需求主要來自于預(yù)訓(xùn)練、日常運(yùn)營和模型微調(diào)。(1)預(yù)訓(xùn)練:在完成完整訓(xùn)練之前,搭建一個(gè)網(wǎng)絡(luò)模型完成特定任務(wù),在訓(xùn)練網(wǎng)絡(luò)過程中不斷調(diào)整參數(shù),直至網(wǎng)絡(luò)損失和運(yùn)行性能達(dá)到預(yù)期目標(biāo),此時(shí)可以將訓(xùn)練模型的參數(shù)保存,用于之后執(zhí)行類似任務(wù)。根據(jù)中國信通院數(shù)據(jù),ChatGPT基于GPT3.5系列模型,模型參數(shù)規(guī)模據(jù)推測(cè)達(dá)十億級(jí)別,參照參數(shù)規(guī)模相近的GPT-3XL模型,則ChatGPT完整一次預(yù)訓(xùn)練消耗算力約為27.5PFlop/s-dav。(2)日常運(yùn)營:滿足用戶日常使用數(shù)據(jù)處理需求。根據(jù)Similarweb的數(shù)據(jù),23年1月份ChatGPT月活約6.16億,跳出率13.28%每次訪問頁數(shù)5.85頁,假設(shè)每頁平均200token。同時(shí)假設(shè):模型的FLlops利用率為21.3%與訓(xùn)練期間的GPT-3保持一致;完整參數(shù)模型較GPT-3上升至2500億;以FLOPs為指標(biāo),SOTA大型語言在在推理過程中每個(gè)token的計(jì)算成本約為2N。根據(jù)以上數(shù)據(jù)及假設(shè),每月日常運(yùn)營消耗算力約為6.16億*2*(1-13.28%)*5.85*200*2500億/21.3%=14672PFlop/s-day。(3)模型微調(diào):執(zhí)行類似任務(wù)時(shí),使用先前保存的模型參數(shù)作為初始化參數(shù),在訓(xùn)練過程中依據(jù)結(jié)果不斷進(jìn)行微調(diào),使之適應(yīng)新的任務(wù)。ChatGPT引發(fā)新一輪AI算力需求爆發(fā)。根據(jù)OpenAI發(fā)布的《AIandCompute》分析報(bào)告中指出,自2012年以來,AI訓(xùn)練應(yīng)用的算力需求每3.4個(gè)月就回會(huì)翻倍,從2012年至今,AI算力增長超過了30萬倍。據(jù)OpenAI報(bào)告,ChatGPT的總算力消耗約為3640PF-days(即假如每秒計(jì)算一千萬億次,需要計(jì)算3640天),需要7-8個(gè)算力500P的數(shù)據(jù)中心才能支撐運(yùn)行。上海新興信息通信技術(shù)應(yīng)用研究院首席專家賀仁龍表示,“自2016年阿爾法狗問世,智能算力需求開啟爆發(fā)態(tài)勢(shì)。如今ChatGPT則代表新一輪AI算力需求的爆發(fā)”。全球算力規(guī)模將呈現(xiàn)高速增長態(tài)勢(shì)。根據(jù)國家數(shù)據(jù)資源調(diào)查報(bào)告數(shù)據(jù),2021年全球數(shù)據(jù)總產(chǎn)量67ZB,近三年平均增速超過26%,經(jīng)中國信息通信研究院測(cè)算,2021年全球計(jì)算設(shè)備算力總規(guī)模達(dá)到615EFlops,增速達(dá)44%。根據(jù)中國信通院援引的IDC數(shù)據(jù),2025年全球算力整體規(guī)模將達(dá)3300EFlops,2020-2025年的年均復(fù)合增長率達(dá)到50.4%。結(jié)合華為GIV預(yù)測(cè),2030年人類將迎來YB數(shù)據(jù)時(shí)代,全球算力規(guī)模達(dá)到56ZFlops,2025-2030年復(fù)合增速達(dá)到76.2%。(二)云商/運(yùn)營商推進(jìn)AI領(lǐng)域算力基礎(chǔ)設(shè)施投入北美云廠商資本支出向技術(shù)基礎(chǔ)設(shè)施和新數(shù)據(jù)中心架構(gòu)傾斜。22Q4亞馬遜資本支出主要用于技術(shù)基礎(chǔ)設(shè)施的投資,其中大部分用于支持AWS業(yè)務(wù)增長與支持履行網(wǎng)絡(luò)的額外能力。預(yù)計(jì)未來相關(guān)投資將延續(xù),并增加在技術(shù)基礎(chǔ)設(shè)施方面的支出。谷歌指引2023年資本開支與2022年基本持平,其中技術(shù)基礎(chǔ)設(shè)施有所增加,而辦公基礎(chǔ)設(shè)施將減少。Meta2022年資本開支為314.3億美元,同比增長69.3%,但同時(shí)Meta略微調(diào)低其2023年資本開支預(yù)期至300-330億美元(此前預(yù)期為340-370億美元),主要原因系減少數(shù)據(jù)中心建設(shè)的相關(guān)支出,轉(zhuǎn)向新的更具成本效益的、同時(shí)支持AI和非AI工作量的數(shù)據(jù)中心新架構(gòu)。國內(nèi)三大運(yùn)營商積極布局算力網(wǎng)絡(luò),資本支出向新興業(yè)務(wù)傾斜。電信運(yùn)營商作為數(shù)字基座打造者,運(yùn)營商數(shù)字業(yè)務(wù)板塊成為收入增長的主要引擎,近幾年資本支出由主干網(wǎng)絡(luò)向新興業(yè)務(wù)傾斜。中國移動(dòng)計(jì)劃2022年全年算力網(wǎng)絡(luò)投資480億元,占其總資本開支的39.0%。2022Q3,中國移動(dòng)算力規(guī)模達(dá)到7.3EFLOPS,并計(jì)劃在2025年底達(dá)到20EFLOPS以上。中國電信產(chǎn)業(yè)數(shù)字化資本開支占比同比上升9.3pc,算力總規(guī)模計(jì)劃由2022年中的3.1EFLOPS提升至2025年底的16.3EFLOPS。中國聯(lián)通2022年預(yù)計(jì)算力網(wǎng)絡(luò)資本開支達(dá)到145億,同比提升43%,云投資預(yù)計(jì)提升88%。作為算力基礎(chǔ)設(shè)施建設(shè)的主力軍,三大運(yùn)營商目前已經(jīng)進(jìn)行前瞻性的基礎(chǔ)設(shè)施布局。通信運(yùn)營商自身擁有優(yōu)質(zhì)網(wǎng)絡(luò)、算力、云服務(wù)能力的通信運(yùn)營商,同時(shí)具備天然的產(chǎn)業(yè)鏈優(yōu)勢(shì),依靠5G+AI技術(shù)優(yōu)勢(shì),為下游客戶提供AI服務(wù)能力,是新型信息服務(wù)體系中重要的一環(huán),助力千行百業(yè)數(shù)字化轉(zhuǎn)型。在移動(dòng)網(wǎng)絡(luò)方面,中國運(yùn)營商已建設(shè)覆蓋全國的高性能高可靠4/5G網(wǎng)絡(luò);在固定寬帶方面,光纖接入(FTTH/O)端口達(dá)到10.25億個(gè),占比提升至95.7%;在算力網(wǎng)絡(luò)方面,運(yùn)營商在資本開支結(jié)構(gòu)上向算力網(wǎng)絡(luò)傾斜,提升服務(wù)全國算力網(wǎng)絡(luò)能力。在AI服務(wù)能力方面,加快AI領(lǐng)域商業(yè)化應(yīng)用推出,發(fā)揮自身產(chǎn)業(yè)鏈優(yōu)勢(shì),助力千行百業(yè)數(shù)字化轉(zhuǎn)型。(三)算力需求帶動(dòng)數(shù)據(jù)中心架構(gòu)及技術(shù)加速升級(jí)1、數(shù)據(jù)中心呈現(xiàn)超大規(guī)模發(fā)展趨勢(shì)。超大規(guī)模數(shù)據(jù)中心,即HyperscaleDataCenter,與傳統(tǒng)數(shù)據(jù)中心的核心區(qū)別在于超大規(guī)模數(shù)據(jù)中心具備更強(qiáng)大的可擴(kuò)展性及計(jì)算能力。1)規(guī)模上,超級(jí)數(shù)據(jù)中心可容納的規(guī)模要比傳統(tǒng)數(shù)據(jù)中心大得多,可以容納數(shù)百萬臺(tái)服務(wù)器和更多的虛擬機(jī);2)性能上,超級(jí)數(shù)據(jù)中心具有更高的可擴(kuò)展性和計(jì)算能力,能夠滿足數(shù)據(jù)處理數(shù)量和速率大幅提升的需求。具體來講,相較于傳統(tǒng)數(shù)據(jù)中心,超大規(guī)模數(shù)據(jù)中心的優(yōu)勢(shì)在于:(1)可擴(kuò)展性:超大規(guī)模數(shù)據(jù)中心的網(wǎng)絡(luò)基礎(chǔ)架構(gòu)響應(yīng)更迅速、擴(kuò)展更高效且更具成本效益,并且提供快速擴(kuò)展存儲(chǔ)和計(jì)算資源以滿足需求的能力,超大規(guī)模數(shù)據(jù)中心通過在負(fù)載均衡器后水平擴(kuò)展,快速旋轉(zhuǎn)或重新分配額外資源并將其添加到現(xiàn)有集群,可以實(shí)現(xiàn)快速向集群添加額外資源,從而在不中斷操作的情況下進(jìn)行擴(kuò)展;(2)定制化:超大規(guī)模數(shù)據(jù)中心采用更新的服務(wù)器設(shè)計(jì),具有更寬的機(jī)架,可以容納更多組件并且允許定制化設(shè)計(jì)服務(wù)器,使得服務(wù)器能夠同時(shí)接入多個(gè)電源和硬盤驅(qū)動(dòng)器;(3)自動(dòng)化服務(wù):超大規(guī)模數(shù)據(jù)中心提供自動(dòng)化服務(wù),幫助客戶管理高流量網(wǎng)站和需要專門處理的高級(jí)工作負(fù)載,例如密碼學(xué)、基因處理和三維渲染;(4)冷卻效率更高:超大規(guī)模數(shù)據(jù)中心對(duì)其電源架構(gòu)進(jìn)行了優(yōu)化,并將冷卻能力集中在托管高強(qiáng)度工作負(fù)載的服務(wù)器,大大降低了成本和對(duì)環(huán)境的影響,電源使用效率和冷卻效率遠(yuǎn)高于傳統(tǒng)數(shù)據(jù)中心;(5)工作負(fù)載更平衡:超大規(guī)模數(shù)據(jù)中心有效地將工作負(fù)載分布在多臺(tái)服務(wù)器上,從而避免單臺(tái)服務(wù)器過熱。避免了過熱的服務(wù)器損壞附近的服務(wù)器,從而產(chǎn)生不必要的連鎖反應(yīng)。Statista數(shù)據(jù)顯示,全球超大規(guī)模數(shù)據(jù)中心的數(shù)量從2015年的259個(gè),提升到2021年的700個(gè)。根據(jù)PrecedenceResearch的報(bào)告顯示,全球超大規(guī)模數(shù)據(jù)中心市場(chǎng)規(guī)模在2021年為620億美元,到2030年將達(dá)到5930億美元,預(yù)計(jì)在2022-2030年間以28.52%的復(fù)合增長率(CAGR)增長。海內(nèi)外云商均具備自己的超大規(guī)模數(shù)據(jù)中心。StructureResearch在其報(bào)告中估計(jì),到2022年全球超大規(guī)模自建數(shù)據(jù)中心總?cè)萘繉⑦_(dá)到13177兆瓦(MW)。全球四大超大規(guī)模數(shù)據(jù)中心平臺(tái)——AWS、谷歌云、Meta和微軟Azure——約占該容量的78%。全球占主導(dǎo)地位的超大規(guī)模數(shù)據(jù)中心企業(yè)仍然是亞馬遜、谷歌、Meta和微軟,在中國,本土企業(yè)阿里巴巴、華為、百度、騰訊和金山云都是領(lǐng)先的超大規(guī)模數(shù)據(jù)中心企業(yè)。2、IB網(wǎng)絡(luò)技術(shù)將更廣泛應(yīng)用于AI訓(xùn)練超算領(lǐng)域。超級(jí)數(shù)據(jù)中心是具有更大規(guī)模和更高計(jì)算能力的數(shù)據(jù)中心。隨著對(duì)數(shù)據(jù)處理數(shù)量和速率需求的提升,數(shù)據(jù)中心的可擴(kuò)展性需求也在迅速提升。超級(jí)數(shù)據(jù)中心在規(guī)模和性能上較傳統(tǒng)數(shù)據(jù)中心都有了大幅升級(jí),能夠滿足超高速度擴(kuò)展以滿足超級(jí)需求的能力。泛AI應(yīng)用是超算中心的重要下游。自20世紀(jì)80年代以來,超級(jí)計(jì)算主要服務(wù)于科研領(lǐng)域。傳統(tǒng)超算基本上都是以國家科研機(jī)構(gòu)為主體的超算中心,如氣象預(yù)測(cè)、地震預(yù)測(cè)、航空航天、石油勘探等。截止2022年底,國內(nèi)已建成10家國家超級(jí)計(jì)算中心,不少省份都建立起省級(jí)超算中心,服務(wù)于當(dāng)?shù)氐闹锌圃骸庀缶忠约暗卣鸨P?。一方面,行業(yè)頭部企業(yè)將超算應(yīng)用于芯片設(shè)計(jì)、生物醫(yī)療、材料測(cè)試等工業(yè)應(yīng)用場(chǎng)景;另一方面,自動(dòng)駕駛訓(xùn)練、大語言模型訓(xùn)練、類ChatGPT等AI訓(xùn)練的需求,也推動(dòng)超算應(yīng)用場(chǎng)景延伸至圖像識(shí)別、視頻識(shí)別定位、智能駕駛場(chǎng)景模擬以及對(duì)話和客服系統(tǒng)等,成為超算中心的重要下游。超級(jí)數(shù)據(jù)中心成為算力儲(chǔ)備的重要方向,中美加速算力基建布局。憑借其在算力能力及能耗效率的巨大提升,超級(jí)數(shù)據(jù)中心在算力儲(chǔ)備中的地位日漸凸顯。根據(jù)SynergyResearchGroup數(shù)據(jù),全球超級(jí)數(shù)據(jù)中心數(shù)量從2017年的390個(gè)增長至2021年二季度的659個(gè),增長近一倍,預(yù)計(jì)2024年總數(shù)將超1000個(gè)。份額方面,中美持續(xù)加強(qiáng)超級(jí)數(shù)據(jù)中心的布局,占全球市場(chǎng)份額持續(xù)提升。InfiniBand網(wǎng)絡(luò)滿足大帶寬和低時(shí)延的需求,成為超算中心的主流。InfiniBand(簡(jiǎn)稱IB)是一個(gè)用于高性能計(jì)算的計(jì)算機(jī)網(wǎng)絡(luò)通信標(biāo)準(zhǔn),主要應(yīng)用于大型或超大型數(shù)據(jù)中心。IB網(wǎng)絡(luò)的主要目標(biāo)是實(shí)現(xiàn)高的可靠性、可用性、可擴(kuò)展性及高性能,且能在單個(gè)或多個(gè)互聯(lián)網(wǎng)絡(luò)中支持冗余的I/O通道,因此能夠保持?jǐn)?shù)據(jù)中心在局部故障時(shí)仍能運(yùn)轉(zhuǎn)。相比傳統(tǒng)的以太網(wǎng)絡(luò),帶寬及時(shí)延都有非常明顯的優(yōu)勢(shì)。(一般InfiniBand的網(wǎng)卡收發(fā)時(shí)延在600ns,而以太網(wǎng)上的收發(fā)時(shí)延在10us左右,英偉達(dá)推出的MetroX-3提升長距離InfiniBand系統(tǒng)帶寬至400G)。作為未來算力的基本單元,高性能的數(shù)據(jù)中心越來越多的采用InfiniBand網(wǎng)絡(luò)方案,尤其在超算中心應(yīng)用最為廣泛,成為AI訓(xùn)練網(wǎng)絡(luò)的主流。(四)細(xì)分受益環(huán)節(jié)GPT-4多模態(tài)大模型將引領(lǐng)新一輪AI算力需求的爆發(fā),超大規(guī)模數(shù)據(jù)中心及超算數(shù)據(jù)中心作為泛AI領(lǐng)域的重要基礎(chǔ)設(shè)施支持,其數(shù)量、規(guī)模都將相應(yīng)增長,帶動(dòng)整個(gè)算力基礎(chǔ)設(shè)施產(chǎn)業(yè)鏈(如高端服務(wù)器/交換機(jī)、CPO技術(shù)、硅光、液冷技術(shù))的滲透加速。同時(shí)在應(yīng)用側(cè),Copilot的推出加速AI在辦公領(lǐng)域的賦能,看好辦公場(chǎng)景硬件配套廠商機(jī)會(huì)。1、服務(wù)器/交換機(jī):AIGC帶動(dòng)算力爆發(fā)式增長,全球進(jìn)入以數(shù)據(jù)為關(guān)鍵生產(chǎn)要素的數(shù)字經(jīng)濟(jì)時(shí)代。從國內(nèi)三大運(yùn)營商資本支出結(jié)構(gòu)上看,加碼算力基礎(chǔ)設(shè)施投資成重要趨勢(shì)。重點(diǎn)推薦:中興通訊。公司作為運(yùn)營商板塊算力投資的核心受益標(biāo)的,持續(xù)在服務(wù)器及存儲(chǔ)、交換機(jī)/路由器、數(shù)據(jù)中心等算力基礎(chǔ)設(shè)施領(lǐng)域加強(qiáng)布局,將作為數(shù)字經(jīng)濟(jì)筑路者充分受益我國數(shù)字經(jīng)濟(jì)建設(shè)。算力需求帶動(dòng)上游硬件設(shè)備市場(chǎng)規(guī)模持續(xù)增長,高規(guī)格產(chǎn)品占比提升。伴隨著數(shù)據(jù)流量持續(xù)提升,交換機(jī)作為數(shù)據(jù)中心必要設(shè)備,預(yù)計(jì)全球數(shù)據(jù)中心交換機(jī)保持穩(wěn)定增長。2021年全球數(shù)據(jù)中心交換機(jī)市場(chǎng)規(guī)模為138億美元,預(yù)計(jì)到2031年將達(dá)246億美元,2022年至2031年復(fù)合年增長率為5.9%。多元開放的AI服務(wù)器架構(gòu)為可以人工智能發(fā)展提供更高的性能和可擴(kuò)展性的AI算力支撐,隨著AI應(yīng)用的發(fā)展,高性能服務(wù)器數(shù)量有望隨之增長,帶動(dòng)出貨量及服務(wù)器單價(jià)相應(yīng)提升。根據(jù)IDC報(bào)告,2022Q3,200/400GbE交換機(jī)市場(chǎng)收入環(huán)比增長25.2%,100GbE交換機(jī)收入同比增長19.8%,高速部分呈現(xiàn)快速增長。2、光模塊/光芯片:算力需求提升推動(dòng)算力基礎(chǔ)設(shè)施升級(jí)迭代,傳統(tǒng)可插拔光模塊技術(shù)弊端和瓶頸開始顯現(xiàn)。(1)功耗過高,AI技術(shù)的加速落地,使得數(shù)據(jù)中心面臨更大的算力和網(wǎng)絡(luò)流量壓力,交換機(jī)、光模塊等網(wǎng)絡(luò)設(shè)備升級(jí)的同時(shí),功耗增長過快。以博通交換機(jī)芯片為例,2010年到2022年交換機(jī)芯片速率從640G提升到51.2T,光模塊速率從10G迭代到800G。速率提升的同時(shí),交換機(jī)芯片功耗提升了約8倍,光模塊功耗提升了26倍,SerDes功耗提升了25倍。(2)交換機(jī)端口密度難以繼續(xù)提升,光模塊速率提升的同時(shí),自身體積也在增大,而交換機(jī)光模塊端口數(shù)量有限。(3)PCB材料遭遇瓶頸,PCB用于傳輸高速電信號(hào),傳

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論