電子行業(yè)深度報告:如何展望GPT-5帶來的算力增長?從參數(shù)量、時間表、影響力三重視角-算力需求看點系列_第1頁
電子行業(yè)深度報告:如何展望GPT-5帶來的算力增長?從參數(shù)量、時間表、影響力三重視角-算力需求看點系列_第2頁
電子行業(yè)深度報告:如何展望GPT-5帶來的算力增長?從參數(shù)量、時間表、影響力三重視角-算力需求看點系列_第3頁
電子行業(yè)深度報告:如何展望GPT-5帶來的算力增長?從參數(shù)量、時間表、影響力三重視角-算力需求看點系列_第4頁
電子行業(yè)深度報告:如何展望GPT-5帶來的算力增長?從參數(shù)量、時間表、影響力三重視角-算力需求看點系列_第5頁
已閱讀5頁,還剩17頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

看點系列執(zhí)業(yè)證書:S0600525020001執(zhí)業(yè)證書:S0600125020002投資要點liyw@dwzq.co的發(fā)布時間或提前,或由于DeepSeek近期的重磅更新和亮眼表現(xiàn)對 場對于OpenAI產(chǎn)品迭代速度的預期在加快。方向仍處于激烈討論中,但頭部大模型廠商的萬卡集數(shù)量×token”的計算公式,在其他條件不變的前提下,2025年推理市),綜合下來26年推理算力需求有望達到25年的5.6倍左右。(與計算機聯(lián)合覆蓋)、龍芯中科、盛科通信(與通信聯(lián)合覆蓋)等。 4 4 5 7 93.1.影響#1大模型“標桿”再上 9 4 6 7 7 8 8 9 9 9 9 9 圖1:“獵戶座”和“草莓”進展預期數(shù)據(jù)來源:機器之心,量子位,網(wǎng)易新聞,每日經(jīng)濟新聞,券商中國,智東西,華爾街見聞,東吳證券研究所 倍的運算能力。對比下來,二者口徑有所調(diào)整。我們認為,此前OpenAI或以“Orion” 市場對于OpenAI產(chǎn)品迭代速度的預期在加快。自GPT-4圖2:OpenAI融資與產(chǎn)品Roadmap時間表數(shù)據(jù)來源:鈦媒體,華爾街見聞,第一財經(jīng),財聯(lián)社,ECInnovations,機器之心,壹沓科技,每日經(jīng)濟新聞,BFT白芙堂B站官方,東吳證券研究所對充裕(從“獵戶座Orion”訓練完成到下一輪融資節(jié)點還有大半年我們基于普遍應用的算力供給需求公式,討論公式中圖3:文本大模型AI訓練側算力供給需求公式數(shù)據(jù)來源:NVIDIA&StanfordUniversity&MicrosoftResearch《EfficientLarge-ScaleLanguageModelTrainingonGPUClustersUsingMegatron-LM》,新智元,CIBA新經(jīng)濟,東吳證券研究所圖4:GPT-5預訓練情況測算數(shù)據(jù)來源:海外獨角獸,機器之心,英偉達,愛集微,新智元,東吳證券研究所圖5:OpenAI日本公司首席執(zhí)行官長崎忠雄介紹GPT-Next模型數(shù)據(jù)來源:快科技,東吳證券研究所),算資源,倒推可測算得到GPT-5模型訓練用時大約需要203-225天。圖6:主流科技公司公開宣布的萬卡集群情況數(shù)據(jù)來源:消費日報網(wǎng),機械之心,通信產(chǎn)業(yè)網(wǎng),半導體行業(yè)觀察,格隆匯APP,東吳證券研究所注:本圖為非完全統(tǒng)計云服務廠商(CSP)占了數(shù)據(jù)中心業(yè)務的近一半營收,消費互聯(lián)網(wǎng)公司和企業(yè)大約占了圖7:北美四大云廠商各季度CapEx投入情況及增速(單位:億美元)0MircosoftMetaAWSGoogleYoY21Q121Q221Q321Q422Q1數(shù)據(jù)來源:各公司公告,Bloomberg,東吳證券研究所圖8:Google各季度CapEx投入情況GoogleCapEx(億美元)YoY0數(shù)據(jù)來源:公司公告,Bloomberg,東吳證券研究所圖10:Meta各季度CapEx投入情況MetaCapEx(億美元)YoY0數(shù)據(jù)來源:公司公告,Bloomberg,東吳證券研究所圖9:AWS各季度CapEx投入情況0AWSCapEx(億美元)YoY數(shù)據(jù)來源:公司公告,Bloomberg,東吳證券研究所圖11:Microsoft各季度CapEx投入情況MircosoftCapEx(億美元)YoY0數(shù)據(jù)來源:公司公告,Bloomberg,東吳證券研究所圖12:海外主流AI大模型訓練側算力供給需求情況數(shù)據(jù)來源:OpenAI論文,Google論文,Microsoft論文,Meta論文,GithubLlama開源ModelCard,新京報,大數(shù)據(jù)文摘,新智元,英偉達,谷歌研究院,騰訊科技,機器之心,中關村在線,AIGC開放社區(qū),Llama中文社區(qū),河北省科學技術廳,東吳證券研究所注1:由于各公司對于大模型的訓練數(shù)據(jù)披露口徑不一,以上為本文非完全統(tǒng)計注2:GPT4算力利用率在32-36%區(qū)間,本文取中值粗略計算注3:英偉達V100理論峰值為官網(wǎng)所示“深度學習|NVLink版本”性能圖13:國內(nèi)主流AI大模型訓練側算力供給需求情況數(shù)據(jù)來源:騰訊混元論文&公眾號,通義千問官網(wǎng)&論文&公眾號&GitHub網(wǎng)頁,DeepSeek論文&公眾號,智譜論文&公眾號&Github網(wǎng)頁,百川大模型論文&公眾號&Github網(wǎng)頁,騰訊云,AI新榜,市界,華爾街見聞,東吳證券研究所注1:由于各公司對于大模型的訓練數(shù)據(jù)披露口徑不一,以上為本文非完全統(tǒng)計注2:Hunyuan、Hunyuan-Pro、Baichuan3參數(shù)量披露口徑較為模糊,分別為超千億參數(shù)/萬億參數(shù)/超千億參數(shù),在本圖中不涉及左側第二列單位V3在預訓練階段每處理1Ttoken僅需180KH800GPU小時,即在配備2048個H800GPU的集群上僅需3.7天。因此,整個預訓練階段在不到兩個月內(nèi)完成,總計使用了圖14:Deepseek、Kimi下載量(IOS+安卓,單位:次)KimiDeepseekKimi2025/03/092025/03/062025/03/092025/03/062025/03/032025/02/282025/02/252025/02/222025/02/192025/02/162025/02/132025/02/102025/02/072025/02/042025/02/012025/01/292025/01/262025/01/232025/01/202025/01/172025/01/142025/01/11數(shù)據(jù)來源:點點數(shù)據(jù),東吳證券研究所圖15:國產(chǎn)AI大模型日度訪問量(單位:萬次)文心一言通義kimi星火豆包智譜清言2025/02/282025/02/252025/02/282025/02/252025/02/222025/02/192025/02/162025/02/132025/02/102025/02/072025/02/042025/02/012025/01/292025/01/262025/01/232025/01/202025/01/172025/01/142025/01/11數(shù)據(jù)來源:SimilarWeb,東吳證券研究所量已經(jīng)超過3億,每一天用戶們都向ChatGPT發(fā)送超過10億條過推出可以幫助用戶執(zhí)行網(wǎng)絡信息收集和購物等任務的AI智能體以及ChatGPT與蘋果量推斷25年推理算力需求,25年推理算力需求有望達到24年的3倍以上。據(jù)“推理圖16:文本大模型AI推理算力需求測算數(shù)據(jù)來源:OpenAI《ScalingLawsforNeuralLanguageModels》,思瀚產(chǎn)業(yè)研究院,極市平臺,東吳證券研究所注:GPT-5參數(shù)量為東吳測算結果,不代表產(chǎn)品實際發(fā)布情況期大模型訓練帶來大量算力需求之外,AI應用帶來的推理需求是長期維度

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論