人工智能行業(yè)專題研究:豆包大模型迎來重磅更新AI應(yīng)用繁榮推動算力基礎(chǔ)設(shè)施建設(shè)-源達信息_第1頁
人工智能行業(yè)專題研究:豆包大模型迎來重磅更新AI應(yīng)用繁榮推動算力基礎(chǔ)設(shè)施建設(shè)-源達信息_第2頁
人工智能行業(yè)專題研究:豆包大模型迎來重磅更新AI應(yīng)用繁榮推動算力基礎(chǔ)設(shè)施建設(shè)-源達信息_第3頁
人工智能行業(yè)專題研究:豆包大模型迎來重磅更新AI應(yīng)用繁榮推動算力基礎(chǔ)設(shè)施建設(shè)-源達信息_第4頁
人工智能行業(yè)專題研究:豆包大模型迎來重磅更新AI應(yīng)用繁榮推動算力基礎(chǔ)設(shè)施建設(shè)-源達信息_第5頁
已閱讀5頁,還剩30頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

報告日期:2024年12月31報告日期:2024年12月31日——人工智能行業(yè)專題研究執(zhí)業(yè)登記編號:A01901230700人工智能指數(shù)與滬深300指數(shù)走勢對比大模型推動各行業(yè)AI應(yīng)用滲透》型,AI行業(yè)持續(xù)高速發(fā)展》5.《人工智能專題研究系列五:2024年12月火山引擎冬季FORCE原動力大會推出豆包視覺理解大模型和3D型總榜中主觀評測得分最高,豆包視覺理解模型和文生圖模型在多模態(tài)模型主觀測評中得分第二。豆包視覺理解大模型和3D生產(chǎn)大模型具備的內(nèi)容識人工智能行業(yè)已跨過AI大模型大規(guī)模成熟商業(yè)化應(yīng)用的節(jié)點,國內(nèi)廠商加大對AIAgent等新一代人工智能應(yīng)用的投入。AI大模型性能提升所需的千億級參數(shù)訓練及應(yīng)用端繁榮對算力規(guī)模的需求,都將推動算力基礎(chǔ)設(shè)施的建設(shè)。根據(jù)IDC數(shù)據(jù),2024年全球人工智能資本開支有望達2350億美元,并預計2024-2028年GAGR有望達59%,顯著高于其他人工智能技術(shù)的22%。算力基礎(chǔ)設(shè)施建設(shè)趨勢下,核心供應(yīng)鏈環(huán)節(jié)將服務(wù)器對算力及存儲性能要求更高,2024年全球豆包大模型產(chǎn)品力大幅提升,并大幅降低人工智能大模型使用成本,有望推請閱讀最后評級說明和重要聲明2 4 8 圖1:豆包大模型產(chǎn)品矩陣豐富 4圖2:豆包視覺理解模型具備更強內(nèi)容識別能力 5圖3:豆包視覺理解模型具備更強理解和推理能力 5圖4:火山引擎首次發(fā)布豆包3D生成模型 5圖5:豆包3D生成模型可根據(jù)文本生成3D場景 5圖6:豆包通用模型Pro綜合能力大幅提升 6圖7:通用模型Pro在指令遵循、代碼、數(shù)學等指標對標GPT-4o 6圖8:豆包文生圖模型能力升級 6圖9:豆包音樂模型能力升級 6圖10:豆包通用模型Pro在大模型測評總榜中排名第一 7圖11:豆包視覺理解模型在視覺語言模型測評榜單中排名第二 7圖12:豆包視覺理解模型使用成本大幅低于行業(yè)平均水平 7圖13:豆包APP在11月全球AI產(chǎn)品榜中排名第二 7圖14:預計2022-2024年全球AI支出年增速高于20% 8圖15:預計2024年中國智能算力規(guī)模同比增長50% 8圖16:IDC預計2024-2028年全球人工智能資本開支復合增速GAGR達29% 9圖17:IDC預計2028年軟件資本開支將占人工智能支出的57% 9圖18:AI服務(wù)器出貨量高速增長 11圖19:搭載鯤鵬920處理器的鯤鵬服務(wù)器主板 12圖20:華為推出昇騰系列AI算力基礎(chǔ)設(shè)施 12圖21:傳統(tǒng)風冷技術(shù)與液冷技術(shù)原理對比 13圖22:液冷技術(shù)散熱能力顯著優(yōu)于風冷技術(shù) 13圖23:液冷技術(shù)節(jié)能水平顯著優(yōu)于風冷技術(shù) 133圖24:2019-2022年中國液冷數(shù)據(jù)中心市場規(guī)模 15圖25:2022-2027年中國液冷數(shù)據(jù)中心市場規(guī)模預測 15圖26:NvidiaGPUH200芯片示意圖 16圖27:H200較H100相比在存儲性能上有大幅提升 16圖28:AI大模型中東西向流量顯著增加 18圖29:葉脊網(wǎng)絡(luò)架構(gòu)適用于東西向流量傳輸 18圖30:NvidiaDGXH100架構(gòu)示意圖 19圖31:全球光模塊市場在2027年有望突破200億美元 20表1:人工智能大模型的參數(shù)規(guī)模呈指數(shù)級增長趨勢 8表2:國內(nèi)廠商加大對AIAgent等大模型驅(qū)動下的人工智能應(yīng)用的投入 10表3:具有1750億個模型參數(shù)的大模型訓練一天需要約2917臺NvidiaA100服務(wù)器 11表4:主流液冷技術(shù)與傳統(tǒng)風冷技術(shù)冷卻效果指標對比 14表5:不同密度數(shù)據(jù)中心適用的冷卻技術(shù) 14表6:國產(chǎn)AI芯片性能指標仍與國際頂尖水平存在較大差距 16表7:BIS禁令限制高性能AI芯片向中國出口 17表8:葉脊網(wǎng)絡(luò)架構(gòu)對光模塊數(shù)量需求大幅提升 18表9:NvidiaDGXH100架構(gòu)所需GPU、交換機數(shù)量 19表10:中際旭創(chuàng)在2023年全球光模塊企業(yè)排名中位居第一 20表11:萬得一致盈利預測 214一、豆包大模型產(chǎn)品力大幅增強,推動AI應(yīng)用商業(yè)繁榮型,并將通用模型Pro、音樂生產(chǎn)模型和3D生產(chǎn)大模型拓展了模型的內(nèi)容識別、視覺本,有望推動人工智能應(yīng)用端的商業(yè)繁榮。數(shù)學問題、代碼圖像等復雜推理場景下完成任務(wù)。5資料來源:火山引擎,源達信息證券研究所資料來源:火山引可高效完成智能訓練、數(shù)據(jù)合成和數(shù)字資產(chǎn)制作,成為一套支持AIGC創(chuàng)作的物理世界仿資料來源:火山引擎,源達信息證券研究所資料來源:火山引6資料來源:火山引擎,源達信息證券研究所資料來源:火山引火山引擎對豆包文生圖模型和音樂模型能力升級。1)豆包文生圖模型進行精準編輯,并加強了對文字細節(jié)的指令遵循能力。2)豆包音樂模型:可根據(jù)資料來源:火山引擎,源達信息證券研究所資料來源:火山引7資料來源:智源研究院,源達信息證券研究所資料來源:智源研究院,源達信息證券研究所推動AI應(yīng)用商業(yè)化。根據(jù)AI產(chǎn)品榜數(shù)據(jù),豆包APP在2024年11月全球AI產(chǎn)品榜中排名第二,在終端應(yīng)用的滲透率進一步提升。資料來源:火山引擎,源達信息證券研究所資料來源:智源研究8二、人工智能產(chǎn)業(yè)加快增長,應(yīng)用及算力是兩大支柱能持續(xù)提升的背后是千億級以上的參數(shù)訓練,帶來對算力的高額需求,有望推動新一輪AI基礎(chǔ)設(shè)施建設(shè)。根據(jù)OpenAI官網(wǎng),AI模型訓練計算量自2012Parametersize/10-8S————資料來源:《大語言模型研究現(xiàn)狀及趨勢》,源達信圖14:預計2022-2024年全球AI支出年增速高30%20%10% 0 資料來源:IDC,世界銀行,源達信息證券研究所92024年的AI投資達896億美大模型加速發(fā)展趨勢下,國內(nèi)廠商加大對AIAgent等新一代人工智能應(yīng)用的投入。AIAWSTiAppBuilder、AgentBuil螞蟻集團/螞蟻數(shù)科騰訊元器智能體開發(fā)運營平臺三、算力產(chǎn)業(yè)鏈:服務(wù)器是算力基礎(chǔ)設(shè)施大模型有望成為助力千行萬業(yè)智能化轉(zhuǎn)型的底層支撐。AI大模型的訓練和運行過程對對算), 人工智能行業(yè)高速發(fā)展,算力巨額缺口推動AI服務(wù)器出貨量高速增長。高端AI服務(wù)器(萬臺)普通AI服務(wù)器(萬臺)8040202220232024E資料來源:華勤技術(shù)投資者關(guān)系公眾號,源達信資料來源:華為官網(wǎng),源達信息證券研究所資料來源:華為官網(wǎng),源達信息證券研究所2)節(jié)能降耗:液冷系統(tǒng)可實現(xiàn)更高能效比,降低數(shù)3)提高設(shè)備可靠性:液冷技術(shù)可以減少因高溫引起的設(shè)備故障,延長服務(wù)器的使用壽命,4)節(jié)省空間:液冷技術(shù)允許更緊湊的服務(wù)器布局,無需像風冷那樣需要較大的空冷技術(shù)。傳統(tǒng)風冷冷板液冷浸沒單相液冷浸沒相變液冷0++集成度0++0+++0+++0++0++廢熱回收0++0+中心需求。液冷技術(shù)利用高比熱容的特點和對流傳熱的能力,可以滿足2.7-30kW/機柜的愈加廣泛的應(yīng)用。數(shù)據(jù)中心密度超低密度數(shù)據(jù)中心低密度數(shù)據(jù)中心年中國液冷數(shù)據(jù)中心市場將以59%的復合增長率持續(xù)發(fā)展。預計到2027年四、算力產(chǎn)業(yè)鏈:芯片是智能核心,國產(chǎn)化短板明顯力層面性能指標未有顯著改變。資料來源:Nvidia,源達信息證券研究所資料來源:Nvidia,源達信息證券研究所表6:國產(chǎn)AI芯片性能指標仍與國際頂寒武紀產(chǎn)品型號//部工業(yè)安全局(BIS)發(fā)布《美國商務(wù)部對中華人民共和國(PRC)關(guān)于先進計算和半導體芯片A800和H800。我們認為在國內(nèi)自主可控大背景下,國內(nèi)AI產(chǎn)業(yè)對國產(chǎn)芯片需求迫切,或加大對國產(chǎn)芯片公司支持力度,國產(chǎn)AI芯片有望迎來技術(shù)進步和市場機遇。4A090五、算力產(chǎn)業(yè)鏈:光模塊快速放量,產(chǎn)品結(jié)構(gòu)向高端升級高算力需要與高效傳輸架構(gòu)相匹配。AI大模型通常由多個服務(wù)器作為節(jié)點,并通過高速網(wǎng)葉脊網(wǎng)絡(luò)架構(gòu)相較傳統(tǒng)三層架構(gòu)更適用于東西向流量傳輸,成為現(xiàn)代數(shù)據(jù)中心主流網(wǎng)絡(luò)架資料來源:華為云,源達信息證券研究所資料來源:鵝廠網(wǎng)事,源達信息證券研究所與交換機相連均需使用光模塊,從而大幅增加對光模塊數(shù)量需求。同時AI大模型的高流量架構(gòu)類型傳統(tǒng)三層架構(gòu)光模塊相對于機柜倍數(shù)44/48資料來源:中際旭創(chuàng)定向增發(fā)募集說明書,源達信息證券研究所),光模塊技術(shù)的研發(fā)。六、投資建議配合豆包APP在終端應(yīng)用滲透率的提升,有望推動AI應(yīng)用的商業(yè)繁榮。伴隨AI應(yīng)用需求資料來源:Wind一致預期(2024),七、風險提示宏觀經(jīng)濟環(huán)境惡化;看好:行業(yè)指數(shù)相對于滬深3中性:行業(yè)指數(shù)相對于滬看淡

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論