中國 AI 黑馬 DeepSeek 崛起降本推動應(yīng)用爆發(fā)可期2025_第1頁
中國 AI 黑馬 DeepSeek 崛起降本推動應(yīng)用爆發(fā)可期2025_第2頁
中國 AI 黑馬 DeepSeek 崛起降本推動應(yīng)用爆發(fā)可期2025_第3頁
中國 AI 黑馬 DeepSeek 崛起降本推動應(yīng)用爆發(fā)可期2025_第4頁
中國 AI 黑馬 DeepSeek 崛起降本推動應(yīng)用爆發(fā)可期2025_第5頁
已閱讀5頁,還剩14頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

0滬深300質(zhì)量發(fā)展再上新臺階,中長期資金入3、《通信行業(yè)點評:低空經(jīng)濟發(fā)展引發(fā)全球人工智能領(lǐng)域關(guān)注。在數(shù)學、代碼、自然語言推理等任務(wù)上,性o同海外大模型廠相比,DeepSeek采用了完全不同的降本路徑。1)DeepSeek做了極致的工程優(yōu)化(主要體現(xiàn)在細粒度MoE架構(gòu)、Pre/Post-training優(yōu)化和硬件調(diào)度等方面)。2)海外大模型廠商托強大的硬件研發(fā)和生產(chǎn)能力帶來的降本。當前已有眾多國內(nèi)外科技巨頭和云廠商接入DeepSeek。o投資建議:降本是科技發(fā)展的必由之路,融合不同的架構(gòu)、工程優(yōu)化以及發(fā),海外算力租賃價格持續(xù)回暖;建議關(guān)注數(shù)據(jù)中心及配套溫控&電源數(shù)據(jù)中心之間的數(shù)據(jù)交互需求,DCI技術(shù)的升級和網(wǎng)絡(luò)建設(shè)持續(xù)投敬請閱讀末頁的重要說明2正文目錄 3 3 3 3 4(3)Deepseek聚焦垂直精度,GPT 5 6 6 6 6 7 7 7 9 5 3 3 4 4 4 6 9敬請閱讀末頁的重要說明一、中國AI黑馬DeepSeek引發(fā)DeepSeek高性價比的優(yōu)勢,輸入和輸出令牌成本遠低于同類模型,為發(fā)布時間模型DeepSeek-V3首個版本自研MoE模型,生成速度較V2.5提升3倍,有6710億參數(shù),在14.8萬億token上預(yù)訓練,數(shù)學能力出色,訓練成本557.6萬美元,同步開源DeepSeek-R1、DeepSeek-R1-Zero、DeepSeek-R1-DistillDeepSeek-R1系列使用強化學習訓練,推理含反思驗證,思維鏈長,在數(shù)學、代碼等復(fù)雜推理任務(wù)表現(xiàn)出色,模型權(quán)重同步開源Janus-Pro-7B基于視覺的模型Janus-Pro多模態(tài)大模型采用新穎自回歸框架,在GenEval和DPG-Bench基準測試表現(xiàn)佳),長捕捉長序列依賴、并行計算快且結(jié)構(gòu)易擴展。但依賴龐大參數(shù)和黑箱式訓練,成本高昂。我們認為當前較難簡單判斷MoE和Transformer哪種架構(gòu)會脫穎敬請閱讀末頁的重要說明4檻高廠商所在地區(qū)模型名稱使用架構(gòu)OpenAI海外GPT系列Transformer架構(gòu)中的Decoder-only架構(gòu)Meta海外Llama系列Transformer架構(gòu)DeepseekV3、R1等MoE架構(gòu)百度文心一言Transformer架構(gòu)阿里云通義千問Transformer架構(gòu)字節(jié)跳動豆包Transformer架構(gòu)昆侖萬維天工系列大模型MoE架構(gòu)商湯部分模型MoE架構(gòu)廠商模型名稱訓練成本(預(yù)估)備注DeepSeekDeepSeek-R1約557.6萬美元(不含基礎(chǔ)設(shè)施等)使用2048塊H800GPU訓練6710億參數(shù)模型OpenAIGPT-4約7800萬美元(計算量成本),2024年訓練成本預(yù)計達30億美元-GoogleGeminiUltra1.91億美元-MetaLlama3-搭建兩個分別具有24,000塊H100GPU的計算集訓練表5:DeepSeekVSGPTAPI接口成本模型輸入成本(每百萬Token)輸出成本(每百萬Token)DeepSeek-R10.55美元2.19美元OpenAIo160美元敬請閱讀末頁的重要說明定制和本地部署,甚至支持商業(yè)用途。相比之下,GPT作為閉源模型,用戶只能通過API調(diào)用,無法掌控底層邏輯。lDeepSeek在數(shù)學推理、中文處理、代碼生成等領(lǐng)域表現(xiàn)突出,甚至超越GPT-4o。例如,其在美國數(shù)學競賽(AIME)中的準確率達90.2%,遠超敬請閱讀末頁的重要說明二、DeepSeek工程化優(yōu)化創(chuàng)新點解析主動和被動的雙重選擇:l應(yīng)對硬件限制:國內(nèi)在高端GPU等硬件資源上相對短缺,采購和使用成特定領(lǐng)域的知識問答等。DeepSeek的優(yōu)著降低計算資源消耗。例如在生成較長文本時,GPT需要對整個模型的參數(shù)進行遍歷和計算,而DeepSeek可以有針對性地調(diào)化長文本處理性能,減少信息衰減,提升效率的同時降低相關(guān)成本。組件保留FP16,在保證模型性能的前提下減少硬件資源需l降低顯存占用:FP8的數(shù)據(jù)存儲位數(shù)僅為FP32的四分之一,F(xiàn)P16為廠商模型舉例訓練精度推理精度OpenAIGPT系列常涉及FP32、FP16、BF16,依任務(wù)與硬件權(quán)衡選擇FP16、BF16等,兼顧效率與精度GooglePaLM系列混合精度,如FP16結(jié)合少量FP32確保關(guān)鍵參數(shù)精度混合精度,依硬件與場景動態(tài)調(diào)整敬請閱讀末頁的重要說明廠商模型舉例訓練精度推理精度DeepMindChinchilla采用適合TPU架構(gòu)的混合精度策略,如FP16為主,特定層或操作輔以FP32以滿足應(yīng)用場景需求為導(dǎo)向,靈活選擇FP16、BF16等百度文心一言訓練可能采用FP16、FP32混合精度推理根據(jù)硬件與場景選擇FP16、BF16等科大訊飛訊飛星火組合FP16、FP32,確保關(guān)鍵環(huán)節(jié)精度推理時按應(yīng)用場景靈活選用FP16、BF16DeepSeekDeepSeek-V3、核心參數(shù)FP8,敏感組件保留FP16可能采用與訓練類似精度策略,或依實際推理需求微調(diào)DeepSeek采用流水線并行技術(shù)提升GPU利用率,結(jié)合定制通信庫,優(yōu)化在大規(guī)模集群上訓練時,通過對Transformer架構(gòu)的優(yōu)化,讓不同部分在敬請閱讀末頁的重要說明Trainium和AWSInferentia通過AmazonElasticComputeCloud(Amazon敬請閱讀末頁的重要說明三、對算力硬件各環(huán)節(jié)影響B(tài)arclays預(yù)測:到2026年,如果Agent在企業(yè)任務(wù)滲透率超過5%,那么所需的總計算量約為1500億EFLOPS,其中推理計算將占近75%,訓練計算占25%。IDC預(yù)測:云端推理占算力的比重將逐步提升,預(yù)計到2026年推理占 發(fā),海外算力租賃價格持續(xù)回暖;建議關(guān)注數(shù)據(jù)中心及配套溫控&電源敬請閱讀末頁的重要說明0Feb/23Aug/2300Feb/23Aug/23敬請閱讀末頁的重要說明負責本研究報告的每一位證券分析師,在此申明,本報告清晰、準確地反映了分析師本人的研究觀點。任何部分過去不曾與、現(xiàn)在不與,未來也將不會與本報告中市場基準指數(shù)的市場表現(xiàn)預(yù)期。其中,A股市場以滬深300指數(shù)為基準;香港推薦:行業(yè)基本面向好,預(yù)期行業(yè)指數(shù)超越基準指數(shù)本報告由招商證券股份有限公司(以下簡稱“本公司”)編制。本公司具有中國證監(jiān)會許可的證券投資咨詢業(yè)務(wù)資格。本報告基于合法取得的信息,但本公司對這些信息的準確性和完整性不作任何保證。本報告所包含的分析基于各種假設(shè),不同假設(shè)可能導(dǎo)致分析結(jié)果出現(xiàn)重大不同。報告中的內(nèi)容和意見僅供參考,

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論