AI模型研究第一期:基于深度強(qiáng)化學(xué)習(xí)的滬深300選股_第1頁(yè)
AI模型研究第一期:基于深度強(qiáng)化學(xué)習(xí)的滬深300選股_第2頁(yè)
AI模型研究第一期:基于深度強(qiáng)化學(xué)習(xí)的滬深300選股_第3頁(yè)
AI模型研究第一期:基于深度強(qiáng)化學(xué)習(xí)的滬深300選股_第4頁(yè)
AI模型研究第一期:基于深度強(qiáng)化學(xué)習(xí)的滬深300選股_第5頁(yè)
已閱讀5頁(yè),還剩12頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

目錄一、引言 3研究背景 3報(bào)告結(jié)構(gòu)概述 3二、深度強(qiáng)化學(xué)習(xí) 3深度強(qiáng)化學(xué)習(xí) 3馬爾可夫決策過(guò)程 4值函數(shù)和策略 5強(qiáng)化學(xué)習(xí)算法概述 6基于值 6基于策略 7基于值和策略 8深度強(qiáng)化學(xué)習(xí)算法 8三、深度強(qiáng)化學(xué)習(xí)的投資組合構(gòu)建應(yīng)用場(chǎng)景 10狀態(tài)的定義 10行動(dòng)空間的定義 11獎(jiǎng)勵(lì)函數(shù)的設(shè)計(jì) 12轉(zhuǎn)移概率建模 12四、強(qiáng)化學(xué)習(xí)在投資組合構(gòu)建上的實(shí)證研究 12訓(xùn)練輸入特征 12深度強(qiáng)化學(xué)習(xí)模型的參數(shù)設(shè)置 13訓(xùn)練和測(cè)試數(shù)據(jù)集劃分如下 14實(shí)證結(jié)果分析 15實(shí)踐中遇到的問題 16五、風(fēng)險(xiǎn)提示 16六、參考文獻(xiàn) 16圖表目錄圖表1:應(yīng)流圖 4圖表2:投組數(shù)義 10圖表3:行空定例 圖表4:訓(xùn)測(cè)數(shù) 13圖表5:訓(xùn)數(shù)據(jù) 15圖表6:結(jié)數(shù)據(jù) 15圖表7:時(shí)圖 16請(qǐng)參閱最后一頁(yè)的重要聲明一、引言研究背景股票市場(chǎng)的不確定性和可變性使準(zhǔn)確預(yù)測(cè)市場(chǎng)走向具有挑戰(zhàn)性。為提高準(zhǔn)確性并應(yīng)對(duì)這些困難,機(jī)器學(xué)習(xí)技術(shù)已應(yīng)用于股票價(jià)格預(yù)測(cè)。傳統(tǒng)模型(如基于決策樹的模型)和支持向量機(jī)(SVM)在歷史上用于股票市場(chǎng)預(yù)測(cè)。隨著深度學(xué)習(xí)模型的發(fā)展,股票市場(chǎng)預(yù)測(cè)方法已從傳統(tǒng)技術(shù)轉(zhuǎn)向先進(jìn)的深度學(xué)習(xí)技術(shù),如循環(huán)神經(jīng)網(wǎng)絡(luò)(RNNs)、長(zhǎng)短期記憶(LSTM)、門控制循環(huán)單元(GRU)、圖神經(jīng)網(wǎng)絡(luò)(GNN)和卷積神經(jīng)網(wǎng)絡(luò)(CNN)。近年來(lái)強(qiáng)化學(xué)習(xí)作為一種重要的機(jī)器學(xué)習(xí)方法,引起了廣泛的關(guān)注和應(yīng)用。在金融領(lǐng)域,投資組合構(gòu)建一直是一個(gè)復(fù)雜而具有挑戰(zhàn)性的問題。傳統(tǒng)的投資策略往往基于經(jīng)驗(yàn)和直覺,但在快速變化的市場(chǎng)環(huán)境下,這種方法可能無(wú)法有效應(yīng)對(duì)風(fēng)險(xiǎn)和不確定性。因此,研究人員開始探索將強(qiáng)化學(xué)習(xí)應(yīng)用于投資組合構(gòu)建,以提高投資回報(bào)和降低風(fēng)險(xiǎn)。本研究的動(dòng)機(jī)主要來(lái)自于最近火熱的人工智能在金融領(lǐng)域的應(yīng)用挑戰(zhàn)(AIGC),ChatGPT資組合構(gòu)建中的應(yīng)用潛力和實(shí)際效果,為專業(yè)的投資機(jī)構(gòu)提供有價(jià)值的決策支持和實(shí)踐指南。報(bào)告結(jié)構(gòu)概述本報(bào)告旨在提供有關(guān)強(qiáng)化學(xué)習(xí)在投資組合構(gòu)建上的量化研究的全面概述。報(bào)告將以專業(yè)的投資機(jī)構(gòu)為讀者對(duì)象,重點(diǎn)關(guān)注數(shù)學(xué)和統(tǒng)計(jì)學(xué)等專業(yè)內(nèi)容,以滿足讀者對(duì)深入和實(shí)證研究的需求。報(bào)告首先在引言部分提供了研究的背景和動(dòng)機(jī),闡述了強(qiáng)化學(xué)習(xí)在投資領(lǐng)域的重要性和潛在應(yīng)用。接下來(lái),報(bào)告將在第二部分介紹強(qiáng)化學(xué)習(xí)的基礎(chǔ)知識(shí),包括強(qiáng)化學(xué)習(xí)問題的形式化描述、馬爾可夫決策過(guò)程、值函數(shù)和策略等內(nèi)容,為讀者建立起必要的理論基礎(chǔ)。第三部分將著重討論強(qiáng)化學(xué)習(xí)在投資組合構(gòu)建問題中的建模方法。這包括狀態(tài)的定義、行動(dòng)空間的設(shè)計(jì)、獎(jiǎng)勵(lì)函數(shù)的制定、轉(zhuǎn)移概率的建模以及強(qiáng)化學(xué)習(xí)策略的選擇等方面。通過(guò)詳細(xì)討論這些關(guān)鍵要素,報(bào)告將幫助讀者了解如何將強(qiáng)化學(xué)習(xí)應(yīng)用于實(shí)際的投資組合管理中。CSI300Ensemble在第五部分,深度強(qiáng)化學(xué)習(xí)在金融領(lǐng)域?qū)嵺`中的挑戰(zhàn)和問題討論。二、深度強(qiáng)化學(xué)習(xí)深度強(qiáng)化學(xué)習(xí)深度強(qiáng)化學(xué)習(xí)(ReinforcementLearning,RL)是一種機(jī)器學(xué)習(xí)方法,涉及代理(Agent)與環(huán)境的交互,ChatGPTAIGC境中自適應(yīng)學(xué)習(xí)的交易策略。以下是強(qiáng)化學(xué)習(xí)在量化交易中的應(yīng)用概述:環(huán)境境,并向強(qiáng)化學(xué)習(xí)代理提供觀測(cè)和獎(jiǎng)勵(lì)信號(hào)。請(qǐng)參閱最后一頁(yè)的重要聲明量化深度報(bào)告代理并從環(huán)境中獲得獎(jiǎng)勵(lì)或懲罰的反饋。狀態(tài)表示:使用一組特征或指標(biāo)來(lái)表示市場(chǎng)的狀態(tài)。這些特征可以包括價(jià)格數(shù)據(jù)、技術(shù)指標(biāo)、成交量或財(cái)務(wù)基本面等其他市場(chǎng)相關(guān)信息。代理利用這個(gè)表示來(lái)進(jìn)行決策。行動(dòng)選擇態(tài)到行動(dòng)的映射關(guān)系。比如買入,賣出,或者繼續(xù)持有等行動(dòng)。獎(jiǎng)勵(lì)設(shè)計(jì):環(huán)境提供的獎(jiǎng)勵(lì)或懲罰反映了代理行動(dòng)的表現(xiàn)。獎(jiǎng)勵(lì)設(shè)計(jì)至關(guān)重要,它引導(dǎo)代理學(xué)習(xí)所期望的交易行為。常見的獎(jiǎng)勵(lì)函數(shù)可以基于投資組合回報(bào)、風(fēng)險(xiǎn)調(diào)整回報(bào)或其他績(jī)效指標(biāo)比如夏普比率等。訓(xùn)練隨時(shí)間累積的獎(jiǎng)勵(lì)??梢允褂脧?qiáng)化學(xué)習(xí)算法(Q-learningQ(DQN)或近端策略優(yōu)化(PPO))對(duì)代理進(jìn)行訓(xùn)練。評(píng)估與部署:訓(xùn)練完成后,通過(guò)使用樣本外數(shù)據(jù)或進(jìn)行模擬評(píng)估強(qiáng)化學(xué)習(xí)代理的性能。如果代理(模型)表現(xiàn)滿意,可以將其部署到實(shí)時(shí)交易環(huán)境中,根據(jù)學(xué)習(xí)的策略執(zhí)行交易。圖表1:強(qiáng)化學(xué)習(xí)流程圖數(shù)據(jù)來(lái)源:QLib,馬爾可夫決策過(guò)程當(dāng)我們面對(duì)一個(gè)序列決策問題,并且決策的結(jié)果受到隨機(jī)因素的影響時(shí),我們可以使用馬爾可夫決策過(guò)程(MarkovDecisionProcess,MDP)來(lái)建模和解決這類問題。MDP是一種數(shù)學(xué)框架,用于描述具有馬爾可夫性質(zhì)的序列決策問題。MDP由以下要素組成:狀態(tài)(States):系統(tǒng)可能處于的各種狀態(tài)的集合。在每個(gè)時(shí)間步,系統(tǒng)處于一個(gè)特定的狀態(tài)。狀態(tài)可以是離散的(如市場(chǎng)的漲跌狀態(tài))或連續(xù)的(股票價(jià)格的變化)。動(dòng)作(Actions):決策者可以采取的行動(dòng)集合。在每個(gè)時(shí)間步,決策者根據(jù)當(dāng)前狀態(tài)選擇一個(gè)動(dòng)作執(zhí)行。動(dòng)作可以是離散的(如向左或向右移動(dòng))或連續(xù)的(如加速或減速)。在投資組合構(gòu)建中,動(dòng)作可以表示為資產(chǎn)的買賣決策,如買入某只股票、賣出某只股票或者持有現(xiàn)金。轉(zhuǎn)移概率(TransitionProbabilities):描述在執(zhí)行某個(gè)動(dòng)作后,系統(tǒng)從一個(gè)狀態(tài)轉(zhuǎn)移到另一個(gè)狀態(tài)的概率。轉(zhuǎn)移概率可以用條件概率分布表示,即給定當(dāng)前狀態(tài)和執(zhí)行的動(dòng)作,得到下一個(gè)狀態(tài)的概率分布。請(qǐng)參閱最后一頁(yè)的重要聲明量化深度報(bào)告在投資組合構(gòu)建中,轉(zhuǎn)移概率可以表示為市場(chǎng)的變化對(duì)投資組合價(jià)值的影響,或者股票的波動(dòng)對(duì)投資組合配置的影響。獎(jiǎng)勵(lì)(Rewards):在每個(gè)時(shí)間步,系統(tǒng)根據(jù)當(dāng)前狀態(tài)和執(zhí)行的動(dòng)作獲得一個(gè)即時(shí)獎(jiǎng)勵(lì)。獎(jiǎng)勵(lì)可以是實(shí)數(shù)值,反映執(zhí)行動(dòng)作的質(zhì)量或效用。獎(jiǎng)勵(lì)可以表示為投資組合的收益或者損失,也可以包括對(duì)風(fēng)險(xiǎn)的度量。目標(biāo)是通過(guò)優(yōu)化累積獎(jiǎng)勵(lì)最大化投資回報(bào)。折扣因子(DiscountFactor)01獎(jiǎng)勵(lì)。通過(guò)觀測(cè)當(dāng)前狀態(tài)、選擇動(dòng)作、觀測(cè)獎(jiǎng)勵(lì)以及根據(jù)轉(zhuǎn)移概率轉(zhuǎn)移到下一個(gè)狀態(tài),MDPMDP獎(jiǎng)勵(lì)。MDPMDP總而言之,馬爾可夫決策過(guò)程提供了一個(gè)框架,用于建模和解決序列決策問題,其中狀態(tài)、動(dòng)作、轉(zhuǎn)移概率和獎(jiǎng)勵(lì)是關(guān)鍵要素,而折扣因子用于平衡即時(shí)獎(jiǎng)勵(lì)和未來(lái)獎(jiǎng)勵(lì)的重要性。金融投資可以被視為一種近似的馬爾可夫決策過(guò)程(MDP),盡管在實(shí)際應(yīng)用中可能存在一些復(fù)雜性和限制。在金融投資中,狀態(tài)可以被視為投資組合的當(dāng)前狀態(tài)或市場(chǎng)條件,例如股票價(jià)格、利率、市場(chǎng)指數(shù)等。動(dòng)作可以是投資者可以采取的行動(dòng),如買入、賣出或持有資產(chǎn)。轉(zhuǎn)移概率描述了市場(chǎng)的不確定性和變化性,因?yàn)槭袌?chǎng)行為可能受到多種因素的影響,并且未來(lái)的狀態(tài)取決于當(dāng)前狀態(tài)和市場(chǎng)的隨機(jī)波動(dòng)。獎(jiǎng)勵(lì)可以表示投資組合的即時(shí)回報(bào)或效用。然而,金融市場(chǎng)中的馬爾可夫性質(zhì)可能不是完全滿足的。金融市場(chǎng)常常受到外部因素、新聞事件、市場(chǎng)情緒和非馬爾可夫性的影響。此外,市場(chǎng)行為往往是非線性的、高度動(dòng)態(tài)的,并且存在著復(fù)雜的相互關(guān)聯(lián)和不確定性。盡管如此,雖然金融投資的馬爾可夫性質(zhì)可能是近似的,但在實(shí)際應(yīng)用中,經(jīng)常使用馬爾可夫決策過(guò)程的概念和方法來(lái)建模和解決金融投資中的決策問題。這樣的建模可以提供一種框架,用于制定投資策略、優(yōu)化資產(chǎn)配置以及進(jìn)行風(fēng)險(xiǎn)管理和回報(bào)優(yōu)化等決策過(guò)程。強(qiáng)化學(xué)習(xí)問題可以被形式化地描述為一個(gè)馬爾可夫決策過(guò)程(MarkovDecisionProcess,MDP)。MDPProbability)和折扣因子(DiscountFactor)。狀態(tài)是在決策過(guò)程中描述環(huán)境的信息。在投資組合構(gòu)建中,狀態(tài)可以表示為一組關(guān)于市場(chǎng)、股票、經(jīng)濟(jì)指標(biāo)等方面的觀察值。狀態(tài)可以是離散的,如市場(chǎng)的漲跌狀態(tài),也可以是連續(xù)的,如股票價(jià)格的變化。而動(dòng)作是智能體在某一狀態(tài)下所采取的行為。在投資組合構(gòu)建中,動(dòng)作可以表示為資產(chǎn)的買賣決策,如買入某只股票、賣出某只股票或者持有現(xiàn)金。MDPMDP勵(lì)。這使得強(qiáng)化學(xué)習(xí)成為投資組合構(gòu)建中的有力工具,可以根據(jù)市場(chǎng)變化自動(dòng)調(diào)整投資策略。值函數(shù)和策略在強(qiáng)化學(xué)習(xí)中,值函數(shù)和策略是兩個(gè)重要的概念。值函數(shù)Function):請(qǐng)參閱最后一頁(yè)的重要聲明量化深度報(bào)告值函數(shù)衡量在給定狀態(tài)或狀態(tài)-動(dòng)作對(duì)下的預(yù)期回報(bào)。值函數(shù)可以用于評(píng)估狀態(tài)或動(dòng)作的好壞,以指導(dǎo)智能體在不同狀態(tài)下的決策。狀態(tài)值函數(shù)(StateValueFunction):V(s)s動(dòng)作值函數(shù)(ActionValueFunction):Q(sas,a值函數(shù)可以通過(guò)動(dòng)態(tài)規(guī)劃方法或使用近似函數(shù)(如神經(jīng)網(wǎng)絡(luò))來(lái)進(jìn)行估計(jì)和更新。通過(guò)優(yōu)化值函數(shù),智能體可以選擇具有最高估值的狀態(tài)或動(dòng)作,以改進(jìn)其策略。策略(Policy):策略定義了智能體在給定狀態(tài)下采取動(dòng)作的決策規(guī)則。它可以是確定性的(根據(jù)狀態(tài)直接選擇一個(gè)動(dòng)作)或概率性的(根據(jù)狀態(tài)選擇一個(gè)動(dòng)作的概率分布)。策略是智能體與環(huán)境交互的核心?!げ呗院瘮?shù)(PolicyFunction):策略函數(shù)將狀態(tài)映射到相應(yīng)的動(dòng)作或動(dòng)作概率分布。通常記為π(a|s),表示在狀態(tài)s下采取動(dòng)作a的概率?!ぷ顑?yōu)策略(OptimalPolicy):索,智能體可以找到最優(yōu)策略,從而在強(qiáng)化學(xué)習(xí)任務(wù)中達(dá)到最佳性能。在強(qiáng)化學(xué)習(xí)中,值函數(shù)和策略通常通過(guò)交替迭代來(lái)進(jìn)行優(yōu)化。通過(guò)評(píng)估不同策略的值函數(shù)或通過(guò)改進(jìn)策略以增加回報(bào),智能體逐步學(xué)習(xí)并改進(jìn)其決策能力,最終找到最優(yōu)策略。強(qiáng)化學(xué)習(xí)算法概述強(qiáng)化學(xué)習(xí)算法是一類用于解決強(qiáng)化學(xué)習(xí)問題的算法,其目標(biāo)是通過(guò)與環(huán)境的交互學(xué)習(xí)到最優(yōu)的策略。下面是對(duì)強(qiáng)化學(xué)習(xí)算法的概述:基于值Q-learning(Q)Q用于學(xué)習(xí)在馬爾可夫決策過(guò)程(MDP)中的最優(yōu)策略。它是一種無(wú)模型學(xué)習(xí)方法,不需要對(duì)環(huán)境的轉(zhuǎn)移概率進(jìn)行建模,而是通過(guò)迭代更新一個(gè)動(dòng)作值函數(shù)(Q)Q-learningQQQQQQ-learning算法的基本步驟如下:QQQ(如ε-貪心策略)選擇行動(dòng)。執(zhí)行行動(dòng)并觀察環(huán)境反饋:執(zhí)行選擇的行動(dòng),觀察環(huán)境的新狀態(tài)和獲得的獎(jiǎng)勵(lì)。QQQQ根據(jù)如下公式Q(s,a)←(1-α)*Q(s,a)+α*(r+γ*maxQ(s',a'))2-4,直到達(dá)到收斂條件(Q值)。Q-learning的擴(kuò)展算法包括:請(qǐng)參閱最后一頁(yè)的重要聲明量化深度報(bào)告DoubleQ-learning:DoubleQ-learningQQQDuelingQ-learning:DuelingQ-learningQDeepQ-Network(DQN):DQNQ-learningQPrioritizedExperienceReplay:PrioritizedExperienceReplayTDQSARSA算法及其擴(kuò)展:SARSA(State-Action-Reward-State-Action)是一種基于值函數(shù)的強(qiáng)化學(xué)習(xí)算法,用于學(xué)習(xí)在馬爾可夫決策過(guò)程(MDP)Q-learningSARSA)來(lái)尋找最優(yōu)策略。SARSA:SARSAQ-learning,但它使用了ε-greedyQSARSAQQ-learningSARSAQSARSA算法的基本步驟如下:QQQ(如ε-貪心策略)選擇行動(dòng)。執(zhí)行行動(dòng)并觀察環(huán)境反饋:執(zhí)行選擇的行動(dòng),觀察環(huán)境的新狀態(tài)和獲得的獎(jiǎng)勵(lì)。選擇下一步行動(dòng):根據(jù)新狀態(tài)和當(dāng)前策略選擇下一步行動(dòng)。Q(程)Q2-5SARSAExpectedSARSA:ExpectedSARSAQSARSA(λ):SARSA(λSARSAλ參數(shù)來(lái)平衡累積回報(bào)和當(dāng)前獎(jiǎng)勵(lì)的重要性,以提高算法的學(xué)習(xí)效率。DeepSARSA:DeepSARSASARSAQ基于策略PolicyGradient:策略梯度是一種基于策略的強(qiáng)化學(xué)習(xí)算法,通過(guò)直接優(yōu)化策略函數(shù)來(lái)尋找最優(yōu)策略。它使用梯度上升法更新策略參數(shù),使得長(zhǎng)期累積獎(jiǎng)勵(lì)最大化。ProximalPolicyOptimizationPPO):PPO策略梯度方法是一種強(qiáng)化學(xué)習(xí)算法,它通過(guò)優(yōu)化策略來(lái)解決問題,而不是像Q-learning和ValueIteration那樣優(yōu)化價(jià)值函數(shù)。在策略梯度方法中,我們將策略參數(shù)化,通常表示為某種概率分布,通過(guò)這種方式可以對(duì)策略進(jìn)行優(yōu)化。策略梯度方法的核心思想是通過(guò)對(duì)策略的參數(shù)應(yīng)用梯度上升(因?yàn)槲覀円畲蠡谕?jiǎng)勵(lì),而不是最小化損失函數(shù),所以使用梯度上升而不是梯度下降)來(lái)找到最優(yōu)策略。梯度是根據(jù)經(jīng)驗(yàn)回報(bào)(或某種回報(bào)的估計(jì))和策略的梯度來(lái)計(jì)算的。請(qǐng)參閱最后一頁(yè)的重要聲明量化深度報(bào)告PPO是一種策略梯度方法的變種,它試圖通過(guò)對(duì)策略進(jìn)行軟限制的方式來(lái)避免策略更新步驟過(guò)大導(dǎo)致訓(xùn)練不穩(wěn)定的問題。這是通過(guò)引入一個(gè)被稱為"proximityfunction"或"trustregion"的概念實(shí)現(xiàn)的,該函數(shù)會(huì)阻止新策略偏離當(dāng)前策略太遠(yuǎn)。在基本的策略梯度方法中,每個(gè)策略更新都可能導(dǎo)致策略產(chǎn)生較大的變化。這可能會(huì)導(dǎo)致學(xué)習(xí)過(guò)程不穩(wěn)定,因?yàn)橐粋€(gè)大的策略更新可能會(huì)將策略從一個(gè)良好的區(qū)域推向一個(gè)表現(xiàn)較差的區(qū)域。PPO通過(guò)限制策略更新的大小來(lái)防止這種情況發(fā)生。PPO是一種改進(jìn)的策略梯度方法,它通過(guò)限制策略更新的大小來(lái)改善學(xué)習(xí)的穩(wěn)定性和效果。與傳統(tǒng)的策略梯度方法相比,PPO的一個(gè)主要優(yōu)點(diǎn)是它提供了更穩(wěn)定和有效的學(xué)習(xí)過(guò)程。這使得PPO在許多任務(wù)中都表現(xiàn)得更好,特別是在處理復(fù)雜和高維度的任務(wù)時(shí)。策略梯度方法的一個(gè)主要優(yōu)點(diǎn)是它們相對(duì)簡(jiǎn)單,易于理解和實(shí)現(xiàn)。然而,由于它們?cè)诓呗愿聲r(shí)沒有采取措施來(lái)防止大的策略變化,因此它們可能會(huì)在某些任務(wù)中表現(xiàn)得不夠穩(wěn)定。基于值和策略Actor-Critic:Actor-CriticActor(行動(dòng)者),Critic(評(píng)論者)。Actor是負(fù)責(zé)做出行動(dòng)選擇的部分。在具有參數(shù)化策略的環(huán)境中,Actor將會(huì)根據(jù)當(dāng)前的策略以一定的概率選擇每個(gè)可能的行動(dòng)。這個(gè)策略是可以通過(guò)學(xué)習(xí)進(jìn)行改進(jìn)的,一般通過(guò)梯度上升來(lái)最大化期望獎(jiǎng)勵(lì)。Critic的任務(wù)是評(píng)估Actor的行動(dòng)選擇。Critic是一個(gè)價(jià)值函數(shù),它的目的是預(yù)測(cè)Actor采取某一行動(dòng)后可能獲得的期望回報(bào)。Critic的輸出被用來(lái)更新Actor的策略。在Actor-Critic方法中,Actor和Critic通常會(huì)交替進(jìn)行更新。首先,Actor會(huì)根據(jù)當(dāng)前的策略選擇一個(gè)行動(dòng),然后環(huán)境會(huì)返回一個(gè)新的狀態(tài)和獎(jiǎng)勵(lì)。Critic會(huì)用這個(gè)獎(jiǎng)勵(lì)和新的狀態(tài)來(lái)更新自己的價(jià)值函數(shù)。然后,Actor會(huì)用Critic的新的價(jià)值函數(shù)來(lái)更新自己的策略。Actor-Critic方法的一個(gè)主要優(yōu)點(diǎn)是它可以在不完全知道環(huán)境動(dòng)態(tài)的情況下進(jìn)行學(xué)習(xí)。此外,由于Actor和Critic的存在,它能夠平衡對(duì)探索和利用的需求。實(shí)際上,還有許多不同的Actor-Critic算法變種,例如AdvantageActor-Critic(A2C),AsynchronousAdvantageActor-Critic(A3C),SoftActor-Critic(SAC)和ProximalPolicyOptimization(PPO)等等,它們?cè)谠械腁ctor-Critic框架基礎(chǔ)上加入了不同的改進(jìn)策略。AdvantageActor-CriticA2C):A2CActor-CriticCritic網(wǎng)絡(luò)中的原始回報(bào),作為評(píng)價(jià)指標(biāo),有效降低了策略網(wǎng)絡(luò)的高方差。A2CActorCriticA2C性,因此是股票交易的很好的模式。其目標(biāo)函數(shù)如下:?Jθ(θ)=E[∑T

?θlogπθ(at|st)A(st|at)],π

(at|st)為策略網(wǎng)絡(luò),A(st|at)優(yōu)勢(shì)公式,θ可以表示為A(st,at)=Q(st,at)?V(st)。θ深度強(qiáng)化學(xué)習(xí)算法DeepQ-Network(DQN):DQNQ-learningDQNQDeepQ-Network(DQNQ-learning的強(qiáng)化學(xué)習(xí)算法,最DeepMind2015"Human-levelcontrolthroughdeepreinforcementlearning"中提請(qǐng)參閱最后一頁(yè)的重要聲明量化深度報(bào)告出。在DQN中,神經(jīng)網(wǎng)絡(luò)被用作函數(shù)逼近器,以估計(jì)Q值函數(shù),即給定一個(gè)狀態(tài)和一個(gè)行動(dòng),預(yù)測(cè)該行動(dòng)的期望回報(bào)。傳統(tǒng)的Q-learning依賴于查找表來(lái)存儲(chǔ)每個(gè)狀態(tài)-動(dòng)作對(duì)的Q值,這在處理大規(guī)?;蜻B續(xù)的狀態(tài)空間和動(dòng)作空間時(shí)變得非常困難,因?yàn)椴檎冶淼拇笮?huì)隨著狀態(tài)空間和動(dòng)作空間的大小呈指數(shù)增長(zhǎng)。DQN通過(guò)使用深度神經(jīng)網(wǎng)絡(luò)作為Q函數(shù)的逼近器來(lái)解決這個(gè)問題。DQN的關(guān)鍵創(chuàng)新之處在于它引入了兩個(gè)重要的概念來(lái)穩(wěn)定和改善學(xué)習(xí)過(guò)程:經(jīng)驗(yàn)回放(ExperienceReplay):DQN存儲(chǔ)了一系列過(guò)去的經(jīng)驗(yàn)(即狀態(tài),行動(dòng),獎(jiǎng)勵(lì)和新狀態(tài)的四元組),并在訓(xùn)練時(shí)從這些經(jīng)驗(yàn)中隨機(jī)抽樣,這種做法可以打破數(shù)據(jù)之間的相關(guān)性,并且充分利用過(guò)去的經(jīng)驗(yàn)。目標(biāo)網(wǎng)絡(luò)(TargetNetwork):為了防止訓(xùn)練過(guò)程中Q值的目標(biāo)和預(yù)測(cè)同時(shí)變動(dòng)導(dǎo)致的不穩(wěn)定,DQN引入了另一個(gè)網(wǎng)絡(luò)(稱為目標(biāo)網(wǎng)絡(luò))。目標(biāo)網(wǎng)絡(luò)的參數(shù)在大部分時(shí)間里被凍結(jié),并且周期性地從預(yù)測(cè)網(wǎng)絡(luò)(即主網(wǎng)絡(luò))復(fù)制過(guò)來(lái)。這樣,每個(gè)更新步驟的目標(biāo)Q值都是相對(duì)固定的,這大大提高了學(xué)習(xí)過(guò)程的穩(wěn)定性。盡管DQN在處理視覺輸入和復(fù)雜任務(wù)方面已經(jīng)取得了顯著的成功,但它仍然有一些局限性,例如它只能處理離散的、有限的動(dòng)作空間,而對(duì)于連續(xù)的動(dòng)作空間,DQN不再適用,需要使用其他算法,如DDPG,SAC等。DeepDeterministicPolicyGradient(DDPG):DDPG法。在投資領(lǐng)域,DDPGQ-learning的思想。DDPGDeepMind2016"Continuouscontrolwithdeepreinforcementlearning"中提出的。DDPG實(shí)際上是一個(gè)Actor-Critic方法,但它使用的策略(由Actor組件實(shí)現(xiàn))是確定性的,而不是像其他方法那樣是隨機(jī)的。同時(shí),它使用了一種名為“確定性策略梯度”的技術(shù),這是一種用于連續(xù)動(dòng)作空間的策略梯度方法。由于這個(gè)特性,DDPG被廣泛應(yīng)用于那些需要連續(xù)動(dòng)作的問題中,如機(jī)器人控制和自動(dòng)駕駛等。和DQN類似,DDPG也使用了經(jīng)驗(yàn)回放(ExperienceReplay)和目標(biāo)網(wǎng)絡(luò)(TargetNetwork)來(lái)提高學(xué)習(xí)的穩(wěn)定性和效果。其算法流程如下:在每一個(gè)時(shí)間點(diǎn),DDPGst狀態(tài)下執(zhí)行一個(gè)動(dòng)作,at收到獎(jiǎng)勵(lì)rt并到達(dá)st+1。轉(zhuǎn)移狀態(tài)(statst+1rt)RRNQ-valueyi為:yi=ri+μ′ Q′ Q QγQ′(si+1,μ′(si+1|θ,θ)), i=1N.然后通過(guò)最小化損失函數(shù)L(θ)CriticL(θ)=E [(yE [(y?Q((s,a|θst,at,rt,st+1~buffer i ttProximalPolicyOptimization(PPO):PPOPPO通過(guò)在目標(biāo)函數(shù)中引入一個(gè)剪裁項(xiàng)來(lái)簡(jiǎn)化目標(biāo)。其算法部分如下:假設(shè)新舊策略的概率比表示為:rt(θ)=

π(at|st)θ。θπ????????(at|st)剪裁代理目標(biāo)函數(shù)為:JCLIP(θ)=êt[min(rt(θ)?(st,at),clip(rt(θ),1??,1+?)?(st,at))]。其中rt(θ)?(st,at)為正態(tài)策略梯度目標(biāo),?(st,at)為優(yōu)勢(shì)函數(shù)的估計(jì)。函數(shù)clip(rt(θ),1??,1+?)將rt(θ)剪裁到[1??,1+?]之間。目標(biāo)函數(shù)取剪裁目標(biāo)和正常目標(biāo)的最小值。請(qǐng)參閱最后一頁(yè)的重要聲明量化深度報(bào)告TrustRegionPolicyOptimization(TRPO):TRPO這只是強(qiáng)化學(xué)習(xí)算法的概述,實(shí)際上還有許多其他算法和改進(jìn)方法,適用于不同的問題和場(chǎng)景。選擇適合特定問題的強(qiáng)化學(xué)習(xí)算法需要考慮問題的特點(diǎn)、計(jì)算資源的可用性和算法的穩(wěn)定性等因素。三、深度強(qiáng)化學(xué)習(xí)的投資組合構(gòu)建應(yīng)用場(chǎng)景投資組合維護(hù)場(chǎng)景和通用的強(qiáng)化算法是一致的,只是在具體的數(shù)據(jù)定義上有所轉(zhuǎn)換。在投資組合構(gòu)建中,定義如下:圖表2:投資組合強(qiáng)化學(xué)習(xí)場(chǎng)景數(shù)據(jù)來(lái)源:DeepReinforcementLearningforAutomatedStockTrading,狀態(tài)的定義在投資組合構(gòu)建問題中,狀態(tài)的定義是非常重要的,它反映了決策時(shí)所關(guān)注的信息。以下是一些可能用于強(qiáng)化學(xué)習(xí)建模投資組合構(gòu)建問題中的狀態(tài)定義示例:率水平、通脹率等。時(shí)間內(nèi)的平均或歷史價(jià)格。技術(shù)指標(biāo):使用技術(shù)分析中的指標(biāo)來(lái)衡量資產(chǎn)的走勢(shì)和市場(chǎng)的動(dòng)態(tài)。例如,移動(dòng)平均線、相對(duì)強(qiáng)弱指標(biāo)(RSI)、波動(dòng)率等。經(jīng)濟(jì)指標(biāo):使用經(jīng)濟(jì)數(shù)據(jù)來(lái)衡量宏觀經(jīng)濟(jì)環(huán)境的變化。例如,國(guó)內(nèi)生產(chǎn)總值(GDP)、失業(yè)率、消費(fèi)者物價(jià)指數(shù)(CPI)等。財(cái)務(wù)指標(biāo):使用公司的財(cái)務(wù)數(shù)據(jù)來(lái)評(píng)估其業(yè)績(jī)和價(jià)值。例如,營(yíng)業(yè)收入、利潤(rùn)率、負(fù)債比率等。單、交易成本等。請(qǐng)參閱最后一頁(yè)的重要聲明風(fēng)險(xiǎn)的。實(shí)際上可以根據(jù)具體的問題和可用數(shù)據(jù)來(lái)定義更加復(fù)雜和詳細(xì)的狀態(tài)。選擇適當(dāng)?shù)臓顟B(tài)定義需要考慮到數(shù)據(jù)的可獲得性、特征的信息量以及對(duì)投資決策的相關(guān)性。強(qiáng)化學(xué)習(xí)算法可以通過(guò)對(duì)不同狀態(tài)的學(xué)習(xí)和探索來(lái)優(yōu)化投資組合構(gòu)建的決策策略.行動(dòng)空間的定義在投資組合構(gòu)建問題中,行動(dòng)空間定義了可供智能體選擇的不同行動(dòng)或交易操作。行動(dòng)空間的設(shè)計(jì)需要考慮投資策略的靈活性和可行性,以及市場(chǎng)和交易的限制。以下是一些可能的行動(dòng)空間定義示例:買入/賣出單一資產(chǎn):智能體可以選擇買入或賣出單一資產(chǎn),如股票、債券、商品等。行動(dòng)可以包括購(gòu)買特定數(shù)量的資產(chǎn)或出售現(xiàn)有持有的資產(chǎn)。買入/賣出多個(gè)資產(chǎn):智能體可以選擇同時(shí)買入或賣出多個(gè)資產(chǎn),以構(gòu)建多樣化的投資組合。行動(dòng)可以包括購(gòu)買或出售不同資產(chǎn)的不同數(shù)量。持有現(xiàn)金:智能體可以選擇將一部分資金保持為現(xiàn)金,以應(yīng)對(duì)市場(chǎng)不確定性或保留投資機(jī)會(huì)。資產(chǎn)配置權(quán)重:智能體可以選擇調(diào)整不同資產(chǎn)的權(quán)重分配,以調(diào)整投資組合的相對(duì)比例。行動(dòng)可以涉及增加或減少特定資產(chǎn)的權(quán)重。動(dòng)態(tài)調(diào)整:智能體可以根據(jù)市場(chǎng)變化和投資目標(biāo)的變化動(dòng)態(tài)調(diào)整投資組合。行動(dòng)可以包括根據(jù)市場(chǎng)條件和模型的預(yù)測(cè)進(jìn)行增減倉(cāng)、調(diào)整權(quán)重等。交易限制:行動(dòng)空間可以受到交易限制的約束,如最小交易單位、交易成本、流動(dòng)性限制等。這些限制會(huì)影響智能體的交易決策。禁止交易:在某些情況下,行動(dòng)空間可以限制特定的交易行為,如禁止賣空或限制特定類型的交易。圖表3:行動(dòng)空間定義示例數(shù)據(jù)來(lái)源:DeepReinforcementLearningforAutomatedStockTrading,請(qǐng)參閱最后一頁(yè)的重要聲明獎(jiǎng)勵(lì)函數(shù)的設(shè)計(jì)獎(jiǎng)勵(lì)函數(shù)的設(shè)計(jì)在強(qiáng)化學(xué)習(xí)中起著至關(guān)重要的作用,它用于對(duì)智能體的行為進(jìn)行評(píng)估和反饋。在投資組合構(gòu)建問題中,獎(jiǎng)勵(lì)函數(shù)的設(shè)計(jì)應(yīng)該考慮以下幾個(gè)方面:投資績(jī)效:獎(jiǎng)勵(lì)函數(shù)可以基于投資組合的績(jī)效來(lái)進(jìn)行設(shè)計(jì)???jī)效可以使用各種指標(biāo),如累積回報(bào)率、夏普比率、年化收益率等。獎(jiǎng)勵(lì)可以根據(jù)投資組合在時(shí)間上的增長(zhǎng)或達(dá)到特定目標(biāo)來(lái)進(jìn)行評(píng)估。本研報(bào)中主要是使用夏普比率來(lái)比較三種算法的績(jī)效。風(fēng)險(xiǎn)控制:獎(jiǎng)勵(lì)函數(shù)可以考慮投資組合的風(fēng)險(xiǎn)管理能力。這可以通過(guò)衡量投資組合的波動(dòng)性、回撤(drawdown)或損失來(lái)實(shí)現(xiàn)。獎(jiǎng)勵(lì)可以鼓勵(lì)智能體在風(fēng)險(xiǎn)可控范圍內(nèi)獲取較高的回報(bào),或者避免較大的損失。3.其相對(duì)于基準(zhǔn)指數(shù)表現(xiàn)良好時(shí),或者在相對(duì)于基準(zhǔn)指數(shù)的基礎(chǔ)上實(shí)現(xiàn)超額收益時(shí)。平穩(wěn)的回報(bào)、避免極端風(fēng)險(xiǎn)和頻繁的交易來(lái)實(shí)現(xiàn)。獎(jiǎng)勵(lì)。這可以用于引導(dǎo)智能體在特定時(shí)期或特定市場(chǎng)情況下采取特定的行動(dòng)。擇低成本的交易策略。智能體學(xué)習(xí)到預(yù)期的投資策略,并在投資組合構(gòu)建問題中實(shí)現(xiàn)良好的性能和風(fēng)險(xiǎn)控制。轉(zhuǎn)移概率建模轉(zhuǎn)移概率建模在強(qiáng)化學(xué)習(xí)中用于描述智能體在不同狀態(tài)下執(zhí)行特定行動(dòng)后的狀態(tài)轉(zhuǎn)移情況。在投資組合構(gòu)建問題中,轉(zhuǎn)移概率模型可以幫助智能體理解市場(chǎng)的動(dòng)態(tài)變化和資產(chǎn)價(jià)格的演變。以下是幾種常見的轉(zhuǎn)移概率建模方法:移到另一個(gè)狀態(tài)的概率。概率矩陣可以根據(jù)歷史數(shù)據(jù)或領(lǐng)域知識(shí)進(jìn)行估計(jì),或者通過(guò)模型學(xué)習(xí)方法進(jìn)行建模。離散轉(zhuǎn)移概率模型適用于狀態(tài)空間有限且離散的情況。率分布。常見的方法包括高斯過(guò)程模型、隱馬爾可夫模型(HMM)等。這些模型可以通過(guò)歷史數(shù)據(jù)擬合參數(shù),并用于預(yù)測(cè)未來(lái)狀態(tài)的概率分布?;隈R爾可夫決策過(guò)程(MDP)的轉(zhuǎn)移概率模型:MDPMDP移概率。轉(zhuǎn)移概率可以基于歷史數(shù)據(jù)估計(jì)或通過(guò)領(lǐng)域知識(shí)進(jìn)行建模。深度學(xué)習(xí)方法:近年來(lái),深度學(xué)習(xí)方法在轉(zhuǎn)移概率建模中取得了重要進(jìn)展。使用遞歸神經(jīng)網(wǎng)絡(luò)(RNN)或卷積神經(jīng)網(wǎng)絡(luò)(CNN)等深度學(xué)習(xí)模型可以捕捉狀態(tài)之間的復(fù)雜關(guān)系和非線性動(dòng)態(tài)。這些模型可以從歷史數(shù)據(jù)中學(xué)習(xí)狀態(tài)轉(zhuǎn)移概率,并用于預(yù)測(cè)。四、強(qiáng)化學(xué)習(xí)在投資組合構(gòu)建上的實(shí)證研究訓(xùn)練輸入特征請(qǐng)參閱最后一頁(yè)的重要聲明201912312023331300在分析中使用的因子特征是CNE7的十大風(fēng)格因子,具體如下:解釋的市場(chǎng)風(fēng)險(xiǎn)。殘余波動(dòng)率:殘余波動(dòng)率用于解釋貝塔因子無(wú)法捕捉到的高波動(dòng)率股票收益。大小盤:大小盤因子可以捕捉大盤與小盤股之間的收益差別。公司市值相關(guān)的股票收益。EarningsYield(EP):基于公司收入相對(duì)于股價(jià)的比率來(lái)描述收益差異。BooktoPrice(BP):BP動(dòng)量:動(dòng)量基于過(guò)去一段時(shí)間內(nèi)的超額收益來(lái)解釋股票收益的差異。杠桿率:杠桿率因子用于捕捉高杠桿和低杠桿股票之間的收益差異。流動(dòng)性:流動(dòng)性因子捕捉股票的換手率對(duì)其收益的影響。成長(zhǎng):成長(zhǎng)因子基于公司的銷售和盈利增長(zhǎng)月動(dòng)量月?lián)Q手率月波動(dòng)率周動(dòng)量深度強(qiáng)化學(xué)習(xí)模型的參數(shù)設(shè)置3A2CPPODDPG22Ensemble(22)SharpeA2C,PPO,DDPG模型訓(xùn)練參數(shù)為下圖:圖表4:訓(xùn)練測(cè)參數(shù)數(shù)據(jù)來(lái)源:請(qǐng)參閱最后一頁(yè)的重要聲明訓(xùn)練和測(cè)試數(shù)據(jù)集劃分如下圖表5:訓(xùn)練數(shù)據(jù)變量日期訓(xùn)練開始2019/12/31訓(xùn)練結(jié)束2022/7/1測(cè)試開始2022/7/1測(cè)試結(jié)束2023/3/31數(shù)據(jù)來(lái)源:CSI300EnsembleEnsembleCSI300。Ensemble2.12%CSI300-0.62CSI300的-0.391.29%(21.90%)CSI300(16.79%),Sharpe(0.2045vs0.0460)Calmar(0.1455vs0.0367)EnsembleCSI300此外,Ensemble(0.0915)CSI300(0.0241),最大回撤(-0.1454)也小CSI300(-0.1680),VAR(-0.0274vsOmega(1.0366vs1.0079)Sortino(0.3153vs0.0714)EnsembleCSI300??傮w來(lái)看,Ensemble點(diǎn),總體跑贏市場(chǎng)基準(zhǔn)。本研報(bào)受限于算力資源,并未進(jìn)行長(zhǎng)時(shí)間段和多個(gè)因子特征來(lái)進(jìn)行訓(xùn)練。請(qǐng)參閱最后一頁(yè)的重要聲明實(shí)證結(jié)果分析圖表6:測(cè)試期業(yè)績(jī)表現(xiàn)指標(biāo) csi300 EnsembeAnnualretun-0.62%2.12%Cumulaivereturns-0.39%1.29%Annualvolatiity16.79%21.90%Sharperatio0.04600.2045Calmarratio-0.03670.1455Stabilty0.02410.0915Maxdrwdown-0.1680-0.1454Omegaatio1.00791.0366Sortinorato0.07140.3153Tailrtio1.25721.1090Dailyalueatrisk-0.0211-0.0274數(shù)據(jù)來(lái)源:圖表7:時(shí)序圖CSI300CSI300EnsembleEnsemblevs CSI3001200000100000080000060000040000020000002022/8/3 2022/9/32022/10/32022/11/32022/12/32023/1/3 2023/2/32023/3/3數(shù)據(jù)來(lái)源:請(qǐng)參閱最后一頁(yè)的重要聲明實(shí)踐中遇到的問題強(qiáng)化學(xué)習(xí)在實(shí)際投資中具有一定的應(yīng)用潛力,但也存在一些局限性。以下是強(qiáng)化學(xué)習(xí)在實(shí)際投資中的應(yīng)用局限性,其中部分問題是所有量化投資面臨問題:能和決策質(zhì)量。如回溯測(cè)試中錯(cuò)誤地使用了未來(lái)的信息就一直困擾量化投資經(jīng)理和分析師。過(guò)擬合:深度強(qiáng)化學(xué)習(xí)算法容易在訓(xùn)練數(shù)據(jù)上過(guò)擬合,導(dǎo)致在樣本外新數(shù)據(jù)上的表現(xiàn)不佳。智能體在訓(xùn)練過(guò)程是很容易過(guò)度擬合數(shù)據(jù),從在在樣本外,特別是有新的事件或消息出現(xiàn)時(shí),智能體決策表現(xiàn)不加。交易執(zhí)行問題:將學(xué)到的投資策略轉(zhuǎn)化為實(shí)際的交易操作存在一些技術(shù)和執(zhí)行風(fēng)險(xiǎn),例如市場(chǎng)流動(dòng)性、要更強(qiáng)算力來(lái)訓(xùn)練模型。高維狀態(tài)空間和連續(xù)行動(dòng)空間:投資組合構(gòu)建問題通常涉及到多個(gè)資產(chǎn),因此狀態(tài)空間往往具有高維度對(duì)于傳統(tǒng)的強(qiáng)化學(xué)習(xí)算法可能具有挑戰(zhàn)。化。這種不穩(wěn)定性可能導(dǎo)致在訓(xùn)練階段表現(xiàn)良好的模型在實(shí)際應(yīng)用中失效。強(qiáng)化學(xué)習(xí)算法需要具備魯棒性和適應(yīng)性,以應(yīng)對(duì)不斷變化的市場(chǎng)條件。風(fēng)險(xiǎn)管理和不確定性:投資組合構(gòu)建涉及到風(fēng)險(xiǎn)管理和不確定性的因素,如算法通常無(wú)法直接捕捉和模同時(shí),模型的預(yù)測(cè)和決策也受到市場(chǎng)波動(dòng)性和未來(lái)不確定性的影響。解釋性和可解釋性:在實(shí)際投資中,投資交易決策的可解釋性和解釋性非常重要。投資機(jī)構(gòu)需要能理解模型的決策邏輯和背后的原因,以便進(jìn)行合理的解釋和解讀而進(jìn)行下一步的研究。然而,深度強(qiáng)化學(xué)習(xí)算法通常是黑盒模型,其決策過(guò)程可能缺乏直觀的解釋性。當(dāng)智能體復(fù)雜到一定程度時(shí),人類分析師很難觀察模型訓(xùn)練過(guò)程,從而進(jìn)行下一步的干預(yù)和調(diào)試。五、風(fēng)險(xiǎn)提示本報(bào)告中的深度學(xué)習(xí)模型計(jì)算可能存在偏誤,模型存在對(duì)訓(xùn)練樣本數(shù)據(jù)過(guò)擬合風(fēng)險(xiǎn),過(guò)去的業(yè)績(jī)并不代表未來(lái)的表現(xiàn)。機(jī)器學(xué)習(xí)建模是對(duì)歷史經(jīng)驗(yàn)的總結(jié),模型所學(xué)習(xí)到的市場(chǎng)規(guī)律在未來(lái)可能失效。因此,投資者在應(yīng)用這些方法時(shí)應(yīng)謹(jǐn)慎,并意識(shí)到市場(chǎng)風(fēng)格的變化以及極端行情等因素可能對(duì)模型有效性造成影響。投資者需要根據(jù)自身情況自主選擇合適的方法,并自行承擔(dān)相應(yīng)的風(fēng)險(xiǎn)。本報(bào)告中所介紹的方法論并不構(gòu)成對(duì)投資者獲利的保證,也不構(gòu)成具體的投資建議。六.參考文獻(xiàn)RonaldJWilliams.1992.Simplestatisticalgradient-followingalgorithmsforconnectionistreinforcementlearning.Machinelearning8,3(1992),229–256.HaoranLidiaMangu,andKeith2019.Model-basedreinforcementlearningforpredictionsandcontrolforlimitorderbooks.arXivpreprintarXiv:1

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論