2023ChatGPT大模型技術(shù)發(fā)展與應(yīng)用_第1頁
2023ChatGPT大模型技術(shù)發(fā)展與應(yīng)用_第2頁
2023ChatGPT大模型技術(shù)發(fā)展與應(yīng)用_第3頁
2023ChatGPT大模型技術(shù)發(fā)展與應(yīng)用_第4頁
2023ChatGPT大模型技術(shù)發(fā)展與應(yīng)用_第5頁
已閱讀5頁,還剩10頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

ChatGPT大模型技術(shù)發(fā)展應(yīng)用引 言自然語言處理(Naturallanguageprocessing,NLP)是計算機科學(xué)與人工智能領(lǐng)域中研究人類語言與計算機之間交互的一門學(xué)科,一直以來都是人工智能研究的熱點。在過去的幾十年發(fā)展中NL取得了顯著的進展,引發(fā)了廣泛的研究和應(yīng)用。語言模型作為NLP的核心技術(shù)之一,在機器翻譯、文本生成和語音識別等任務(wù)中都發(fā)揮著重要的作用。然而由于人類語言的復(fù)雜性和多義性以及數(shù)據(jù)和計算資源的限制,語言模型難以對大規(guī)模的語言數(shù)據(jù)和復(fù)雜的語義任務(wù)進行有效處理。近年來,隨著深也得到了顯著提升。ChatGPT是由OpenAI團隊研發(fā)的生成式可交互多任務(wù)大語言模型20221130日推出后一夜之間火爆全網(wǎng),僅5天內(nèi)就得到百萬用戶注冊,展現(xiàn)出極大的解放生產(chǎn)力潛質(zhì),引起各行各業(yè)廣泛AI界的熱點。ChatGPT是一種基于GPT(Generativepre?trainedtransformer)的大語言模生成、摘要、翻譯和代碼生成等任務(wù)。ChatGPT的成功并非一蹴而就ChatGPT的能力路線,需要先回顧語言模型和神經(jīng)網(wǎng)絡(luò)的發(fā)展歷程,以及近年來語義表示和預(yù)訓(xùn)練技術(shù)帶來的突破。本文旨在通過相關(guān)技術(shù)的發(fā)展脈絡(luò)解析ChatGPTChatGPT的技術(shù)原理,分析其技術(shù)特點并合理利用。由于官方未公布詳細方案,本文涉及的相關(guān)推論僅供學(xué)術(shù)討論參考。本文前兩部分從語言模型和神經(jīng)網(wǎng)絡(luò)、語義表示和預(yù)訓(xùn)練技術(shù)的發(fā)展出發(fā),通過這些技術(shù)的迭代過程鋪墊ChatGPT的技術(shù)背景,第3部分簡述InstructGPT和ChatGPT的技術(shù)原理,分析ChatGPT語言能力和交互能力的來源。面對ChatGPT帶來的巨大反響,亦有必要冷靜理性地審視這一AI技術(shù)的光與影。第4部分全面分析了ChatGPT的優(yōu)劣,既論述了其帶來的便利與機遇,也明確它的風(fēng)險與挑發(fā)展??傊鎸hatGPT動ChatGPT等AI技術(shù)向著真正造福人類的方向健康發(fā)展。神經(jīng)網(wǎng)絡(luò)和語言模型ChatGPT作為一個基于GPT的大語言模型,其技術(shù)來源與語言模型的發(fā)展密不可分,此外不斷取得技術(shù)突破的神經(jīng)網(wǎng)絡(luò)也發(fā)揮著至關(guān)重要的作用。語言模型是NLP領(lǐng)域的重要任務(wù)之一,其目標是對于給定的文本序列進行建模,以便能夠預(yù)測出一個句子或文本的概率分布。如給定句子S=WWWkii=12表示單詞,其概率可表示為P(S)=P(WWWk)=P(W1)P(W2|W1)…P(Wk|WWWk-1) )語言模型的研究有著悠久的歷史,在近幾年來得到了快速發(fā)展,而語言模型的突破性進展離不開神經(jīng)網(wǎng)絡(luò)的進步。本節(jié)將從語言模型出發(fā),從傳統(tǒng)統(tǒng)計語言模型N?gram到基于神經(jīng)網(wǎng)絡(luò)的語言模型,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrentneural模型在神經(jīng)網(wǎng)絡(luò)的發(fā)展中具有重要作用重點分析了學(xué)者們在RNN模型上的探索和創(chuàng)新Transformer模型的誕生創(chuàng)造了許多技術(shù)前提在最后介紹了基于自注意力機制的Transformer模型。各典型模型主要創(chuàng)新和貢獻之處如表1所示。表1神經(jīng)網(wǎng)絡(luò)和語言模型發(fā)展歷程Table1Developmentofneuralnetworksandlanguagemodels模型N?gramRNNLM長短時記憶(Longshort?termmemory,LSTM)/門控循環(huán)單元(Gaterecurrentunit,GRU)Transformer

主要創(chuàng)新基于詞頻統(tǒng)計循環(huán)網(wǎng)絡(luò)結(jié)構(gòu)門控機制自注意力機制

主要貢獻提供基礎(chǔ)的統(tǒng)計語言模型建模長序列依賴的語言模型解決RNN梯度消失全局依賴建模,提升效率1.1 N?gram模型早期的語言模型主要基于統(tǒng)計方法,通過統(tǒng)計文本中不同單詞或字符的頻率來捕捉語言中的規(guī)律。為解決統(tǒng)計語言模型中參數(shù)空間巨大的問題N?gram基于馬爾科夫假設(shè),認為當前詞的出現(xiàn)僅與前n-1個詞相關(guān),通過統(tǒng)計文本中相鄰n個詞的頻率來估計每個詞出現(xiàn)的概率。N?gram數(shù)學(xué)表達所示,其中每個參數(shù)條件概率P(Wk|Wk-Wk-Wk-n+1)通過極大似然估計進行計算,如所示。P(S)=P(WWWk)=P(W1)P(W2|W1)…P(Wk|Wk-Wk-Wk-n+1) )P(W|W

)=count(WWk-Wk-Wk-n+1)

(3)k k-1

k-

k-n+

count

k-

k-

k-n+1)式中cout表示連續(xù)單詞片斷在語料中出現(xiàn)的總次數(shù)。N?gram語言模型的效果與超參數(shù)nn增大時,每個詞可依賴更多的上文信息,獲得更多的信息量,對未來的預(yù)測也會更加準確,然而過大的n會導(dǎo)致稀疏問題,即某些N?gram未在文本中出現(xiàn)過,使得通過極大似然估計得到的條件概率為0,從而導(dǎo)致模型計算出大部分句子的概率為0況不符3法被提出,一種解決方法是無論詞組出現(xiàn)的次數(shù)是多少,均將次數(shù)加1即可解決出現(xiàn)概率為0的情況,也稱為拉普拉斯平滑。此外,還有Good?TuringKneser?Ney平滑和Interpolation平滑等平滑。1.2 RNN模型隨著深度學(xué)習(xí)的興起,基于神經(jīng)網(wǎng)絡(luò)的語言模型(Neuralnetworkbasedlanguage逐漸替代了上述基于統(tǒng)計的語言模型。Bengio在2003年首次提出使用神經(jīng)網(wǎng)絡(luò)解決語言模型的問N?gram模型參數(shù)大和稀疏等問題。為了更好地捕捉上下文信息并建模詞之間的語義關(guān)系,NNLM引入了詞向量作為一種單詞表示,每個單詞都被映射為一個固定長度的詞向量,將離散的單詞轉(zhuǎn)化為連續(xù)的向量表示,可以對單詞的上下文信息進行有效的編碼和建模。NNLM的主要流程如使用one?hot表示前n-1入到使用tanh激活函數(shù)的隱藏層中計算,可產(chǎn)生富含上下文信息的向量,再將該向量輸入線性層中得到每個詞的預(yù)測得分,最終得分使用softmax計算后可得到每個詞的概率。NNLM的示意圖如圖1所示。NNLM模型使用前饋神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)決定了它只能利用有限的歷史上下文窗口來對下一個詞的概率分布進行建模。為解決Mikolov在2010年提出了一種基于RNN的語言模型,在處理序列數(shù)據(jù)時通過引入循環(huán)結(jié)構(gòu)來捕捉上下文信息夠更好地建模長距離的依賴關(guān)系提高了模型的性能。RNN是在網(wǎng)絡(luò)內(nèi)部建立循環(huán)連接,將當前時刻的輸入與前一時刻的隱藏狀態(tài)相關(guān)聯(lián),因此RNN可以將歷史信息傳遞至當前時刻,并在后續(xù)時刻繼續(xù)傳遞。然而在實際應(yīng)用中,過長的序列會導(dǎo)致在訓(xùn)練過程中由于梯度的連乘運算造成梯度爆炸或梯度消失問題用梯度下降訓(xùn)練RNN的長距離依賴十分

圖1NNLM示意圖Fig.1SchematicdiagramofNNLM。梯度裁剪是一種用于解決梯度爆炸問題的方案,在訓(xùn)練模型時設(shè)定一個閾值,將所有梯度的范數(shù)控制在該閾值以下以有效地解決梯度爆炸問題。然而,在處理梯度消失問題時,梯度裁剪方法并非是一種徹底的解決方案。為了從更深層次上應(yīng)對該問題RNN層的結(jié)構(gòu),例如加入記憶單元以及門控機制,實現(xiàn)對重要梯度信息的選擇性傳遞。典型的解決方案是LSTM和GRULSTM是Hochreiter等在1997年提出出門3個門。這些門通過對信息的選擇性保留和刪除LSTM能夠有效地學(xué)習(xí)和記憶長期依賴關(guān)系。GRU由Chung等在2014年提出,同樣能夠緩解RNN的長期依賴問題,它簡化了LSTM的結(jié)構(gòu),僅采用了更新門和重置門2個門。更新門決定了當前時刻的輸入和過去隱藏狀態(tài)之間的權(quán)重而進行信息的更新,而重置門則控制著過去隱藏狀態(tài)的遺忘程度。LSTM和GRU示意圖如圖23所1

i=t-1tt+表示i時刻輸入到RNN中的數(shù)據(jù)即當前時刻輸入的數(shù)據(jù)特征ii=t-t+表示i時刻RNNσ表示進行一個線性層運算后再通過sigmoid函數(shù)激活。圖2LSTM示意圖Fig.2SchematicdiagramofLSTM圖3GRU示意圖Fig.3SchematicdiagramofGRU隨著學(xué)者們不斷地對RNN進行研究和改進,使其可以更好地處理長序列任務(wù),極大地推進了RNN在序列建模上的發(fā)展。許多研究者致力于利用RNN處理各種序列建模問題并取得了良好的效果。與此同時,一些研究也嘗試在模型結(jié)構(gòu)上進行創(chuàng)新,以進一步加強RNN處理時間相關(guān)特征的能力。So?cher提出了RNTN模型并應(yīng)用于情感分類任務(wù),該模型在斯坦福情感標注樹庫上訓(xùn)練后可以在單句正負分類水平上提升5.4%,能夠比以往的模型更準確地捕捉否定詞的作用域。在文本生成任務(wù)中,Sutskever提出MRNN結(jié)構(gòu)并進行了字符級的文本生成,僅用較小的模型就實現(xiàn)了效果令人驚訝的語言模型,生成的樣本展現(xiàn)出豐富的詞匯和語法結(jié)構(gòu)。使用LSTM進行了復(fù)雜序列的生成該模型可以生成優(yōu)秀的維基百科數(shù)據(jù),甚至能夠合成出逼真的手寫樣本,證明了LSTM在生成任務(wù)上的強大能力。此外,也有一批學(xué)者完成了代碼、歌詞及詩歌等新穎的生成任務(wù),如Yang基于LSTM,使用無監(jiān)督方式訓(xùn)練出了可以在同一意象下生成不同風(fēng)格的詩詞模型。此外,在語音識別領(lǐng)域Graves1使用LSTM實現(xiàn)了端到端的語音識別到端的思想為后來的神經(jīng)網(wǎng)絡(luò)機器翻譯提供了啟發(fā)。隨后,一系列工作嘗試將RNN應(yīng)用于機器翻譯任務(wù)中,并推動深度學(xué)習(xí)的發(fā)展。Cho首次提出了使用RNN構(gòu)建Encoder?Decoder框架進行機器翻譯,這一建模思路開啟了機器翻譯的新方向,但該工作的翻譯流程還依賴規(guī)則提取和統(tǒng)計機器翻譯不算是完全端到端的神經(jīng)網(wǎng)絡(luò)機器翻譯系統(tǒng)。同年Sutskever2提出了Seq2Seq直接使用Encoder?Decoder框架端到端地訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)對此在Seq2Seq模型的基礎(chǔ)上,Bahdanau2引入了Attention機制,該機制允許RNN能夠根據(jù)當前狀態(tài)針對性地關(guān)注不同時刻的信息,顯著提升了模型對源語言詞匯進行動態(tài)翻譯的能力,實現(xiàn)了對齊學(xué)習(xí),使得翻譯可以Attention機制的設(shè)計也成為了后續(xù)研究的重點方向之一。盡管RNN在Seq2Seq模型上取得長足的進展,研究人員并未停止對模型結(jié)構(gòu)的探索和改進,考慮到RNN順序計算結(jié)構(gòu)的限制Gehring2在2017年提出了一種基于CNN的Seq2Seq模型結(jié)構(gòu),使用可擴張的卷積層結(jié)構(gòu),可以捕CNN并行計算的Seq2Seq模型也可以很好地建模長期依賴。此外,這也表明了Seq2Seq模型結(jié)構(gòu)可以脫離RNN框架,為Seq2Seq模型結(jié)構(gòu)提供了新的選擇和思考,隨后出現(xiàn)的Transformer模型也將Seq2Seq模型推向了一個新的階段。3 Transformer模型在Seq2Seq模型的發(fā)展過程中,研究者們探索了各種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),持續(xù)優(yōu)化其性能,但這些模型在計算路徑增長時都或多或少面臨著記憶衰退的困境,為徹底解決這一挑戰(zhàn),Vaswani等在前人工作啟發(fā)下于2017年提出了Transformer模型[7]。該模型是近年來取得重大突破的一種神經(jīng)網(wǎng)絡(luò)模型,采用Encoder?Decoder架構(gòu)并引入Self?attention機制,極大地提升了模型性能。其中Encoder部分Self?attention層和全連接層組成,可以并行計算捕獲序列的特征Decoder在此基礎(chǔ)上加入MaskedSelf?attention層實現(xiàn)僅關(guān)注前文部分進行語言模型的學(xué)習(xí)。此外Transformer通過位置編碼將位置信息融入到序列中來保存詞序信息。Transformer模型的架構(gòu)如圖4所示。Transformer模型的核心是Self?attention機制,該機制使得模型能夠關(guān)注輸入序列各個位置的信息。具體而言Self?attention機制通過將輸入序列映射為相同維度的查詢KeValu向量來實現(xiàn)。其中,Query用于計算當前位置與序列所有位置的相關(guān)程Key和Value則分別用于表示其他位置的信息。通過計算Query與Key的關(guān)系,并將其作為權(quán)重對Value向量進行加權(quán)求和就可以實現(xiàn)根據(jù)不同位置之間的重要性自適應(yīng)地整合信息,獲得全局上下文感知的表示。在該計算過程中,由于每個位置的計算只取決于序列中其他位置的表示及對應(yīng)的權(quán)重,即每個位置的表示是獨立計算的,故可以并行地對整個輸入序列的所有位置進行計算。Self?attention計算公式可以表示成式QKV分別表示序

圖4Transformer架構(gòu)圖Fig.4ArchitecturediagramofTransformer列的QueryKeyValue向量構(gòu)成的矩陣,dk表示向量映射后的維度。此外,多頭注意力是Transformer中的一種擴展機制,模型可以同時從不同的表示子空間學(xué)習(xí)到更豐富的特征表示,提升模型的表達能力和泛化能力,實現(xiàn)更好的性能[7]。dk,,(Attention(QKV)=softmax(QKT)Vdk,,(Transformer模型在句子級語言建模任務(wù)上表現(xiàn)優(yōu)異RNN的新標準。此外,得益于其可以高效利用計算資源進行并行訓(xùn)練,全注意力結(jié)構(gòu)也可以使其更輕松地捕捉全局依賴關(guān)系,為構(gòu)建更大規(guī)模的語言模型創(chuàng)造了優(yōu)越條件NLP領(lǐng)域中眾多任務(wù)的基礎(chǔ)。后續(xù)也相繼涌現(xiàn)出一批如GPT?1BERTGPT?2和GPT?3等基于Transformer的大語言模型。語義表示和預(yù)訓(xùn)練技術(shù)語義表示建模是指在NLP領(lǐng)域中通過算法模型來捕捉和理解文本中的語義信息,目標是將文本從表面層的詞匯和句法結(jié)構(gòu)轉(zhuǎn)化為更深層次的語義表示,以便計算機能夠更好地理解文本含義并進行相關(guān)任務(wù)。語義表示關(guān)鍵在于構(gòu)建能夠?qū)⑽谋巨D(zhuǎn)化為向量表示的模型,這些表示可以捕捉到詞匯、短語和句子之間的語義關(guān)系。研究者認識到直接在具體NLP任務(wù)的數(shù)據(jù)集上訓(xùn)練網(wǎng)絡(luò)模型局限性。近年來,隨著深度學(xué)習(xí)的發(fā)展和語料數(shù)據(jù)規(guī)模的增長,研究者們開始嘗試通過先在大規(guī)模語料上預(yù)訓(xùn)練網(wǎng)絡(luò)模型,讓模型學(xué)習(xí)豐富且統(tǒng)一的語義知識,并應(yīng)用于下游的具體任務(wù)中。預(yù)訓(xùn)練微調(diào)框架也成為當今NLP領(lǐng)域中的重要范式。本節(jié)將從傳統(tǒng)語義表示方法Word2Vec以及預(yù)訓(xùn)練語言模型3個方面詳細講述語義表示和預(yù)訓(xùn)練技術(shù)的發(fā)展脈絡(luò)。1 傳統(tǒng)語義表示早期的語義表示研究主要基于統(tǒng)計學(xué)和詞頻分析方法。這些技術(shù)依賴單詞之間的聯(lián)合頻率等統(tǒng)計信息揭示單詞之間的關(guān)聯(lián)模式,實現(xiàn)建模文本語義,代表性技術(shù)如下:詞頻?逆文本頻率Termfrequency?inversedocumentfrequencyTF?ID2。該技術(shù)通過計算單詞出現(xiàn)的頻率和逆向文檔頻率評估單詞在文本中的重要性。在互聯(lián)網(wǎng)普及之前據(jù)來源于圖書等紙質(zhì)文檔,為從眾多文檔中快速找到與查詢單詞相關(guān)的文檔,信息檢索系統(tǒng)需要對文檔進行數(shù)學(xué)表示,計算查詢與文檔之間的相關(guān)程度,TF?IDF因此被提出并納入使用。盡管其計算簡但TF?IDF存在稀疏性問題,對多義詞和同義詞的處理也較為困難,難以捕捉到單詞間的語義信息。因此pLSprobabilisticLatentsemanticanalysi2。LSLatentsemanticanalysi2是一種通過矩陣分解技術(shù)發(fā)現(xiàn)單詞間的潛在語義相關(guān)性的方法。LSA將文本轉(zhuǎn)換為矩陣,行和列分別表示為文(Singularvaluede?compositionSV,能夠?qū)⑽谋颈硎緸榈途S的向量空間模型,從而更好地處理單詞的多義性和歧義性問題。然而,在處理文本語義復(fù)雜性方面,LSA存在一定的局限性,且無法直接解釋主題的含義。pLSA是對LSA的改進,它假設(shè)文檔和單詞之間的生成過程受一組潛在的主題影響。在該方法中,文檔以來。通過引入概率模型,pLSA可以更好地解釋文本的生成過程。然而作為一種生成模型pLSA在生成新文檔時由于無法確定主題分布,就無法利用已學(xué)習(xí)的參數(shù)生成完整的新文檔,盡管可以通過生成詞語和多樣pLSA對數(shù)據(jù)的依賴較強,容易出現(xiàn)過擬合問題,這也限制了它被更廣泛地使用。LDLatentDirichletallocatio2。為了能夠在生成新文檔時更加準確靈活LDA作為一種更高級的語義表示技術(shù)被提出。與pLSALDA也是一個概率生成模型LDA使用了貝葉斯統(tǒng)計方法,為主題分布引入了Dirichlet先驗分布。通過采樣方法學(xué)習(xí)DirichletLDA可以挖掘單詞與主題之間的關(guān)系,使主題含義更加明確建模語義信息。在生成新文檔時,LDA也可以根據(jù)先驗分布采樣得到文檔的主題分布,根據(jù)主題分布再生成詞語,這樣獲得的新文檔更能反映真實的數(shù)據(jù)分布。這種生成過程也使LDA對數(shù)據(jù)的依賴較小,避免了過擬合問題,同時LDA也成為一種重要的概率主題模型于文本主題分析、信息檢索和推薦系統(tǒng)等領(lǐng)域。LDA示意圖如圖5M表示語料中文檔個數(shù);N表示當前文檔中單詞K表示總的主題數(shù),由用戶確定;φ表示當前主題的詞表β表示用戶設(shè)置的超參數(shù)φ的先驗分布參數(shù);θ表示當前文檔的主題分布;α表示用戶設(shè)置的超參數(shù)θ的先驗分布Z表示從分布θ中采樣出的一個主題W表示從分布φ中采樣出的單詞。

圖5LDA示意圖Fig.5SchematicdiagramofLDA上述統(tǒng)計語義表示方法為后續(xù)的發(fā)展奠定了基礎(chǔ),但這些方法在處理詞語的多義性、語義相關(guān)性等方面表示能力有限,在進一步提升語義表示能力上還面臨著挑戰(zhàn)。2.2 Word2Vec在深度學(xué)習(xí)技術(shù)不斷發(fā)展的背景下,不少研究者試圖使用神經(jīng)網(wǎng)絡(luò)實現(xiàn)語義表示建模,2013年由Google團隊提出的Word2Vec[27?28],標志著基于神經(jīng)網(wǎng)絡(luò)的詞向量表示方法的出現(xiàn),引發(fā)了NLP領(lǐng)域?qū)υ~嵌入的廣泛研究,推動了語義表示的快速發(fā)展。Word2Vec是一種用于學(xué)習(xí)詞嵌入的技術(shù),能夠?qū)卧~映射到低維連續(xù)向量空間中的向量表示,在NLP任務(wù)中具有很強的表達能力。Word2Vec主要包含兩種模型結(jié)構(gòu)CBOWContinuousbagof模型和Skip?Gram模型,它們通過在大規(guī)模語料上進行無監(jiān)督預(yù)訓(xùn)練富有語義信息的詞向量表示。具體來說,CBOW模型是根據(jù)目標詞的上下文單詞預(yù)測當前詞,Skip?Gram模型則是給定目標詞預(yù)測其上下文,兩種模型都是通過鄰近單詞的預(yù)測獲得詞向量的表示。Word2Vec兩種經(jīng)典結(jié)構(gòu)如圖6表示詞向量,與傳統(tǒng)詞袋模型表示不同,Word2Vec學(xué)習(xí)到的詞向量在向量空間中反映了單詞間的語義關(guān)系和上下問信息,語義相似的單詞通常在向量空間中距離較近,這些經(jīng)預(yù)訓(xùn)練學(xué)習(xí)到的詞向量表示可以被應(yīng)用于各種具體的NLP任務(wù)中[27?28]。

圖6Word2Vec示意圖Fig.6SchematicdiagramofWord2VecWord2Vec開創(chuàng)了基于神經(jīng)網(wǎng)絡(luò)的詞嵌入新方向NLP領(lǐng)域中對詞向量表示的廣泛研究續(xù)的預(yù)訓(xùn)練技術(shù)積累了經(jīng)驗。然而Word2Vec在提出時是一項重要的突破,但它在某些方面存在一些局限性。例如,由于Word2Vec將每個單詞表示成唯一的向量,無法處理詞匯的多義性問題,并且在處理語料庫中未出現(xiàn)過的新詞匯及出現(xiàn)頻率較低的單詞時也存在困難。此外Word2Vec主要關(guān)注單詞級別的語義關(guān)系而無法捕捉到短語或句子級別的語義關(guān)系。其次Word2Vec預(yù)訓(xùn)練后詞向量不可改變,無法充分適應(yīng)不同的下游任務(wù)。預(yù)訓(xùn)練語言模型的出現(xiàn)則為上述問題提供了一個更加全面的解決方案。3 預(yù)訓(xùn)練語言模型在發(fā)現(xiàn)Word2Vec通過神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)詞向量的優(yōu)勢后,研究者們開始考慮能否應(yīng)用神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)更全面的語言表示,于是使用語言模型進行預(yù)訓(xùn)練的思路被提出。2015Dai2提出語言模型預(yù)訓(xùn)練并遷移學(xué)習(xí)到下游任務(wù)的思想,該工作使用基于單向LSTM的神經(jīng)網(wǎng)絡(luò)模型,在未標注的文本語料上進行無監(jiān)督預(yù)訓(xùn)練得到語言模型,將預(yù)訓(xùn)練的語言模型作為固定的特征提取器,用于下游的監(jiān)督學(xué)習(xí)任務(wù)中,只通過微調(diào)輸出層處理具體的任務(wù)。這種由無監(jiān)督預(yù)訓(xùn)練帶來的先驗語言知識,在特定任務(wù)上進行監(jiān)督微調(diào)的方式,驗證了預(yù)訓(xùn)練語言模型的有效性。在Peters3提出更深層次的雙向LSTM結(jié)構(gòu)ELMo以進一步增強上下文的詞向量表示。ELMo在輸入層通過字符嵌入獲得字符級表示,進一步得到詞向量,基于雙向LSTM訓(xùn)練前向和后向兩個語言模型,并分別從兩個模型中提取特征向量,經(jīng)過一定的權(quán)重融合得到包含前后向信息的詞向量表示。值得注意的是ELMo的前向和后向LSTM分開訓(xùn)練,無法同時獲取完整的上下文信息,并非真正意義上的雙向。此外Word2Vec和GloVe等靜態(tài)詞嵌入方式不同ELMo的詞嵌入是上下文相關(guān)的,同一個詞在不同的上下文中可以有不同的嵌入,使得ELMo能夠捕獲詞義消歧、詞形變化等相對復(fù)雜的語言現(xiàn)象,在多個任務(wù)上都超過了先前的SOTA模型,進一步展示了使用預(yù)訓(xùn)練語言模型進行語義表示的巨大潛力。隨著研究者們對預(yù)訓(xùn)練語言模型進行的進一步的探索和改進Transformer模型在機器翻譯領(lǐng)域的啟發(fā),OpenAI于2018年提出了GPT3GPT在Transformer的基礎(chǔ)上進行改進,以專注于進行單向的語言模型預(yù)訓(xùn)練。受益于Transfomer的Self?attention機制和并行訓(xùn)練優(yōu)勢GPT與基于LSTM的預(yù)訓(xùn)練相比,能夠擁有更大的參數(shù)規(guī)模和更出色的語言理解能力,顯著提升了文本生成的質(zhì)量,在眾多數(shù)據(jù)集和任務(wù)中大幅度超過了SOTA。GPT模型證明了以Transformer為基礎(chǔ)的預(yù)訓(xùn)練?微調(diào)框架對于提升多種NLP任務(wù)非常有效,它的成功離不開Transformer處理長期依賴的優(yōu)勢模無監(jiān)督預(yù)訓(xùn)練帶來的語言理解的全面提升。GPT的單向設(shè)計雖然能夠降低預(yù)訓(xùn)練的難度,但人類對語言的理解往往是雙向進行的,Google也因此提出了雙向預(yù)訓(xùn)練的BERT(Bidirectionalencoderrepresentationsfromtransformers)模。BERT采用TransformerEncoder進行雙向的語言理解預(yù)訓(xùn)練,預(yù)訓(xùn)練任務(wù)是通過掩碼語言建模和句子關(guān)系檢測學(xué)習(xí)語言表示,能夠同時獲取單詞左側(cè)和右側(cè)的上下文信息,生成更全面的雙向特征表示。掩碼語言建模就是按照一定概率屏蔽輸入序列中的單詞,再預(yù)測被屏蔽掉的詞,句子關(guān)系檢測則是判斷兩個句子是否是同一含義。相較于單向的GPTBERT的雙向預(yù)訓(xùn)練可以獲取更豐富的上下文表示,但面臨著計算更復(fù)雜,對數(shù)據(jù)量和技巧也更敏感的問題,后續(xù)出現(xiàn)一批工作致力于提升BERT的訓(xùn)練穩(wěn)定性。BERT模型的預(yù)訓(xùn)練數(shù)據(jù)集包括Books約800M和Wikipedia(約2.5B2種規(guī)模的模型,其中Base模型包含12個Transformer層和110MLarge模型包含24個Transformer。增大模型規(guī)模和數(shù)據(jù)規(guī)模帶來的效果提升啟發(fā)OpenAI在2019年發(fā)布了GPT?2[33]。GPT?2是GPT系列基礎(chǔ)上的進一步發(fā)展,采用了更大的模型規(guī)模和更豐富的數(shù)據(jù)集進行預(yù)訓(xùn)練,其中最大規(guī)模GPT?2模型包含1542M參數(shù),預(yù)訓(xùn)練數(shù)據(jù)集為爬取自互聯(lián)網(wǎng)的高質(zhì)量文本數(shù)據(jù)集WebText(約40GB文本,規(guī)模增大的同時也增加了多樣性,使得GPT?2學(xué)習(xí)到更廣泛的語言知識和語境文本方面表現(xiàn)出更高的創(chuàng)造力和語言理解能力。GPT?2展示出了無需進行微調(diào)就可直接應(yīng)用于下游NLP任務(wù)的zero?shot能力,僅使用預(yù)訓(xùn)練參數(shù)就在閱讀理解和文本分類等任務(wù)上達到了不錯的效果,證明預(yù)訓(xùn)練語言模型提取語義特征的通用性。GPT?2通過訓(xùn)練4組不同規(guī)模和詞向量長度的模型7為不同規(guī)模GPT?2模型在不同zero?shot任務(wù)上的測試結(jié)果。伴隨著硬件的發(fā)展以及參數(shù)量對模型能力提升的啟發(fā)OpenAI研究團隊斥巨資在2020年發(fā)布GPT?3。與前代結(jié)構(gòu)相似,GPT?3在模型參數(shù)量上實現(xiàn)了飛躍,最大模型達到1750億參數(shù),是GPT?2的百倍以上,同時也使用了更大規(guī)模的數(shù)據(jù)集進行預(yù)訓(xùn)練,包含過濾后的CommonCrawl的WebText、基于互聯(lián)網(wǎng)的書籍語料庫和英文Wikipedia。超大規(guī)模的GPT?3在閱讀理解、翻譯和推理等任務(wù)上效果驚人,在生成任務(wù)上也能夠生成連貫的段落。然而在生成長文本時GPT?3存在諸多問生成不切實際甚至荒謬的建議等GTP?3在許多問題上不可控,難以滿足人類的需求。為解決這些學(xué)習(xí)和用戶反饋優(yōu)化模型與人類對齊,提升模型對指令的理解能力,使模型能夠輸出更符合人類期望的結(jié)果。圖7GPT?2在不同任務(wù)上的不同規(guī)模模型對比Fig.7ComparisonofdifferentscalemodelsofGPT?2ondifferenttasksInstructGPT和ChatGPTInstructGPT是OpenAI于2022年發(fā)布的基于GPT?3的語言模型,其目的是讓語言模型能夠更準確地執(zhí)行人類命令,生成符合人類期望的輸出。相比GPT?3追求模型規(guī)模的擴增,InstructGPT則更關(guān)注提升模型對指令的理解力。而ChatGPT的出現(xiàn)標志著超大規(guī)模語言模型成功落地到互動式對話領(lǐng)用的對話系統(tǒng)具有重要意義。作為兄弟模型ChatGPT在實現(xiàn)流程上與InstructGPT一致,由于官方未公布ChatGPT論文和其實現(xiàn)細節(jié),本節(jié)則在公開研究信息范圍內(nèi),通過InstructGPT采用的技術(shù)討論ChatGPT可能采用的提供語義理解和交互能力的相關(guān)技術(shù),其中監(jiān)督微調(diào)(Supervisedfine?tuning,可利用對話數(shù)據(jù)集進一步優(yōu)化預(yù)訓(xùn)練模型在對話任務(wù)上的表現(xiàn),基于人類反饋的強化學(xué)習(xí)(Rein?forcementlearningfromhumanfeedback,RLHF)能夠向模型注入人類偏好。ChatGPT流程如圖8。圖8ChatGPT訓(xùn)練流程Fig.8TrainingprocessofChatGPT1 監(jiān)督微調(diào)在獲得通用語言特征的基礎(chǔ)上InstructGPT以GPT?3系列的模型為基礎(chǔ),使用對話交互數(shù)據(jù)集對模型進行有監(jiān)督微調(diào),這是實現(xiàn)對話生成能力的關(guān)鍵一步。監(jiān)督微調(diào)使用真實的人機對話數(shù)據(jù),將預(yù)訓(xùn)練語言模型繼續(xù)針對人機對話這一具體任務(wù)進行更新優(yōu)化。OpenAI雇傭人工團隊對一個prompt數(shù)據(jù)集進行標注promptOpenAIAPI收集和OpenAI雇傭標注員撰寫prompt撰寫一系列的回復(fù)作為模型的期望輸出有監(jiān)督的數(shù)據(jù)集。其中prompt是指使用語言模型生成文本時為其提供的提示信息。使用標注好、有監(jiān)督的對話數(shù)據(jù)對GPT?3模型進行微調(diào),得到監(jiān)督微調(diào)SFT模型。在大量高質(zhì)量對話數(shù)據(jù)的驅(qū)動下,InstructGPT逐步學(xué)習(xí)到對話中的各種語法和語用規(guī)律知識,清晰把握人類交互對話的多種模式,能夠更。相比預(yù)訓(xùn)練獲得的通用語言特征,監(jiān)督微調(diào)提供了直接面向目標任務(wù)學(xué)習(xí)語等方面。在大量真實對話數(shù)據(jù)的驅(qū)動下,模型逐步習(xí)得對話的各種語法和語用模式。3.2 基于人類反饋強化學(xué)習(xí)強化學(xué)習(xí)是機器學(xué)習(xí)中一個重要分支,它不需要完整的監(jiān)督數(shù)據(jù),而是通過智能體與環(huán)境的相互作用來學(xué)習(xí)最優(yōu)策略,通常包含環(huán)境、智能體和獎勵3個要素。智能體會根據(jù)環(huán)境采取動作根據(jù)動作給予獎勵,智能體通過積累最大化獎勵學(xué)習(xí)最優(yōu)策略。在SFTInstructGPT采用了強化學(xué)習(xí)算法來進一步提升對話回復(fù)的質(zhì)量話方式對齊,需要訓(xùn)練一個能夠反應(yīng)人類期望并對回答進行評估的獎勵模型,這種強化學(xué)習(xí)包含了帶人工操作的獎勵,稱為RLHF。在RLHF過程中,需要先使用SFT模型生成回答的人工排序數(shù)據(jù)集訓(xùn)練獎勵模型。具體來說于從問題庫中挑選出的問題xSFT模型生成該問題的K個不同回答,人工地對這K個回答按照從好到壞的順序進行排序,利用排序結(jié)果來訓(xùn)練獎勵模型,即目標損失函數(shù)中包含了排序結(jié)果的信息,即最大化兩個回答之間的獎勵差距Closs(θ)=-C

Exy

y~DJln(σ(rθ(yw)-rθ(yl)))ù? ???

(5)2 (,,)KKC2表示從K個回答中任選兩個進行比較的可能數(shù)量yw表示對于問題x較好的回答;yt則是相對Krθ(yw)和rθ(yt)分別表示在參數(shù)θx和回答yw和ytD表示人類排序數(shù)據(jù)集。獎勵模型選擇對答案進行人工排序而不是人工評分的原因在于評分操作的主觀性較強,即使提供了規(guī)定的評分標準,對于相同的回答,不同的人也難以給出相同的評分,即給生成的文本直接評分是一件不容易衡量的工作,而對不同的答案進行好壞的排序相對容易得多。通過上述訓(xùn)練可以得到一個獎勵模型,能夠替代人類對SFT新的回答做出獎賞,這種獎勵模型包含著人類期望的對話交互質(zhì)量特征。最后ProximalpolicyoptimizationPP算法和獎勵模型不斷進行強化學(xué)習(xí)迭代,選擇擁有最高獎勵得分的模型即可認為得到擁有人類偏好的對話模型。在訓(xùn)練過程中PPO目標函數(shù)為???objective(?)=E(y)~DJrθ(y)-βln(πRL(y|x)/πSFT(y|x))ù+γEx~D [ln(πRL(x))]????πRL表示待學(xué)習(xí)的策略,初始設(shè)置為πSFTD?

pretrain

表示預(yù)訓(xùn)練分布;x表示PPO數(shù)據(jù)集中的prompt,?對于每個prompt,根據(jù)當前策略生成回復(fù)yx輸入上一步訓(xùn)練出的獎勵模型中計算分數(shù)訓(xùn)練使得最大化rθ(y。隨著模型不斷更新,PPO模型與SFT模型差異將逐漸變大,為防止二者輸出差異過大,在目標函數(shù)中加入了KL散度βln(πRL(y|x)/πSFT(y|x))。此外,預(yù)訓(xùn)練模型的目標?γEx~D

[ln(πRL(x))]被加入到目標函數(shù)中,避免模型只能對排序數(shù)據(jù)集產(chǎn)生較好結(jié)果而在通用NLP?任務(wù)中性能下降。?ChatGPT與InstructGPT訓(xùn)練流程一致,均采用了監(jiān)督學(xué)習(xí)和基于人類反饋強化學(xué)習(xí),主要區(qū)別可能在于訓(xùn)練時采用的語料,導(dǎo)致了模型用途上的差別。3 ChatGPT評估ChatGPT展現(xiàn)出的強大能力,引發(fā)了不少研究者開展對ChatGPT的評測,以更具體且準確地探究其性能。Qin針對ChatGPT零樣本學(xué)習(xí)能力進行評估20個涵蓋7個代表性任務(wù)的數(shù)據(jù)集上進行實驗分析,發(fā)現(xiàn)ChatGPT在多個任務(wù)上顯著優(yōu)于GPT?3.5等模型。其中在算數(shù)推理任務(wù)中ChatG?PT在6個數(shù)據(jù)集的測試上有5個性能優(yōu)于GPT?3.5ChatGPT在使用了ChainofThoughtCo3技術(shù)的對比中獲得更大提升,但在解決如序列標記等問題上仍存在挑戰(zhàn)。Zhong在GLUE上對ChatGPT進行評估,探究其語言理解能力。該工作發(fā)現(xiàn)ChatGPT能夠在推理任務(wù)上顯著優(yōu)于多個BERT準零樣本和少樣本CoT技術(shù)時ChatGPT整體性能提升5.1%和5.0%RoBERTa?larg4外絕大多數(shù)BERT族模型。Yang為探索ChatGPT在基于查詢的摘要等實際任務(wù)上的性能4個基準數(shù)據(jù)集上進行評估。實驗表明ChatGPT性能能夠與傳統(tǒng)微調(diào)方法相當,且在新聞領(lǐng)域的NEWTS數(shù)據(jù)集上ROUGE指標全面優(yōu)于傳統(tǒng)微調(diào)方法。中文通用大模型綜合性基準SuperCLUE[44]排行榜如圖9所示,可以看出作為榜單中最早發(fā)布的模ChatGP即GPT?3.5?turb綜合性能仍能夠排行前列。圖9SuperCLUE7月榜單Fig.9RankingofSuperCLUEinJulyChatGPT的優(yōu)劣與應(yīng)用鑒于ChatGPT的火爆帶來的巨大關(guān)注,對其進行客觀理性的分析評估尤為重要。本節(jié)將從多個角度剖析ChatGPT的長處與不足,既要看到ChatGPT等大模型帶來的機遇,也要明確它存在的局限性與風(fēng)險[45],還需要審慎考慮ChatGPT的應(yīng)用場景與注意事項,以推動該技術(shù)的健康發(fā)展。1 優(yōu)勢ChatGPT作為新興的預(yù)訓(xùn)練語言模型對話系統(tǒng),能夠理解自然語言并進行問答。主要優(yōu)勢如下:強大的語言處理能力:ChatGPT擁有接近人類的語言理解和生成能力面均達到較高水平,能夠與用戶進行邏輯清晰且上下文協(xié)調(diào)的多輪對話。便捷的交互方式:ChatGPT采用對話方式與用戶進行交互,自動化程度高,用戶可在任意時間和地點對其進行訪問,且ChatGPT能夠及時響應(yīng)用戶,方便用戶解決問題、獲取信息。廣博的知識覆蓋:ChatGPT型能夠從上述預(yù)料中學(xué)習(xí)到豐富的知識。因此,用戶能夠在較大范圍中查詢到自身所需的知識。高度的智能化程度:ChatGPT能夠模擬人類智能,進行復(fù)雜的語義理解、邏輯推理和知識應(yīng)AI系統(tǒng)更加智能。2 劣勢在充分肯定ChatGPT優(yōu)勢與價值的同時,也應(yīng)正視其存在的缺陷和不足,防止利用不當造成危害。ChatGPT的劣勢主要如下:幻覺與可靠性問題:ChatGPT生成問題的真實性和可靠性難以保證,會生成虛假信息或?qū)χR盲區(qū)進行貌似合理的錯誤回答。Guo通過構(gòu)建人類專家和ChatGPT的回答對比數(shù)據(jù)集HC3,并發(fā)現(xiàn)ChatGPT有時會捏造事實來回答問題。隱私泄露風(fēng)險:為進一步更新模型并提升性能,OpenAI將會在用戶與模型的交互中收集用戶信息來改進模型,用戶與模型的交互信息可能會被記錄至數(shù)據(jù)庫中,導(dǎo)致用戶的隱私信息泄露。偏見、敏感及有害的言論:ChatGPT可能會生成帶有偏見、敏感性和有害內(nèi)容,在錯誤引導(dǎo)下會放大訓(xùn)練數(shù)據(jù)中的有害信息,生成不當內(nèi)容。Deshpande對ChatGPT生成的語言進行了大規(guī)模且系統(tǒng)的毒性分析。結(jié)果表明ChatGPT弱勢群體時尤為嚴重。邏輯推理能力較弱:ChatGPT擁有推理能力,然而在面對復(fù)雜邏輯推理或模糊問題時,ChatG?PT可能無法準確理解或進行推理。Liu分別在傳統(tǒng)基準和新發(fā)布的基準上對ChatGPT進行邏輯推理能力存在缺陷。部署困難:作為千億參數(shù)級別的大模型,ChatGPT的開發(fā)、運行耗費資源極大,訓(xùn)練和部署需要大規(guī)模算力支持,難以按照個人需求部署私人助理和垂直領(lǐng)域應(yīng)用。因此,后續(xù)出現(xiàn)的大語言模型研究也將重心放在了縮小模型和降低模型部署成本上。3 應(yīng)用場景在對ChatGPT技術(shù)和優(yōu)劣勢分析后,需要通過其應(yīng)用場景的合理設(shè)計來發(fā)揮其應(yīng)用價值,并防范其負面危害。下面介紹ChatGPT典型應(yīng)用情況,旨在推進其合理利用。內(nèi)容輔助創(chuàng)作:用戶可利用ChatGPT輔助完成各種內(nèi)容的生成ChatGPT可根據(jù)要求快速生成文章草稿ChatGPT能夠為學(xué)生提供個性化學(xué)習(xí)反饋,自動生成總結(jié)等,為教育和學(xué)習(xí)提供便利。但由于ChatGPT有時會捏造事實,因此需要用戶對其內(nèi)容進行審查和篩選。ChatGPT可用來自動響應(yīng)用戶查詢,即充當智能客服機器人,根據(jù)用戶問題做出指導(dǎo)和解答。如使用ChatGPT等大模型替代企業(yè)中的人工客服,并能夠根據(jù)用戶反饋及時響應(yīng),較傳統(tǒng)客服機器人更加智能,能夠更高程度地解決用戶問題并降低企業(yè)成本。但需要對其回復(fù)進行指導(dǎo)和監(jiān)ChatGPT可充當私人智能助理,協(xié)助生活。如用戶可通過將需求告知模型,并按照給定要求完成日程規(guī)劃、進行信息查詢等功能,但需注意個人隱私安全。ChatGPT豐富的知識面可用于檢索需要的信息金融領(lǐng)域內(nèi)分析市場走勢并提供建議供健康咨詢,或輔助醫(yī)生提高診斷效率。由于ChatGPT存在的幻覺問題,需要注意在使用時對其內(nèi)容進行判斷。值得一提的是,Park5利用ChatGPT構(gòu)建了模擬人類真實生活的AI小鎮(zhèn)。其中該工作提出了互的記憶系統(tǒng)。該工作推動了AI智能體的發(fā)展和人們對大模型潛在應(yīng)用場景的探索發(fā)了廣泛討論。得益于其優(yōu)越性能,ChatGPT為人們提供了許多便利,但它帶來的問題不可忽視。加強對ChatG?PT的管控必不可少,需避免ChatGPT等大模型的不當使用產(chǎn)生虛假信息,造成虛假信息和欺詐信息泛濫。同時要加強對用戶信息的隱私保護,防止用戶敏感信息泄露。此外,ChatGPT易產(chǎn)生有害信息和幻覺問題也值得關(guān)注,如何減少ChatGPT等大模型生成有害、歧視信息,以及如何提升大模型生成內(nèi)容的準確性,將是大模型發(fā)展道路上的重要挑戰(zhàn)。開源大模型ChatGPT的成功引發(fā)了一波大語言模型的浪潮,研究者和企業(yè)爭先開發(fā)自己的模型,其中不少參與者也將模型進行開源供學(xué)術(shù)研究。這些開源大模型推動著大語言模型的研究進程,使大語言模型在幾個月內(nèi)得到了飛速發(fā)展。本節(jié)將簡要介紹在ChatGPT發(fā)布后國內(nèi)外研發(fā)的部分開源大模型。1 LLaMA模型是MetaAI在2023年2月提出的一個系列模型,旨在為研究者們提供高質(zhì)量的預(yù)訓(xùn)練語言模型,被譽為最強大的開源大模型。LLaMA包括了參數(shù)量7B13B33B和65B的4個版本,并僅在可公開使用的數(shù)據(jù)上進行了訓(xùn)練13B版本的模型性能就超過了GPT?3。LLaMA進行訓(xùn)練的數(shù)據(jù)集包含了CommonCrawlC4GithubGutenberg公共領(lǐng)域書籍、Books3Arxiv學(xué)術(shù)論文和StackExchange問答數(shù)據(jù),整個數(shù)據(jù)集約包含1.4萬億tokens。LLaMA使用全Transformer架構(gòu)并進行了一定的改進,如使用預(yù)規(guī)范化提高模型的穩(wěn)定性,使用SwiGLU激活函數(shù)代替了ReLU,采用旋轉(zhuǎn)位置編碼代替原文的絕對位置編碼。此外LLaMA在實現(xiàn)上也進行了一些優(yōu)化因果自注意力計算減少了內(nèi)存用量和運行時間Transformer層的反向傳播減少重復(fù)計算等。由于LLaMA模型的開源特性和優(yōu)越效果LLaMA模型的工作也涌現(xiàn)出來。2023年7月18MetaAI重磅發(fā)布LLaMA5以釋放大語言模型的力量。LLaMA2不僅面向研究領(lǐng)域開放,還可直接商用,推動了大模型的進一步開放。LLaMA2模型包含7B13B和70B參數(shù)版本,訓(xùn)練仍使用公開的在線數(shù)據(jù)約2萬億token,數(shù)據(jù)量比上一代增加40%,上下文長度也直接翻倍。在推理、編碼、精通性和知識測試等外部基準測試任務(wù)上優(yōu)于其他開源模型,與閉源模型性能相比,LLaMA270B版本也能夠與540BPaLM持平或更優(yōu),但與GPT?4仍差距較大5MetaAI同時發(fā)布微調(diào)后的LLaMA2?Chat,使用監(jiān)督微調(diào)和RLHF在LLaMA2上進行訓(xùn)練,其中使用

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論