![GPT-4正式發(fā)布,具備多模態(tài)和超越上一代的專業(yè)學(xué)術(shù)能力_第1頁](http://file4.renrendoc.com/view/c92792560a9a8a1eb4b3ac1a0984fb1d/c92792560a9a8a1eb4b3ac1a0984fb1d1.gif)
![GPT-4正式發(fā)布,具備多模態(tài)和超越上一代的專業(yè)學(xué)術(shù)能力_第2頁](http://file4.renrendoc.com/view/c92792560a9a8a1eb4b3ac1a0984fb1d/c92792560a9a8a1eb4b3ac1a0984fb1d2.gif)
![GPT-4正式發(fā)布,具備多模態(tài)和超越上一代的專業(yè)學(xué)術(shù)能力_第3頁](http://file4.renrendoc.com/view/c92792560a9a8a1eb4b3ac1a0984fb1d/c92792560a9a8a1eb4b3ac1a0984fb1d3.gif)
![GPT-4正式發(fā)布,具備多模態(tài)和超越上一代的專業(yè)學(xué)術(shù)能力_第4頁](http://file4.renrendoc.com/view/c92792560a9a8a1eb4b3ac1a0984fb1d/c92792560a9a8a1eb4b3ac1a0984fb1d4.gif)
![GPT-4正式發(fā)布,具備多模態(tài)和超越上一代的專業(yè)學(xué)術(shù)能力_第5頁](http://file4.renrendoc.com/view/c92792560a9a8a1eb4b3ac1a0984fb1d/c92792560a9a8a1eb4b3ac1a0984fb1d5.gif)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
OpenAI:
我們剛剛發(fā)布了GPT-4,這是OpenAI在擴(kuò)大深度學(xué)習(xí)方面的最新里程碑。1)GPT-4是一個(gè)大型的多模態(tài)模型(接受圖像和文本輸入,發(fā)出文本輸出),雖然在許多現(xiàn)實(shí)世界的場景中能力不如人類。2)但GPT-4在各種專業(yè)和學(xué)術(shù)基準(zhǔn)上表現(xiàn)出人類水平的表現(xiàn)。例如它通過了模擬的律師考試,分?jǐn)?shù)在應(yīng)試者的前10%;相比之下GPT-3.5的分?jǐn)?shù)則在后10%左右。我們花了6個(gè)月的時(shí)間,利用我們對抗學(xué)習(xí)和來自ChatGPT的經(jīng)驗(yàn)反復(fù)調(diào)整GPT-4,結(jié)果在事實(shí)性、可引導(dǎo)性以及合規(guī)性取得了有史以來最好的結(jié)果(盡管遠(yuǎn)非完美)。在過去的兩年里,我們重建了整個(gè)深度學(xué)習(xí)堆棧,并與Azure一起,為我們的工作負(fù)荷從頭開始共同設(shè)計(jì)了一臺超級計(jì)算機(jī)。一年前,我們訓(xùn)練了GPT-3.5作為系統(tǒng)的第一次"試運(yùn)行"。我們發(fā)現(xiàn)并修復(fù)了一些錯(cuò)誤,并改進(jìn)了我們的理論基礎(chǔ)。因此,我們的GPT-4訓(xùn)練運(yùn)行(至少對我們來說是如此!)前所未有的穩(wěn)定,成為我們第一個(gè)訓(xùn)練性能能夠提前準(zhǔn)確預(yù)測的大型模型。隨著我們繼續(xù)專注于可靠的擴(kuò)展,我們的目標(biāo)是磨練我們的方法,以幫助我們越來越提前地預(yù)測和準(zhǔn)備未來的能力--我們認(rèn)為這對安全至關(guān)重要。我們正在通過ChatGPT和API發(fā)布GPT-4的文本輸入功能。為了準(zhǔn)備更廣泛地提供圖像輸入功能,我們正在與一個(gè)合作伙伴緊密合作,以開始。我們還在開源OpenAIEvals,這是我們自動評估人工智能模型性能的框架,允許任何人報(bào)告我們模型中的缺點(diǎn),以幫助指導(dǎo)進(jìn)一步的改進(jìn)。GPT4與上一代GPT3.5在不同考試中的分?jǐn)?shù)對比展望-圖像輸入:GPT-4可以接受文本和圖像的提示,這與純文本平行,讓用戶指定任何視覺或語言任務(wù)。具體來說,它可以生成文本輸出(自然語言、代碼等),給定的輸入包括穿插的文本和圖像。在一系列的領(lǐng)域中,包括帶有文字和照片的文件、圖表或屏幕截圖,GPT-4表現(xiàn)出與純文本輸入類似的能力。此外,它還可以使用為純文本語言模型開發(fā)的測試時(shí)間技術(shù),包括少數(shù)幾個(gè)鏡頭和思維鏈提示。目前圖像輸入仍然是沒有公開提供的一個(gè)研究方向。AI的可引導(dǎo)性:我們一直在努力實(shí)現(xiàn)我們在定義人工智能行為的文章中概述的計(jì)劃的各個(gè)方面,包括可引導(dǎo)性。與經(jīng)典的ChatGPT個(gè)性的固定言語、語氣和風(fēng)格不同,開發(fā)者(以及很快ChatGPT用戶)現(xiàn)在可以通過在"系統(tǒng)"消息中描述這些方向來規(guī)定他們的AI的風(fēng)格和任務(wù)。系統(tǒng)消息允許API用戶在范圍內(nèi)大幅定制他們的用戶體驗(yàn)。我們將繼續(xù)在這里進(jìn)行改進(jìn),但我們鼓勵你嘗試并讓我們知道你的想法。GPT4的局限性:盡管有這樣的能力,GPT-4也有與早期GPT模型類似的局限性。最重要的是,它仍然不是完全可靠的(它對事實(shí)產(chǎn)生"幻覺",并出現(xiàn)推理錯(cuò)誤)。在使用語言模型的輸出時(shí),特別是在高風(fēng)險(xiǎn)的情況下,應(yīng)該非常小心,準(zhǔn)確的協(xié)議(如人類審查,用額外的背景接地,或完全避免高風(fēng)險(xiǎn)的使用)與特定的使用案例的需求相匹配。雖然仍然是一個(gè)真實(shí)的問題,但相對于以前的模型(這些模型本身也在不斷改進(jìn)),GPT-4大大減少了幻覺。在我們的內(nèi)部對抗性事實(shí)性評估中,GPT-4的得分比我們最新的GPT-3.5高40%。TruthfulQA等外部評測:該基準(zhǔn)測試了模型從對抗性選擇的不正確陳述中分離事實(shí)的能力。這些問題與在統(tǒng)計(jì)學(xué)上具有吸引力的事實(shí)錯(cuò)誤答案配對。GPT-4基礎(chǔ)模型在這項(xiàng)任務(wù)上只比GPT-3.5略勝一籌;然而在RLHF后訓(xùn)練(應(yīng)用我們對GPT-3.5使用的相同過程)之后,存在很大差距。他的模型在輸出時(shí)可能會有各種偏差--我們在這些方面已經(jīng)取得了進(jìn)展,但仍有更多工作要做。根據(jù)我們最近的博文,我們的目標(biāo)是使我們建立的人工智能系統(tǒng)具有合理的默認(rèn)行為,以反映廣泛的用戶價(jià)值觀,允許這些系統(tǒng)在廣泛的范圍內(nèi)進(jìn)行定制,并獲得公眾對這些范圍的意見。GPT-4通常缺乏對其絕大部分?jǐn)?shù)據(jù)截止后(2021年9月)發(fā)生的事件的了解,也不會從其經(jīng)驗(yàn)中學(xué)習(xí)。它有時(shí)會犯一些簡單的推理錯(cuò)誤,這似乎與這么多領(lǐng)域的能力不相符,或者過于輕信用戶的明顯虛假陳述。有時(shí)它也會像人類一樣在困難的問題上失敗,例如在它產(chǎn)生的代碼中引入安全漏洞。GPT-4也可能在預(yù)測中自信地犯錯(cuò),在它可能犯錯(cuò)的時(shí)候不注意反復(fù)檢查工作。有趣的是,基礎(chǔ)的預(yù)訓(xùn)練模型是高度校準(zhǔn)的(它對答案的預(yù)測信心一般與正確的概率相匹配)。然而,通過我們目前的后訓(xùn)練過程,校準(zhǔn)程度降低了??偟膩碚f,我們的模型級干預(yù)措施增加了誘發(fā)不良行為的難度,但這樣做仍然是可能的。此外,仍然存在"越獄"的情況,以產(chǎn)生違反我們使用指南的內(nèi)容。隨著人工智能系統(tǒng)的"每個(gè)令牌的風(fēng)險(xiǎn)"的增加,在這些干預(yù)措施中實(shí)現(xiàn)極高的可靠性將變得至關(guān)重要;目前,重要的是用部署時(shí)間的安全技術(shù)來補(bǔ)充這些限制,如監(jiān)測濫用。GPT-4和后續(xù)模型有可能以有益和有害的方式大大影響社會。我們正在與外部研究人員合作,以改善我們對潛在影響的理解和評估,以及建立對未來系統(tǒng)中可能出現(xiàn)的危險(xiǎn)能力的評估。我們將很快分享我們對GPT-4和其他人工智能系統(tǒng)的潛在社會和經(jīng)濟(jì)影響的更多思考。API和費(fèi)用:要獲得GPT-4API(請?jiān)谖覀兊牡却麊紊献浴N覀儗慕裉扉_始邀請一些開發(fā)者,并逐步擴(kuò)大規(guī)模,以平衡容量與需求。如果你是研究人工智能的社會影響或人工智能對接問題的研究人員,你也可以通過我們的研究人員訪問計(jì)劃申請補(bǔ)貼的訪問。一旦你有了訪問權(quán),你就可以向gpt-4模型提出純文本請求(圖像輸入仍處于有限的測試階段),隨著時(shí)間的推移,我們會自動更新到我們推薦的穩(wěn)定模型(你可以通過調(diào)用gpt-4-0314來鎖定當(dāng)前版本,我們將支持到6月14日)。定價(jià)為每1000promttoken0.03美元,每1000completiontoken0.06美元。默認(rèn)的速率限制是每分鐘40k代幣和每分鐘200個(gè)請求。GPT-4的上下文長度限制為8,192個(gè)token。我們還提供支持32,768個(gè)token(約50頁文本)版本的有限訪問,gpt-4-32k,它也將隨著時(shí)間的推移自動更新(當(dāng)前版本gpt-4-32k-0314,也支持到6月14日)。價(jià)格是每1000prompttoken0.06美元,每1000completiontokens.0.12美元。我們?nèi)栽诟倪M(jìn)長上下文的模型質(zhì)量,并希望得到關(guān)于它在你的使用案例中的表現(xiàn)的反饋。我們正在根據(jù)容量以不同的速度處理對8K和32K引擎的請求。投資建議:我們認(rèn)為隨著GPT4的重磅發(fā)布,相關(guān)多模態(tài)大模型的垂直領(lǐng)域應(yīng)用或?qū)⑦M(jìn)一步得到開發(fā),多模態(tài)大模型相關(guān)的應(yīng)用場景將伴隨大模型能力的提升和成本降低逐步普及,美股建議關(guān)注:【微軟】(Office目前擁有接近4億的用戶,收購OpenAI后OfficeARPU提升與Azure云相關(guān)業(yè)務(wù)有望貢獻(xiàn)增量收入)、【英偉達(dá)、臺積電】等半導(dǎo)體公司(搜索和相關(guān)AIGC內(nèi)容創(chuàng)作對GPU相關(guān)資本開支的拉動將提升半導(dǎo)體行業(yè)收入與業(yè)績)。我們推薦關(guān)注多模態(tài)大模型的應(yīng)用場景如:1)客服聊天機(jī)器人:技術(shù)加成下提升大數(shù)據(jù)分析和互動能力,多模態(tài)應(yīng)用對多種內(nèi)容形式快速反應(yīng),海外建議關(guān)注【谷歌】【SNAP】【Twilio】,國內(nèi)建議關(guān)注【神州泰岳】【焦點(diǎn)科技】【宏景科技】【神州數(shù)碼】2)信息搜索與內(nèi)容檢索:信息檢索效率大幅提升,檢索范圍覆蓋面更廣,海外建議關(guān)注【微軟】【ShiftPixy】,國內(nèi)建議關(guān)注【三六零】【昆侖萬維】3)商品與內(nèi)容推薦:海外建議關(guān)注【Jasper】【Shopify】,國內(nèi)建議關(guān)注【順網(wǎng)科技】【藍(lán)色光標(biāo)】【三人行】【值得買】【浙文互聯(lián)】【中文在線】4)虛擬數(shù)字人:虛擬人垂類應(yīng)用場景有望拓寬,海外建議關(guān)注【微美全息】【Unity】,國內(nèi)建議關(guān)注【芒果超媒】【湯姆貓】【藍(lán)色光標(biāo)】【中文在線】【風(fēng)語筑】【捷成股份】【奧飛娛樂】【遙望科技】5)教育:推動個(gè)性化、差異化教育發(fā)展,海外建議關(guān)注【Quizlet】【Speak】【Coursera】【Duolingual】,國內(nèi)建議關(guān)注【科大訊飛】【漢王科技】【傳智教育】6)游戲設(shè)計(jì):驅(qū)動原畫設(shè)計(jì)、社交玩法創(chuàng)新,海外建議關(guān)注【Unity】【Roblox】,國內(nèi)建議關(guān)注【網(wǎng)易】【完美世界】ChatGPT每日產(chǎn)業(yè)新聞點(diǎn)評0315更新:重磅!GPT-4正式發(fā)布,具備多模態(tài)和超越上一代的專業(yè)學(xué)術(shù)能力,谷歌開放人工智能語言模型PaLMAPIGPT-4是OpenAI在擴(kuò)大深度學(xué)習(xí)方面的最新里程碑。1)GPT-4是一個(gè)大型的多模態(tài)模型(接受圖像和文本輸入,發(fā)出文本輸出),雖然在許多現(xiàn)實(shí)世界的場景中能力不如人類。2)但GPT-4在各種專業(yè)和學(xué)術(shù)基準(zhǔn)上表現(xiàn)出人類水平的表現(xiàn)。GPT-4在事實(shí)性、可引導(dǎo)性以及合規(guī)性取得了有史以來最好的結(jié)果,并成為OpenAI第一個(gè)能夠提前準(zhǔn)確預(yù)測訓(xùn)練的大模型。此外谷歌公司今日宣布開放其PaLMAPI,讓開發(fā)者能夠使用其最先進(jìn)的AI語言模型之一:PaLM。該公司還推出了一些人工智能企業(yè)工具,稱將幫助企業(yè)“通過簡單的自然語言提示生成文本、圖像、代碼、視頻、音頻等多種內(nèi)容”。0313更新:多模態(tài)大模型GPT4本周或?qū)l(fā)布,百度文心大模型3月16日上線微軟多模態(tài)大模型GPT-4或?qū)⒃诒局馨l(fā)布,微軟德國首席技術(shù)官AndreasBraun在線下活動中表示多模態(tài)大模型GPT-4即將在本周發(fā)布,將提供完全不同的可能性并且適用于所有語言,而微軟在過去一周左右接連發(fā)布了展示多模態(tài)的語言大模型論文Kosmos-1和VisualChatGPT,此前微軟一直在測試和調(diào)整來自O(shè)penAI的多模態(tài)模型,而國內(nèi)AI巨頭百度也計(jì)劃于3月16日14時(shí)發(fā)布類ChatGPT產(chǎn)品文心一言,相關(guān)多模態(tài)大模型的垂直領(lǐng)域應(yīng)用或?qū)⑦M(jìn)一步得到開發(fā)。正如我們GPT4展望報(bào)告中提及的GPT4十大猜想,GPT4未來可能會是多模態(tài)的具有思維鏈推理能力的大模型,標(biāo)志著AI的智能涌現(xiàn)速度超越ScalingLaw的提升速度,生成式AI時(shí)代全要素生產(chǎn)率或可以重新加速上升。0307更新:微軟操作系統(tǒng)Windows11宣布加入更多人工智能體驗(yàn)微軟Windows系統(tǒng)和硬件總負(fù)責(zé)人PanosPanay在CES2023曾說過:“AI將徹底改變你在Windows上做任何事情的方式”,并透露微軟正打造模糊云端和邊緣界限、集成大量AI技術(shù)的全新操作系統(tǒng)。3月7日微軟宣布Windows11將加入更多人工智能體驗(yàn),如1)AI視頻通話:眼神接觸(EyeContact)、背景效果(BackgroundBlur)、自動取景(AutomaticFraming)和語音焦點(diǎn)(VoiceFocus)等功能將增強(qiáng)用戶體驗(yàn);2)語音訪問應(yīng)用:用戶在Windows11上中處理Word文檔、在文件資源管理器中管理文件等;3)開始菜單提供人工智能驅(qū)動的推薦內(nèi)容來個(gè)性化用戶的體驗(yàn)。我們預(yù)計(jì)微軟或?qū)⒙?lián)合OpenAI的大語言模型更新現(xiàn)有的操作系統(tǒng)功能體驗(yàn)如文件搜索、郵件、助手等,而網(wǎng)傳2024年發(fā)布的全新一代Windows或?qū)@AI和大預(yù)言模型展開新一代操作系統(tǒng)的交互革命。0303更新:馬斯克推特宣布或組建AI實(shí)驗(yàn)室BasedAI,Dojo訓(xùn)練集群已開始訓(xùn)練大語言模型。宏圖3發(fā)布會上首次提及Dojo已開始訓(xùn)練LLM,此前馬斯克在推特上宣布開始招攬前DeepMind員工成立BasedAI實(shí)驗(yàn)室,開發(fā)OpenAI聊天機(jī)器人ChatGPT替代品事宜。我們認(rèn)為特斯拉在
real-worldAI(自動駕駛、TeslaBot)方向的領(lǐng)先程度毋庸置疑,開發(fā)ChatGPT相關(guān)替代品可能與推特有關(guān)。我們認(rèn)為其他科技互聯(lián)網(wǎng)大廠如谷歌、Meta、蘋果將持續(xù)在此領(lǐng)域投入并追求ChatGPT產(chǎn)品能力的復(fù)現(xiàn),相關(guān)競品的發(fā)布時(shí)間或?qū)⑻崆啊?302更新:OpenAI宣布ChatGPT開放API,且價(jià)格為上一代版本1/10,全行業(yè)ChatGPT時(shí)代即將到來!2023年3月2日,OpenAI宣布開放ChatGPTAPI,且價(jià)格僅為上一代版本1/10,意味著ChatGPT將可以賦能千行百業(yè)。Snap、Shopify公司已經(jīng)接入。我們認(rèn)為AIGC的核心定律在于1)每年深度學(xué)習(xí)成本降低60%,模型能力提升40%以上2)新技術(shù)遵循巴斯模型的S曲線快速滲透。新一代生成式AI革命將迅速推動產(chǎn)業(yè)快速增長,關(guān)注應(yīng)用場景!ChatGPT相關(guān)事件時(shí)間軸ChatGPT相關(guān)重要節(jié)點(diǎn)梳理公司事件時(shí)間重要性微軟代碼助手Copilot發(fā)布正式版2022年6月AIGC產(chǎn)品開啟商業(yè)化微軟ChatGPT正式發(fā)布2022年11月具有劃時(shí)代意義的對話工具誕生微軟ChatGPT結(jié)合的搜索引擎Bing發(fā)布2023年2月ChatGPT或?qū)⒁l(fā)搜索引擎行業(yè)的革命微軟ChatGPT開放API接口2023年3月成本僅為上一代產(chǎn)品的1/10展望2023年谷歌谷歌I/O開發(fā)者大會2023年5月公布對抗ChatGPT的產(chǎn)品細(xì)節(jié)微軟微軟Build2023開發(fā)者大會2023年5月公布ChatGPT應(yīng)用場景蘋果蘋果WWDC大會2023年6月3D內(nèi)容生態(tài)和相關(guān)AI建造工具蘋果蘋果MR發(fā)布2023年上半年全新的硬件場景微軟OpenAIGPT4模型發(fā)布2023年上半年參數(shù)和跨模態(tài)能力或?qū)⒂瓉盹@著提升谷歌Anthropic的對標(biāo)產(chǎn)品Claude發(fā)布未知OpenAI前員工創(chuàng)立的團(tuán)隊(duì)GPT4十大猜想1)GPT4.0未來可能會是多模態(tài)的具有思維鏈推理能力的大模型,標(biāo)志著AI的智能涌現(xiàn)速度超越ScalingLaw的提升速度。PC是人類思維的“自行車”(SteveJobs),而生成式AI可能會是人類思維的“Copilot/大副”。全要素生產(chǎn)率在PC時(shí)代飛速增長,在互聯(lián)網(wǎng)普及后(2005-2022)增長緩慢,生成式AI時(shí)代全要素生產(chǎn)率或可以重新加速上升。2)生成式AI時(shí)代的技術(shù)基礎(chǔ)不僅是深度學(xué)習(xí)的基礎(chǔ)模型/大模型(FoundationModel),也或許會包括神經(jīng)計(jì)算科學(xué)與符號推理的更多貢獻(xiàn)。3)大模型/并行計(jì)算最重要的應(yīng)用應(yīng)該包括AGI通用人工智能(OpenAI)、合成生物學(xué)(AlphaFold)、可控核聚變(DeepMind)、科學(xué)計(jì)算與模擬仿真(NVidia,需要并行計(jì)算,但也將大模型加速)。經(jīng)典的經(jīng)濟(jì)增長模型(索洛模型)盡管預(yù)設(shè)了勞動力和資本在經(jīng)濟(jì)增長中可以互相取代,但是也假設(shè)了勞動力按照實(shí)物生產(chǎn)力付酬與勞動力按照人口增長模型限制。如果AGI的勞動力出現(xiàn),經(jīng)濟(jì)增長的假設(shè)或可更新。4)算力重要的將是軟件棧上的硬件優(yōu)化,模型重要的將是數(shù)據(jù)集上的算法工程優(yōu)化,應(yīng)用重要的是數(shù)據(jù)采集應(yīng)用開發(fā)。算力公司的新機(jī)會在于怎么在Z級別的算力上實(shí)現(xiàn)規(guī)模拓展(ScalingOut)和摒棄傳統(tǒng)核內(nèi)存共享,以及云邊計(jì)算;模型公司壁壘在于DomainSpecific的數(shù)據(jù);應(yīng)用壁壘在于傳感器(軟件傳感器的App、場景或者硬件傳感器)。更為重要的依然是算力網(wǎng)絡(luò)-基礎(chǔ)模型-應(yīng)用-數(shù)據(jù)的“飛輪”。但我們認(rèn)為與云計(jì)算時(shí)代的解耦相反,生成式AI時(shí)代的經(jīng)濟(jì)效應(yīng)的“飛輪”是高度耦合的,因?yàn)樵朴?jì)算關(guān)鍵在于彈性和可伸縮可拓展性帶來的成本優(yōu)化,而AI關(guān)鍵在于效能提高到某個(gè)閾值之后的應(yīng)用價(jià)值急速上升。而數(shù)據(jù)棧可能從datasource和activationtool向數(shù)倉逐漸創(chuàng)新。5)生成式AI改變微觀經(jīng)濟(jì)學(xué)假設(shè):我們認(rèn)為軟件行業(yè)、互聯(lián)網(wǎng)行業(yè)、開源、生成式AI均為對傳統(tǒng)微觀經(jīng)濟(jì)學(xué)的挑戰(zhàn)。軟件意味著非個(gè)性化產(chǎn)品的邊際生產(chǎn)成本接近于0(但產(chǎn)品定制化和營銷成本高),互聯(lián)網(wǎng)意味著產(chǎn)品的邊際分發(fā)與營銷費(fèi)用接近于0(直到流量紅利結(jié)束和獲客成本上升),開源意味著產(chǎn)品本身的價(jià)格為0(但部署和開發(fā)有成本),生成式AI意味著產(chǎn)品的個(gè)性/定制化生產(chǎn)邊際成本接近于0。波特三戰(zhàn)略包括成本領(lǐng)先、差異化、聚焦。差異化產(chǎn)品在生成式AI時(shí)代將不再具有競爭壁壘,但差異化數(shù)據(jù)將可能具有很高價(jià)值。6)生成式AI改變軟件與互聯(lián)網(wǎng)的結(jié)構(gòu),MarcAndreessen著名的論斷為
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 5《七律 長征》 說課稿-2024-2025學(xué)年語文六年級上冊統(tǒng)編版001
- 2024年四年級英語下冊 Unit 7 What's the matter第4課時(shí)說課稿 譯林牛津版001
- 18《慈母情深》說課稿-2024-2025學(xué)年統(tǒng)編版語文五年級上冊001
- 2025門窗工程承包合同
- 2025市場咨詢服務(wù)合同范本
- 2025嫁接種苗技術(shù)服務(wù)合同書
- 2024-2025學(xué)年高中歷史 第2單元 西方人文精神的起源及其發(fā)展 第7課 啟蒙運(yùn)動說課稿 新人教版必修3
- 信息平臺建設(shè)合同范本
- 7 《我在這里長大》第一課時(shí)(說課稿)2023-2024學(xué)年統(tǒng)編版道德與法治三年級下冊
- 書推廣合同范例
- 機(jī)器狗:技術(shù)成熟性能優(yōu)越場景剛需放量在即2025
- 2025年村民代表會議講話稿(3篇)
- (一模)烏魯木齊地區(qū)2025年高三年級第一次質(zhì)量語文試卷(含答案)
- 2025開工大吉蛇年大吉開門紅模板
- 2025年日歷表(A4版含農(nóng)歷可編輯)
- 591食堂不合格食品處置制度
- 國際金融課件(完整版)
- 導(dǎo)向標(biāo)識系統(tǒng)設(shè)計(jì)(一)課件
- 220t鍋爐課程設(shè)計(jì) 李學(xué)玉
- 全英文劇本 《劇院魅影》
- 北京城的中軸線PPT通用課件
評論
0/150
提交評論