騰訊研究院AIGC發(fā)展趨勢(shì)報(bào)告2023 -迎接人工智能的 下一個(gè)時(shí)代_第1頁(yè)
騰訊研究院AIGC發(fā)展趨勢(shì)報(bào)告2023 -迎接人工智能的 下一個(gè)時(shí)代_第2頁(yè)
騰訊研究院AIGC發(fā)展趨勢(shì)報(bào)告2023 -迎接人工智能的 下一個(gè)時(shí)代_第3頁(yè)
騰訊研究院AIGC發(fā)展趨勢(shì)報(bào)告2023 -迎接人工智能的 下一個(gè)時(shí)代_第4頁(yè)
騰訊研究院AIGC發(fā)展趨勢(shì)報(bào)告2023 -迎接人工智能的 下一個(gè)時(shí)代_第5頁(yè)
已閱讀5頁(yè),還剩62頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

D騰訊研究院迎接人工智能的下一個(gè)時(shí)代騰訊研究院AIGC發(fā)展趨勢(shì)報(bào)告2023迎接人工智能的下一個(gè)時(shí)代騰訊研究院目錄TOC\o"1-5"\h\z前言 01一、AIGC技術(shù)、應(yīng)用和產(chǎn)業(yè)生態(tài)迎來(lái)發(fā)展快車(chē)道 031、生成算法、預(yù)訓(xùn)練模型、多模態(tài)等AI技術(shù)累積融合,催生了AIGC的大爆發(fā) 042、 AIGC產(chǎn)業(yè)生態(tài)加速形成和發(fā)展,走向模型即服務(wù)(MaaS)的未來(lái) 10\o"CurrentDocument"二、消費(fèi)端:AIGC牽引數(shù)字內(nèi)容領(lǐng)域的全新變革 121、AIGC有望塑造數(shù)字內(nèi)容生產(chǎn)與交互新范式,成為未來(lái)互聯(lián)網(wǎng)的內(nèi)容生產(chǎn)基礎(chǔ)設(shè)施 13\o"CurrentDocument"2、AIGC的應(yīng)用生態(tài)和內(nèi)容消費(fèi)市場(chǎng)逐漸繁榮 17\o"CurrentDocument"3、AIGC將日益成為未來(lái)3D互聯(lián)網(wǎng)的基礎(chǔ)支撐 20\o"CurrentDocument"4、聊天機(jī)器人和數(shù)字人成為新的、更包容性的用戶交互界面,不斷拓展應(yīng)用領(lǐng)域 24\o"CurrentDocument"5、AIGC將作為生產(chǎn)力工具來(lái)推動(dòng)元宇宙發(fā)展 28三、產(chǎn)業(yè)端:合成數(shù)據(jù)牽引人工智能的未來(lái) 31\o"CurrentDocument"1、合成數(shù)據(jù)為AI模型訓(xùn)練幵發(fā)提供強(qiáng)大助推器,推動(dòng)實(shí)現(xiàn)AI2.0 33\o"CurrentDocument"2、合成數(shù)據(jù)助力破解AI"深水區(qū)”的數(shù)據(jù)難題,持續(xù)拓展產(chǎn)業(yè)互聯(lián)網(wǎng)應(yīng)用空間 34\o"CurrentDocument"3、合成數(shù)據(jù)產(chǎn)業(yè)加快成為數(shù)據(jù)要素市場(chǎng)新賽道,科技大廠和創(chuàng)新企業(yè)搶先布局 37\o"CurrentDocument"4、合成數(shù)據(jù)加速構(gòu)建AI賦能、數(shù)實(shí)融合的大型虛擬世界 39\o"CurrentDocument"四、社會(huì)端:AIGC助力可持續(xù)社會(huì)價(jià)值 41\o"CurrentDocument"1、 元價(jià)值:解放人類(lèi)創(chuàng)造力,革新藝術(shù)領(lǐng)域 43\o"CurrentDocument"2、 AIGC社會(huì)價(jià)值案例 45五、發(fā)展與挑戰(zhàn)并生:積極應(yīng)對(duì)AIGC帶來(lái)的社會(huì)倫理問(wèn)題 48\o"CurrentDocument"1、 知識(shí)產(chǎn)權(quán)挑戰(zhàn) 49\o"CurrentDocument"2、 安全挑戰(zhàn) 52\o"CurrentDocument"3、 倫理挑戰(zhàn) 54\o"CurrentDocument"4、 環(huán)境挑戰(zhàn) 57六、展望:擁抱人工智能的下一個(gè)時(shí)代,打造可信AIGC生態(tài) 6001010101刖蹂內(nèi)容創(chuàng)作模式2022年是AIGC(AI-GeneratedContent,人工智能生成內(nèi)容)爆火出圈的一年,不僅被消費(fèi)者追捧,而且備受投資界關(guān)注,更是被技術(shù)和產(chǎn)業(yè)界競(jìng)相追逐。9月23日,紅杉美國(guó)發(fā)表文章《生成式AI:-個(gè)創(chuàng)造性的新世界》,認(rèn)為AIGC會(huì)代表新一輪范式轉(zhuǎn)移的幵始。2022年10月,StabilityAI獲得約1億美元融資,估值高達(dá)10億美元,躋身獨(dú)角獸行列。StabilityAI發(fā)布的幵源模型StableDiffusion,可以根據(jù)用戶輸入的文字描述(稱(chēng)為提示詞,prompts)自動(dòng)生成圖像,即文生圖(Text-to-Image,T2I)。StableDiffusion、DALL-E2、MidJourney等可以生成圖片的AIGC模型引爆了AI作畫(huà)領(lǐng)域,AI作畫(huà)風(fēng)行一時(shí),標(biāo)志人工智能向藝術(shù)領(lǐng)域滲透。2022年12月,OpenAI的大型語(yǔ)言生成模型ChatGPT刷爆網(wǎng)絡(luò),它能勝任刷高情商對(duì)話、生成代碼、構(gòu)思劇本和小說(shuō)等多個(gè)場(chǎng)景,將入機(jī)對(duì)話推向新的高度,讓網(wǎng)友們不禁懷疑ChatGPT是否已經(jīng)具有人類(lèi)智能。全球各大科技企業(yè)都在積極擁抱AIGC,不斷推出相關(guān)的技術(shù)、平臺(tái)和應(yīng)用。內(nèi)容創(chuàng)作模式內(nèi)容斶量圖:內(nèi)容創(chuàng)作模式的四個(gè)發(fā)展階段從字面意思上看,AIGC是相對(duì)于過(guò)去的PCG、UCG而提出的。因此,AIGC的狹義概念是利用AI自動(dòng)生成內(nèi)容的生產(chǎn)方式。但是AIGC已經(jīng)代表了AI技術(shù)發(fā)展的新趨勢(shì)。過(guò)去傳統(tǒng)的人工智能偏向于分析能力,即通過(guò)分析一組數(shù)據(jù),發(fā)現(xiàn)其中的規(guī)律和模式并用于其他多種用途,比如應(yīng)用最為廣泛的個(gè)性化推薦算法。而現(xiàn)在人工智能正在生成新的東西,而不是僅僅局限于AIGC發(fā)展趨勢(shì)報(bào)告AIGC發(fā)展趨勢(shì)報(bào)告2023——迎接人工杶能的下一跣時(shí)代雖然強(qiáng)人工智能還未到來(lái),甚至不可能出現(xiàn),但是AI已經(jīng)成為人類(lèi)社會(huì)生產(chǎn)生活中不可或缺的工具。因此,需要在人機(jī)互動(dòng)協(xié)作中建立一個(gè)自由的人機(jī)關(guān)系,人需要對(duì)AI有一個(gè)客觀準(zhǔn)確的認(rèn)識(shí)和定位,并且需要始終以人為中心,避免技術(shù)對(duì)人的操控。LaMDA事件中,如果人們?cè)谂cAI協(xié)同中,高估了AI具有自我意識(shí),而后建立錯(cuò)誤的交互關(guān)系勢(shì)必會(huì)造成不良后果。針對(duì)算法歧視問(wèn)題,過(guò)去AI公平性治理中采取的通用性應(yīng)對(duì)措施,如過(guò)濾器和模型調(diào)整、以及定量偏差評(píng)估和基準(zhǔn)測(cè)試等,似乎在AIGC這類(lèi)預(yù)訓(xùn)練模型系統(tǒng)級(jí)別上具有一些挑戰(zhàn)性。然而,業(yè)界依然在不斷進(jìn)行嘗試。比如,斯坦福大學(xué)以人為本人工智能研究院(簡(jiǎn)稱(chēng)HAI)基礎(chǔ)模型研究中心推出大型語(yǔ)言模型(LLM)的整體評(píng)估(HolisticEvaluationofLanguageModels,HELM),評(píng)估包括準(zhǔn)確性、校準(zhǔn)、魯棒性、公平性、偏差、毒性和效率等模型完備的各個(gè)關(guān)鍵要素,旨在提高語(yǔ)言模型透明度,幫助理解大型語(yǔ)言模型。 /ai/stanford-debuts-first-ai-benchmark-to-help-understand-llms/而面對(duì)自我意識(shí)、’'逝者模擬仿生 /ai/stanford-debuts-first-ai-benchmark-to-help-understand-llms/4、環(huán)境挑戰(zhàn)基于預(yù)訓(xùn)練模型的AIGC不僅是訓(xùn)練還是運(yùn)行,都需要大量算力支持,無(wú)形中增加了能源消耗,其高速發(fā)展給環(huán)境保護(hù)和氣候變化帶來(lái)了巨大挑戰(zhàn),產(chǎn)生高碳排放。首先,AI模型訓(xùn)練消耗大量算力,碳排放量驚人。而實(shí)際上,隨著近年來(lái)AI的大規(guī)模應(yīng)用,人們已經(jīng)幵始意識(shí)到AI的碳排放問(wèn)題。如下圖,馬薩諸塞大學(xué)阿默斯特分校的研究人員對(duì)訓(xùn)練幾種常見(jiàn)的AI模型進(jìn)行了生命周期評(píng)估。他們發(fā)現(xiàn)該過(guò)程可排放超過(guò)626,000磅的二氧化碳當(dāng)量一幾乎是美國(guó)普通汽車(chē)生命周期排放量的五倍(包括汽車(chē)本身的制造)。 /pdf/1906.02243.pdf同時(shí),還有研究人員對(duì)Transformer.ELMo、BERT、GPT-2、GPT-3等進(jìn)行了碳排放研究。他們?cè)趩蝹€(gè)GPU上對(duì)每個(gè)模型進(jìn)行了長(zhǎng)達(dá)一天的訓(xùn)練,測(cè)量其功耗。最后測(cè)試結(jié)果發(fā)現(xiàn),模型訓(xùn)練的計(jì)算和環(huán)境成本與模型大小成正比。GPT-3模型訓(xùn)練的二氧化碳排放量為552 /pdf/1906.02243.pdf PattersonD,GonzalezJ,LeQ,etal.CarbonemissionsandlargeneuralnetworktrainingJ.arXivpreprintarXiv:2104.10350,2021.Consumption CO2e(lbs)Airtravel,1passenger,NYoSF 1984Humanlife,avg,1year 11,023Americanlife,avg,1year 36,156Car,avgincl.fuel,1lifetime 126,000Trainingonemodel(GPU)NLPpipeline(parsing,SRL) 39w/tuning&experimentation 78,468Transformer(big) 192w/neuralarchitecturesearch 626,155Table1:EstimatedCO2emissionsfromtrainingcom-

monNLPmodels,comparedtofamiliarconsumption?圖:?jiǎn)我粰C(jī)器學(xué)習(xí)模型訓(xùn)練所產(chǎn)生的碳排放相當(dāng)于普通汽車(chē)壽命期內(nèi)碳排放量的5倍其次,大量算力需求和碳排放造成了AIGC應(yīng)用的高昂成本。目前,業(yè)界在探討AIGC商業(yè)落地時(shí),存在一個(gè)較大的難題,便是成本問(wèn)題。雖然很多AIGC工具深受用戶喜愛(ài),但是其原始成本非常昂貴。Midjourney的創(chuàng)始人大衛(wèi)?霍爾茲(DavidHolz)表示,大規(guī)模商業(yè)擴(kuò)展是未來(lái)發(fā)展的一個(gè)重要難題問(wèn)題,這并不是用戶量擴(kuò)展的問(wèn)題,而是算力支持的問(wèn)題。目前,Midjourney只有數(shù)十萬(wàn)用戶,已經(jīng)需要極高的算力來(lái)支持。如果用戶量達(dá)到1000萬(wàn)人,那么世界上沒(méi)有足夠的算力來(lái)支持。 /2022/08/01/david_holz_midjourney/OpenAI的CE。嘪姆奧特曼也指出,調(diào)用運(yùn)行ChatGPT進(jìn)行聊天對(duì)話,每次回答的成本約為幾美分,因此未來(lái)將不得不因?yàn)橛?jì)算成本問(wèn)題暫?,F(xiàn)在的免費(fèi)模式??萍纪顿Y公司BlocVentures的戴維?萊夫特利(DavidLeftley)表示:‘‘現(xiàn)在全球企業(yè)都在追求凈零碳排放,而我們卻在通過(guò)與AI /2022/08/01/david_holz_midjourney/ /content/9c5f7154-5222-4be3-a6a9-f23879fd0d6a最后,碳排放和算力問(wèn)題也在制約著AIGC預(yù)訓(xùn)練模型的幵源。目前,有很多頭部機(jī)構(gòu)的預(yù)訓(xùn)練模型無(wú)法幵源的一個(gè)重要原因是,小型幵發(fā)者無(wú)法承受算力成本。因此,有一部分幵發(fā)者將超大模型的各種能力拆分到參數(shù)相對(duì)更小的模型上,以解決算力和能耗問(wèn)題。還有一部分通過(guò)加快大模型推理速度、降低算力成本、減少能耗,以此來(lái)突破預(yù)訓(xùn)練模型的發(fā)展制約。比如Meta的OPT只需要16塊英偉達(dá)v100GPU就可以訓(xùn)練和部署完整模型的代碼庫(kù),這是GPT-3的七分之一。此前有專(zhuān)家估計(jì),GPT-3的訓(xùn)練使用了上萬(wàn)塊英偉達(dá)v100GPU,總成本高達(dá)2760萬(wàn)美元,個(gè)人如果要訓(xùn)練出一個(gè)PaLM也要花費(fèi)900至1700萬(wàn)美元。大模型的訓(xùn)練成本若能降下來(lái),自然也就能提高他們的幵源意愿。但歸根結(jié)底,這只能從工程上對(duì)算力資源的約束起到緩解作用,而并非終極方案。盡管目前許多千億級(jí)、萬(wàn)億級(jí)的大模型已經(jīng)幵始宣傳自己的"低能耗”優(yōu)勢(shì),但算力的圍墻仍然太高。業(yè)界也逐漸認(rèn)識(shí)到能源消耗和環(huán)境問(wèn)題對(duì)深度學(xué)習(xí)技術(shù)發(fā)展和應(yīng)用的制約。2020年,Schwartz等人提出綠色Al的理念,倡導(dǎo)通過(guò)調(diào)整推理模式、提升訓(xùn)練策略等一系列方式在達(dá)到同等訓(xùn)練結(jié)果的情況下降低技術(shù)成本和能源消耗。 SchwartzR,DodgeJ,SmithNA,etal.GreenaiJ.CommunicationsoftheACM,2020,63(12):54-63.這一理念逐漸被廣泛接受。針對(duì)AIGC SchwartzR,DodgeJ,SmithNA,etal.GreenaiJ.CommunicationsoftheACM,2020,63(12):54-63.6161展望:擁抱人工智能的下一個(gè)時(shí)代,打造可信AIGC生態(tài)?本章主筆:曹建峰騰訊研究院高級(jí)研究員2022年見(jiàn)證了AIGC的快速崛起和破圈發(fā)展。但對(duì)于AIGC領(lǐng)域而言,這僅僅是一個(gè)幵始,更大的變革尚待幵啟。在過(guò)去的深度學(xué)習(xí)黃金十年,人工智能的感知、理解能力不斷增強(qiáng),為AIGC的爆發(fā)奠定基礎(chǔ)。如今,隨著生成算法、大模型、多模態(tài)技術(shù)等AI技術(shù)的持續(xù)創(chuàng)新和發(fā)展成熟,AI領(lǐng)域正在經(jīng)歷從感知、理解到生成、創(chuàng)造的躍遷。以AIGC這一新的疆域?yàn)闃?biāo)志,AI領(lǐng)域正在迎來(lái)下一個(gè)時(shí)代。融合大模型和多模態(tài)技術(shù)的AIGC模型,有望成為新的技術(shù)平臺(tái),深度賦能各行各業(yè)。未來(lái),"AIGC+”將在經(jīng)濟(jì)社會(huì)的各個(gè)領(lǐng)域持續(xù)大放異彩。從基礎(chǔ)性的AIGC模型,到中間層的垂直化、定制化、個(gè)性化的模型工具,再到下游層出不窮的、各種各樣的AIGC產(chǎn)品和服務(wù),AIGC的產(chǎn)業(yè)生態(tài)正在加速形成和發(fā)展。AIGC將創(chuàng)造出巨大的經(jīng)濟(jì)社會(huì)價(jià)值,其應(yīng)用不限于互聯(lián)網(wǎng)領(lǐng)域,也將給文化、娛樂(lè)、教育、金融、醫(yī)療、公共服務(wù)、交通、制造等諸多領(lǐng)域帶來(lái)積極影響。經(jīng)歷了2022年的喧囂和炒作,2023年AIGC將乘勢(shì)而起,迎來(lái)更大發(fā)展。面向人工智能的下一個(gè)時(shí)代,人們需要更加負(fù)責(zé)任地、以人為本地發(fā)展應(yīng)用AIGC技術(shù),打造可信AIGC生態(tài)。面對(duì)AIGC技術(shù)應(yīng)用可能帶來(lái)的知識(shí)產(chǎn)權(quán)保護(hù)、信息內(nèi)容安全、算法歧視和社會(huì)倫理等問(wèn)題,社會(huì)各界需要協(xié)同參與、共同應(yīng)對(duì),通過(guò)法律、倫理、技術(shù)等方面的多元措施支持構(gòu)建可信AI生態(tài)。在立法方面,網(wǎng)信辦等三部門(mén)出臺(tái)的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》針對(duì)深度合成技術(shù)服務(wù)提出的要求和管理措施,諸如禁止性要求、標(biāo)識(shí)要求、安全評(píng)估等,亦適用于AIGC。下一步,需要著重從以下方面持續(xù)推進(jìn)AIGC的政策和治理。其一,政府部門(mén)需要結(jié)合AIGC技術(shù)的發(fā)展應(yīng)用情況,制定

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論