AI行業(yè)市場前景及投資研究報告:擁抱AIGC技術(shù)變革關(guān)注應用落地_第1頁
AI行業(yè)市場前景及投資研究報告:擁抱AIGC技術(shù)變革關(guān)注應用落地_第2頁
AI行業(yè)市場前景及投資研究報告:擁抱AIGC技術(shù)變革關(guān)注應用落地_第3頁
AI行業(yè)市場前景及投資研究報告:擁抱AIGC技術(shù)變革關(guān)注應用落地_第4頁
AI行業(yè)市場前景及投資研究報告:擁抱AIGC技術(shù)變革關(guān)注應用落地_第5頁
已閱讀5頁,還剩25頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

行業(yè)評級:推薦積極擁抱AIGC技術(shù)變革,關(guān)注應用落地01目錄?

AIGCContents02?

AI+游戲03?

AI+營銷?

AI+電商?

投資建議0405第一部分01AIGC?

AIGC發(fā)展的關(guān)鍵:生成算法的優(yōu)化?

從技術(shù)上看,生成算法、預訓練模型、多模態(tài)等AI技術(shù)累計融合,成為了AIGC爆發(fā)的關(guān)鍵因素。從流程上看,算法接收數(shù)據(jù),進行運算并生成預訓練模型,多模態(tài)技術(shù)則是將不同模型融合的關(guān)鍵。?

基礎(chǔ)的生成算法模型不斷突破創(chuàng)新:Transformer模型的推出為預訓練模型奠定了基礎(chǔ)。主流模型提出時間模型描述基于變分下界約束得到的Encoder-Decoder模型對小模型被認為是行業(yè)發(fā)展方向變分自動編碼(VariationalAutoencoders,VAE)2014生成對抗網(wǎng)絡(luò)(GAN)20142015基于對抗的Generator-Discriminator模型對基于流的生成模型(Flowbased

models)學習一個非線性雙射轉(zhuǎn)換(bijective

transformation),其將訓練數(shù)據(jù)映射到另一個空間,在該空間上分布是可以因子化的,整個模型架構(gòu)依靠直接最大化log-likelihood來完成。擴散模型有兩個過程,分別為擴散過程和逆擴散過程。在前向擴散階段對圖像逐步施加噪聲,直至圖像被破壞變成完全的高斯噪聲,然后在逆向階段學習從高斯噪聲還原為原始圖像的過程。經(jīng)過訓練,該模型可以應用這些去噪方法,從隨機輸入中合成新的“干凈”數(shù)據(jù)。擴散模型(Diffusion

Model)Transformer模型2015一種基于自注意力機制的神經(jīng)網(wǎng)絡(luò)模型,最初用來完成不同語言之間的文本翻譯任務,主體包含Encoder和Decoder部分,分別負責對源語言文本進行編碼和將編碼信息轉(zhuǎn)換為目標語言文本。20172020神經(jīng)輻射場(NeuralRadiance

Field,NeRF)它提出了一種從一組輸入圖像中優(yōu)化連續(xù)5D神經(jīng)輻射場的表示(任何連續(xù)位置的體積密度和視角相關(guān)顏色)的方法,要解決的問題就是給定一些拍攝的圖,如何生成新的視角下的圖。CLIP(ContrastiveLanguage-Image

Pre-Training)模型1、進行自然語言理解和計算機視覺分析;2、使用已經(jīng)標記好的“文字-圖像"訓練數(shù)據(jù)。一方面對文字進行模型訓練。一方面對另一個模型的訓練,不斷調(diào)整兩個模型的內(nèi)部參數(shù),使得模型分別輸出的文字特征和圖像特征值并確認匹配。2021?

AIGC發(fā)展的關(guān)鍵:預訓練模型引發(fā)的質(zhì)變?

預訓練模型包括:(1)自然語言處理(NLP),如谷歌的LaMDA和PaLM、Open

AI的GPT系列;(2)計算機視覺(CV),如微軟的Florence;(3)多模態(tài)預訓練,即融合文字、圖片、音頻視頻等多種內(nèi)容形式。國外主要的AIGC預訓練模型企業(yè)預訓練模型BERT應用語言理解與生成參數(shù)量領(lǐng)域NLP4810億LaMDA對話系統(tǒng)NLP谷歌PaLM語言理解與生成、推理、代碼生成語言理解與圖像生成語言理解與圖像生成視覺識別5400億110億200億6.4億170億1750億150億12億NLPImagen多模態(tài)多模態(tài)CVPartiFlorenceTuring-NLGOPT-175BM2M-100微軟語言理解、生成NLP語言模型NLPFacebook100種語言互譯NLPGato多面手的智能體多模態(tài)NLPDeep

MindGopher語言理解與生成2800億414億1750億120億120億AlphaCodeGPT3代碼生成NLP語言理解與生成、推理等圖像生成、跨模態(tài)檢索代碼生成NLPCLIP&DALL-ECodex多模態(tài)NLPOpen

AIChatGPT語言理解與生成、推理等語言理解月生成、推理語言理解與圖像生成NLPStability

AIMegatron-Turing

NlGStable

Diffusion5300億多模態(tài)NLP英偉達?

AIGC發(fā)展的關(guān)鍵:多模態(tài)推動內(nèi)容多樣性?

多模態(tài)模型技術(shù)推進主要于:2021年OpenAI團隊推出跨模態(tài)深度學習模型CLIP,后續(xù)“CLIP+其他模型”成為跨模態(tài)生成領(lǐng)域的通用做法。?

2021年3月,OpenAI發(fā)布AI繪畫產(chǎn)品DALL

E,只需要輸入一句文字,DALL

E就能理解并自動生成一副意思相符的圖像,且該圖像是獨一無二的。DALL·E2在“星云爆炸狀柯基頭”DALL·E把椅子上的萌犬P成貓貓?

深度學習模型的創(chuàng)新推動AIGC技術(shù)變革?

超級深度學習近年來的快速發(fā)展帶來了深度神經(jīng)網(wǎng)絡(luò)技術(shù)在大模型和多模態(tài)兩個方向上的不斷突破,并未AIGC技術(shù)能力的升級提供了強有力的支撐和全新的可能性。?

當前AIGC技術(shù)已經(jīng)從最初追求生成內(nèi)容的真實性的基本要求,發(fā)展到滿足生成內(nèi)容多樣性、可控性的進階需求,并開始追求生產(chǎn)內(nèi)容的組合型。例如:虛擬數(shù)字世界中人、物和環(huán)境間的交互組合生成為整體場景。大模型具備易擴展性,能夠?qū)崿F(xiàn)跨模態(tài)的知識沉淀,以大模型為基礎(chǔ)模型,通過大模型小型化技術(shù)使得人工智能在小數(shù)據(jù)集場景下也能具備優(yōu)秀的理解、生成和泛化能力,具有超大規(guī)模、超多參數(shù)量的多模態(tài)大型神經(jīng)網(wǎng)絡(luò)將引領(lǐng)AIGC技術(shù)升級正在成為學界、產(chǎn)業(yè)界共識。視覺大模型提升AIGC感知能力:在環(huán)境感知、內(nèi)容檢索、語義理解、模態(tài)對齊等任務上具備先天的優(yōu)勢,能夠提升AIGC

基礎(chǔ)環(huán)境孿生能力、豐富

AIGC

應用場景。語言大模型增強

AIGC認知能力:體現(xiàn)在訓練模型的數(shù)據(jù)量日益增大、數(shù)據(jù)種類也更加豐富,模型規(guī)模增大、參數(shù)量以指數(shù)倍增加。通過不斷構(gòu)建語義理解能力增強、邏輯知識可抽象學習、同時適用于多種任務的語言大模型,利于

AIGC

場景中的各項認知應用。多模態(tài)大模型升級AIGC內(nèi)容創(chuàng)作能力:不是單一的視覺大模型的環(huán)境感知能力或者是語言大模型的認知能力,多模態(tài)大模型擁有兩種能力:一種是寸照不同莫泰數(shù)據(jù)之間的對應關(guān)系,例如:將一段文本和與之對應的圖片聯(lián)系起來;另一個是實現(xiàn)不同莫泰數(shù)據(jù)間的相互轉(zhuǎn)化與生成,例如:根據(jù)一張圖片生成對應的語言描述。?

AIGC大模型架構(gòu)?

多模態(tài)大模型升級AIGC內(nèi)容創(chuàng)作能力:不是單一的視覺大模型的環(huán)境感知能力或者是語言大模型的認知能力,多模態(tài)大模型擁有兩種能力:一種是寸照不同莫泰數(shù)據(jù)之間的對應關(guān)系,例如:將一段文本和與之對應的圖片聯(lián)系起來;另一個是實現(xiàn)不同莫泰數(shù)據(jù)間的相互轉(zhuǎn)化與生成,例如:根據(jù)一張圖片生成對應的語言描述。給定具體文本語義?

AIGC大模型架構(gòu)?

多模態(tài)大模型升級AIGC內(nèi)容創(chuàng)作能力:以O(shè)penAI提出的多模態(tài)大模型DALL-E

2為例,給定一個已有的場景圖像,該模型能在指定位置添加指定的目標主體。?

過程:識別圓球位置為沙發(fā)/左側(cè)畫框——添加符合相應畫風的不同形態(tài)柯基?

AIGC產(chǎn)業(yè)鏈?

基礎(chǔ)層:預訓練模型,由于預訓練所需要的數(shù)據(jù)量快速提升,從千萬級提升至千億級,帶來了較高的成本,有較高的準入門檻。2020年OpenAI的GPT-3預計成本約為1200萬美元。因此,目前進入預訓練模型的主要機構(gòu)為頭部科技企業(yè)、科研機構(gòu)。?

中間層:垂直化、場景化、個性化的模型。在預訓練基礎(chǔ)上,快速抽取生成場景化、定制化、個性化的小模型,實現(xiàn)不同行業(yè)垂直領(lǐng)域、功能長久的工業(yè)流水線式部署。如:在Stable

Diffusion開源后,二次元畫風生成的Novel-AI。隨著兼具大模型和多模態(tài)的AIGC模型加速成為新的技術(shù)平臺,模型即服務(MaaS)開始成為顯示,通過API授權(quán)有望實現(xiàn)AIGC商業(yè)發(fā)展和變現(xiàn)。?

應用層:即面向C端用戶的文字、圖片、音視頻等內(nèi)容生成服務。應用層包括App、網(wǎng)頁、小程序、聊天機器人等。?

文本領(lǐng)域模型:GPT-4?

3月15日凌晨,OpenAI發(fā)布了多模態(tài)預訓練大模型GPT-4。此外還發(fā)布了技術(shù)報告和System

Card,開放了GPT-4的API。GPT-4實現(xiàn)了幾個方面的飛躍式提升:?

1)強大的識圖能力。GPT-4能接受圖像和文本輸入,允許用戶指定任何視覺或語言任務(包括帶有文本和照片的文檔、圖表或屏幕截圖上),輸出文本內(nèi)容。例如,給GPT-4一個長相奇怪的充電器的圖片,問它為什么這很可笑,它可以識別出圖片中給手機充電線是VGA;可以理解圖表中數(shù)據(jù)的含義,并做進一步計算,如計算格魯吉亞和西亞的人均每日肉類消費,計算平均數(shù);可以直接上傳物理題讓它回答;可以理解一張照片里有什么不對勁的地方;可以直接把論文截圖發(fā)給它,GPT-4可以按像素處理其中的文字和圖片,并給出對整篇論文的總結(jié)摘要。?

2)文字輸入限制提升至2.5萬字。GPT-4的長度限制提升到32K

tokens,即能處理超過25000個單詞的文本,并且可以使用長格式內(nèi)容創(chuàng)建、擴展對話、文檔搜索和分析等。?

3)回答準確性顯著提高。美國高考SAT試題,GPT-4在閱讀寫作中拿下710分、數(shù)學700分(滿分800);GRE幾乎滿分,邏輯能力超越GPT-3.5。?

4)在高級推理能力上超越ChatGPT。在律師模擬考試中,GPT-4通過了模擬律師考試,且分數(shù)在應試者的前10%左右;相比之下,GPT-3.5的得分在倒數(shù)10%左右。?

5)能夠生成歌詞、創(chuàng)意文本,實現(xiàn)風格變化。?

圖像領(lǐng)域產(chǎn)品:Midjourney?

Midjourney是一款AI制圖工具,只要關(guān)鍵字,就能透過AI算法生成相對應的圖片,只需要不到一分鐘。該軟件最具有代表性的一張作品是《太空歌劇院》。2022年8月,美國科羅拉多州博覽會藝術(shù)比賽斬獲金獎的作品就是由Midjourney生成的《太空歌劇院》。?

一眼識別作品是AI繪圖主要看光影和手指。與人類作畫不同,AI繪圖工具沒法了解到用戶所描述的場景里光源的正確走向,以Stable-Diffusion、Lora這樣的熱門繪圖工具為例,它們處理光影的方式往往具有一定的隨機性,左右光源不分,導致產(chǎn)出的作品不夠真實。同理,手指的幾何形狀十分復雜,沒有一定的規(guī)律,AI工具很難有針對性的處理。這些問題在Midjourney

V5版本得到了解決。在GPT-4推出的同時,Midjourney同期推出了第五代版本,迭代速度相當快。?

Midjourney

V5可以在接到關(guān)于年份的描述時,會主動匹配用戶的需求,不會讓一張高清圖片出現(xiàn)在“90年代”的場景描述之下。Midjourney現(xiàn)在可以按照用戶的需求,模擬不同攝影設(shè)備的攝影效果,例如“shot

on

Canon

R6

with

50mm

f1.4”,此處包含了相機型號為佳能R6,50mm焦段與f1.4光圈等信息。Midjourney可以根據(jù)用戶提供的信息,模擬出所需的效果。?

Midjourney和ChatGPT結(jié)合?

首先可以模糊地描述你的構(gòu)想,讓ChatGPT拓展成一個充滿細節(jié)的畫面描述,接著讓它從這段文字描述中提取關(guān)鍵詞。然后,你可以將Midjourney的提示句的語法構(gòu)成告訴ChatGPT,再通過幾次訓練讓Midjounery記住如何通過你輸入的關(guān)鍵詞來創(chuàng)建Midjourney的命令語法。之后只需要復制粘貼ChatGPT給你的指令粘貼到Midjourney的命令框里即可生成圖片,如果你不滿意還可以讓ChatGPT來繼續(xù)幫你修改完善關(guān)鍵詞。?

Midjourney作品?

視頻領(lǐng)域產(chǎn)品:Runway、WonderStudio?

3月20日,人工智能創(chuàng)業(yè)公司Runway宣布新的文本生成視頻AI模型Gen-2,相比GEN-1模型利用現(xiàn)有視頻素材二次創(chuàng)作,新增基于文本、圖片、人物動作等多模態(tài)從零開始自動創(chuàng)作短視頻的功能,在保持高水準視覺效果的同時大幅縮短視頻制作周期。?

Wonder

Studio這個工具可以自動分析并捕捉真人表演,為CG角色制作動畫并將燈光和CG角色匹配到實拍場景。首先,需要把科幻電影劇本寫好,比如需要真人和CG角色結(jié)合的,主角是個機器人,需要合成到實拍場景。然后只需要拿著相機去拍攝,用真人表演替代CG機器人。拍攝完成后,把素材導入到Wonder

Studio里,選擇想要的CG角色,分配給實拍的真人表演。接下來系統(tǒng)就會利用人工智能跟蹤演員的表演,用CG角覆蓋原來真人角色,自動生成動畫、燈光,而且直接將CG角色合成到場景里。不僅如此,該工具還可以對演員進行分析,捕捉身體的任何部位和任何動作,甚至是連真實演員的面部表情都可以輕松捕捉。?

音頻領(lǐng)域模型:DeepMusic?

人工智能音樂服務商「DeepMusic」(靈動音)成立于2018年,是國內(nèi)首家基于自研AIGC能力打造音樂引擎的國內(nèi)人工智能音樂服務商,致力于將AI音樂技術(shù)轉(zhuǎn)化為面向各類音樂人群的場景級應用及產(chǎn)品。?

沒有公開的結(jié)構(gòu)化數(shù)據(jù),是智能音樂這一交叉領(lǐng)域沒有先于其他賽道爆發(fā)的原因。只有先通過數(shù)據(jù)標注把人類音樂存量中的音樂知識和信息拆解出來,進行連接和云化,才能讓AI聽懂音樂,從而構(gòu)建貼近人類專業(yè)制作過程的AIGC。?

「DeepMusic」創(chuàng)建了音樂結(jié)構(gòu)標準UMP及自動標注技術(shù),并在過去幾年中分析了大量音頻文件,將它們的每個小節(jié)用了什么樣的音高、和弦、段落等等音樂符號,將超過2萬首歌的樂理信息轉(zhuǎn)化為一個可用于訓練模型的數(shù)據(jù)庫,使得識別準確率能夠達到90%以上,能夠滿足大部分C端用戶的場景需求。當技術(shù)環(huán)境來到AIGC進入到自然語言大模型的時代,「DeepMusic」自研的AIGC音樂引擎“Mutrix”在兼容開源語言模型的基礎(chǔ)上擴展為多模態(tài)模型,最終達成自然語言對音樂的控制。?

大模型時間表時間4.8公司模型盤古大模型4.104.114.134.144.174.185.6商湯科技阿里巴巴AIGCChain同花順日日新大模型通義千問發(fā)布全球首個基于Web3.0的GPT大模型AI+金融產(chǎn)品昆侖萬維&奇點智源阿里巴巴科大訊飛騰訊天工大模型行業(yè)應用類模型訊飛預訓練大模型混元大模型5月5月Google融合AI的Gmail和GoogleDocs新Windows5.236月微軟蘋果MR設(shè)備9月字節(jié)跳動語言和圖像的大模型第二部分02AI+游戲?

移動游戲推動上一輪游戲增長?

隨著移動技術(shù)的不斷提升,智能手機和平板電腦的普及,移動游戲已經(jīng)成為游戲行業(yè)最快增長的領(lǐng)域之一。2010年智能手機迎來爆發(fā)性增長,2015年現(xiàn)象級手游《王者榮耀》上線,十多年間中國游戲市場規(guī)模在移動游戲的推動下,從2010年的327.4億元增長至2022年的2658.84億元,增長8倍。?

從像素游戲——2D游戲——3D游戲——大型世界游戲,游戲大小從幾十KB到幾十個G,隨著智能手機的推廣,移動游戲逐漸替代主機和客戶端游戲成為主流,移動游戲?qū)嶋H銷售收入在總收入中占比達到72.61%。?

AIGC作為新一輪的技術(shù)變革,會極快的推動游戲發(fā)展。依托AI技術(shù),網(wǎng)友可以化身高級玩家,更加充分地體會到游戲的趣味性;從游戲廠家角度來說,AI技術(shù)可以不斷模仿學習并在虛擬環(huán)境中測試強度,幫助調(diào)節(jié)平衡、代替對局,甚至還能助力產(chǎn)學研;從AI技術(shù)研發(fā)的角度,在游戲中不斷自我學習、自我調(diào)整,也有助于實現(xiàn)技術(shù)進步。近7年中國游戲市場實際收入全球移動游戲市場規(guī)模數(shù)據(jù):中國音數(shù)協(xié)游戲工委

(GPC)

中國游戲產(chǎn)業(yè)研究院,伽馬數(shù)據(jù),南京證券研究所?

AIGC推動新一輪技術(shù)變革?

AIGC作為新一輪的技術(shù)變革,會極快的推動游戲發(fā)展。?

技術(shù)革新始終是文化發(fā)展的關(guān)鍵驅(qū)動因素,每一次技術(shù)革命都會重塑文化符號體系,激發(fā)新型文化內(nèi)容的產(chǎn)生,孕育出全新的藝術(shù)形態(tài)。在人工智能市場的不斷發(fā)展下,用戶也隨之提高了娛樂需求。為適應市場的變化,游戲企業(yè)要脫虛向?qū)?,找到AIGC在游戲領(lǐng)域的關(guān)鍵應用場景,推動游戲產(chǎn)業(yè)的發(fā)展。?

AIGC結(jié)合游戲,深入挖掘游戲開發(fā)應用領(lǐng)域場景。通過文本生成、音樂合成、3D內(nèi)容生成、圖片生成、視頻生成再結(jié)合游戲的研發(fā),實現(xiàn)優(yōu)秀行業(yè)場景。盧佳楠表示:本次關(guān)鍵的更新點在于預訓練模型,各生成技術(shù)分支及跨技術(shù)模塊的突破,使AI在智能性、通用性和應用門檻都有所優(yōu)化,有望帶來可優(yōu)化的商業(yè)價值。?

依托AI技術(shù),網(wǎng)友可以化身高級玩家,更加充分地體會到游戲的趣味性;從游戲廠家角度來說,AI技術(shù)可以不斷模仿學習并在虛擬環(huán)境中測試強度,幫助調(diào)節(jié)平衡、代替對局,甚至還能助力產(chǎn)學研;從AI技術(shù)研發(fā)的角度,在游戲中不斷自我學習、自我調(diào)整,也有助于實現(xiàn)技術(shù)進步。?

網(wǎng)易:《逆水寒》實裝國內(nèi)首個游戲GPT?

網(wǎng)易官宣,《逆水寒》手游將實裝國內(nèi)首個游戲版ChatGPT,讓智能NPC能和玩家自由生成對話,并基于對話內(nèi)容,自主給出有邏輯的行為反饋,用最新的AI技術(shù)賦予了游戲NPC“靈魂”,營造出了一個自由度極高、完全開放的新奇世界。這也是國內(nèi)類ChatGPT首次應用在游戲?!赌嫠肥钟我呀?jīng)實現(xiàn)了AI捏臉的效果,后續(xù)加載網(wǎng)易伏羲AI實驗室的“玉言”系列大規(guī)模預訓練模型,幫助AI理解中文文學,更好地還原文學作品中的角色形象。?

網(wǎng)易目前已自研數(shù)十個超大規(guī)模預訓練模型,覆蓋自然語言、文圖跨模態(tài)、文音跨模態(tài)、智能抓取、情緒感知等多種模型領(lǐng)域。通過承擔浙江省級尖兵項目“超大規(guī)模預訓練模型云平臺”的建設(shè)任務,網(wǎng)易積累了豐富的預訓練模型訓練和工程優(yōu)化經(jīng)驗,未來相關(guān)技術(shù)可應用于智能制造、智慧學習、數(shù)字文旅、數(shù)字娛樂、數(shù)字音樂等數(shù)字產(chǎn)業(yè)。在AIGC與游戲、教育等細分領(lǐng)域結(jié)合方面,網(wǎng)易旗下網(wǎng)易伏羲、網(wǎng)易互娛AI、LAB兩大游戲人工智能實驗室,深耕自然語言處理、強化學習、計算機視覺、語音合成、虛擬人等技術(shù)領(lǐng)域的科研攻關(guān)與應用落地,并在AI圖像生成、AI智能捏臉、AI智能NPC等領(lǐng)域有諸多領(lǐng)先行業(yè)的創(chuàng)新探索?!赌嫠穼嵮b國內(nèi)首個游戲GPT數(shù)據(jù):逆水寒公眾號,南京證券研究所?

騰訊:混元大模型?

在2019年時,騰訊公司董事會主席兼CEO馬化騰就對外表示,騰訊已建立四大AI實驗室,涵蓋AI從全面基礎(chǔ)研究到多種應用開發(fā)。去年4月,騰訊首次對外披露了旗下“混元”AI大模型的研發(fā)進展?;煸狝I大模型完整覆蓋了NLP(自然語言處理)、CV(計算機視覺)、多模態(tài)等基礎(chǔ)模型和眾多行業(yè)模型。近期,混元AI大模型團隊還推出了NLP萬億大模型,該模型已成功落地于騰訊廣告、搜索、對話等內(nèi)部產(chǎn)品并通過騰訊云服務外部客戶。?

近期,騰訊發(fā)布全新AI智能創(chuàng)作助手“騰訊智影”,推出了智影數(shù)字人、文本配音、文章轉(zhuǎn)視頻等AI創(chuàng)作工具。。?

國內(nèi)游戲公司布局AIGC相關(guān)公司代碼內(nèi)容昆侖萬維300418.SZ預計4.17發(fā)布天工3.5大語言模型,稱天工3.5大語言模型非常接近ChatGPT水平三七互娛自主開發(fā)的人工智能系統(tǒng)包括AI大數(shù)據(jù)研發(fā)中臺“宙斯”,研發(fā)數(shù)據(jù)分析系統(tǒng)“雅典娜”、“波塞冬”、“阿瑞斯”,智能化投放平臺“量子”、智能化運營分析平臺“天機”以及AI研發(fā)平臺“丘比特”等。三七互娛002555.SZ愷英網(wǎng)絡(luò)完美世界002517.SZ002624.SZ公司及部分戰(zhàn)略投資企業(yè)已在應用相關(guān)AI工具并嘗試逐步建立內(nèi)部AI數(shù)據(jù)庫已將AI相關(guān)技術(shù)應用于游戲中的智能NPC、場景建模、AI

劇情、AI繪圖等方面接入OpenAI的ChatGPT的API,在此基礎(chǔ)上加入語音識別、合同等功能,有望迭代出“會說話的湯姆貓”湯姆貓寶通科技巨人網(wǎng)絡(luò)300459.SZ300031.SZ002558.SZ與南京八點八數(shù)字公司在虛擬數(shù)字人領(lǐng)域的合作,推動以AI為核心的數(shù)字虛擬人,賦能數(shù)字經(jīng)濟接入百度人工智能新產(chǎn)品“文心一言”,運用到游戲營銷、游戲NPC以及游戲原畫設(shè)計等游戲業(yè)務應用中使用AIGC技術(shù)自動生成攻略、頭像、表情包,開發(fā)智能語音主播等;在元宇宙場景構(gòu)建方面,利用AIGC技術(shù)開發(fā)交互功能更強的數(shù)字人、虛擬人,自動生成3D內(nèi)容構(gòu)建虛擬世界等;AIGC技術(shù)如能深入地參與游戲開發(fā),也將提升游戲開發(fā)效率,降低開發(fā)成本。盛天網(wǎng)絡(luò)神州泰岳300494.SZ300002.SZ擁有的關(guān)鍵技術(shù)包括預訓練語言模型、數(shù)據(jù)增強、算法的運用、語音合成?

估值處于近十年中部?

當前行業(yè)PE為35.28,近10年中位數(shù)為35.14,位于當前百分位的50.25%,處于中部為主。?

版號恢復發(fā)行?

2022年全年國家新聞出版署共計發(fā)布478個游戲版號,版號發(fā)行數(shù)量遠不及2021年。?

12月28日,國家新聞出版署公布了新一輪游戲過審版號。值得關(guān)注的是,此次不僅有84個國產(chǎn)游戲版號獲批,還下發(fā)了44個進口網(wǎng)絡(luò)游戲版號,這距離上次進口游戲版號下發(fā)已經(jīng)時隔一年半。12月進口版號的發(fā)放顯示了政府對于互聯(lián)網(wǎng)行業(yè)的扶持態(tài)度。?

2023年以來國產(chǎn)游戲版號發(fā)放穩(wěn)定,每月保持在80以上;此外,3月20日,國家新聞出版署官網(wǎng)發(fā)布了2023年進口網(wǎng)絡(luò)游戲?qū)徟畔ⅲ舜喂?7款版號獲批,其中騰訊、網(wǎng)易、B站、世紀華通、心動公司、創(chuàng)夢天地、中青寶、悠星網(wǎng)絡(luò)等游戲廠商都有版號在列。進口游戲和國產(chǎn)游戲版號發(fā)放恢復常態(tài),預示行業(yè)政策整體向好。2018年以來游戲版號發(fā)行情況數(shù)據(jù):中國音數(shù)協(xié)游戲工委

(GPC)

中國游戲產(chǎn)業(yè)研究院,伽馬數(shù)據(jù),南京證券研究所第三部分03AI+?

AI+視頻?

自動生成視頻從內(nèi)容承載量較小的圖片文字,走向應用空間更加廣泛、受眾更多、傳播能力更強的視頻領(lǐng)域。無需其它素材,基于文字、圖片、視頻、人物動作等自動生成的視頻,不僅可以幫助影視企業(yè)更加便捷的制作視頻,降低人工成本、提高產(chǎn)出速度,降低影視創(chuàng)作的門檻,還可以助力UGC平臺的發(fā)展,有助于提升視頻二創(chuàng)的數(shù)量和質(zhì)量。?

AI視頻對動畫、影視劇、短視頻等細分行業(yè)均有較大影響。在動畫方面,在場景繪制、人物創(chuàng)作等方面均可以實現(xiàn)降本增效;在影視劇領(lǐng)域,可以縮短后期時長,提高特效質(zhì)量,增強視覺效果,尤其在需要人物完成的特效鏡頭方面,能更快更好地完成創(chuàng)作;在短視頻方面由于AI視頻的便捷,能快速提升自動生成的產(chǎn)品內(nèi)容,縮減短視頻拍攝成本。?

未來視頻生產(chǎn)流程將會演變?yōu)椋汉唵蔚娜藶槊枋觥狢hatGPT生成文案——DeepMusic生成——導入相應照片和視頻——Gen

2生成視頻。歸母凈利潤(億元)PE總市值(億元)證券代碼公司2021A-3.12-4.174.002022E-6.78-1.504.052023E5.331.335.2723.668.482021A-92.24-30.3840.7434.7246.042022E-42.42-84.4640.2440.3127.192023E53.9494.9730.9031.0223.40300251.SZ002292.SZ300133.SZ300413.SZ300182.SZ光線傳媒奧飛娛樂華策影視芒果超媒捷成股份28712716373419521.144.3118.227.30?

AI+電商?

4月7日,阿里云大模型“通義千問”官宣內(nèi)測,“通義千問”是一個專門響應人類指令的大模型,是效率助手,也是點子生成機。4月11日,2023

阿里云峰會于北京舉行,會議主論壇將包括三大主旨演講和一系列重大發(fā)布,展示先進的計算、數(shù)據(jù)、智能技術(shù)帶來的普惠和產(chǎn)業(yè)創(chuàng)新加速,分論壇將覆蓋政務、銀行、互娛&游戲、智能汽車、石油化工等多

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論