AI MaaS星辰大海模式空間_第1頁(yè)
AI MaaS星辰大海模式空間_第2頁(yè)
AI MaaS星辰大海模式空間_第3頁(yè)
AI MaaS星辰大海模式空間_第4頁(yè)
AI MaaS星辰大海模式空間_第5頁(yè)
已閱讀5頁(yè),還剩7頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

MaaS龍頭商業(yè)模式及價(jià)格梳理I商業(yè)式及價(jià)格除開(kāi)放給微軟商用外OpenI還提供其他四種收費(fèi)模式,分別是:hatGTus、(包括Fne-tunng和ebeddngodes、視頻/語(yǔ)音及odelnstance模式。ChatGPTPlus2023年2月1日,OeI官宣將推出atT的個(gè)人付費(fèi)訂閱服務(wù)“hatGTlus。用戶支付20美/月的費(fèi)用,即可享受高峰時(shí)段的優(yōu)先、更快的響應(yīng)速度以及優(yōu)先嘗鮮新功能等高級(jí)服務(wù)開(kāi)啟付費(fèi)功能后五天,付費(fèi)用戶突破百萬(wàn)。G-4發(fā)布后haGTlus會(huì)員可以體驗(yàn)G4模型,但使用受到限制。hatGTus向用戶開(kāi)放了提供兩個(gè)級(jí)別的G-3.5模型以及G-4模型用直觀可視化的方式對(duì)比了三個(gè)模型,可以看出G-4在推理能力和簡(jiǎn)潔方面的表現(xiàn)明顯優(yōu)于G-3.5。但是G-4的使用有4小時(shí)00條消息的制。根據(jù)4月5日的最新消息,由于需求量太大OpenI暫停了us的銷售。圖表1ChatGPTPlus提供的三種模型資料來(lái)源:OpenAI官網(wǎng),研究所I接口OpenAI主要提供GPT-4、GPT-3.5的API接口。2023年3月2日OpenAI宣布開(kāi)放GTP-3.5API接口,定價(jià)0.002美/千tokens,僅為原來(lái)GPT-3版本的90,基本取代了3.0版本模型。GPT-4的API接口于3月14日發(fā)布的同時(shí)開(kāi)放,需要申請(qǐng)才能訪問(wèn)網(wǎng),GPT-4目前有兩個(gè)長(zhǎng)度版本GPT-48k版本上下文對(duì)話長(zhǎng)度限制為8192個(gè)tokenGPT-4-32K版本長(zhǎng)度限制為32768個(gè)token。GPT4的AP接口目前需申請(qǐng)才能訪問(wèn),由于還在beta階段,GPT-4API的調(diào)用有頻次限制40ktokens/分鐘、200請(qǐng)求/分鐘。4圖表2GP-4不同版本模型模型名模型名稱 描述 最大token數(shù) 訓(xùn)練數(shù)據(jù)gpt-4 比GPT-3.5模型更強(qiáng)大,能夠執(zhí)行更復(fù)雜的任務(wù),并針對(duì)聊天場(chǎng)景行了優(yōu)化。會(huì)不斷迭代更新。

8,192 截至2021年6月gpt-4-0314

gpt-4的2023年3月14日快照版本。此模型在接下來(lái)3個(gè)月內(nèi)不會(huì)新,有效期截止2023年6月14日

8,192 截至2019年10月gpt-4-32k 與gpt-4功能相同,但上下文長(zhǎng)度是gpt-4的4倍。會(huì)不斷迭代更新。

32,768 截至2021年6月截至截至2019年10月32,768gpt-4-32k的2023年3月14日快照版本。此模型在接下來(lái)3個(gè)月內(nèi)會(huì)更新,有效期截止2023年6月14日。gpt-4-32k-0314資料來(lái)源:OpenAI官網(wǎng),研究所調(diào)用GPT的API按照token計(jì)費(fèi),GTP-3.5版本定價(jià)0.002美元/千tokens。GPT-3.5的輸入和生成的部分以相同方式計(jì)價(jià),而GPT-4調(diào)用時(shí)按Prompt輸入和Completion生成兩部分計(jì)費(fèi)8K和32K兩個(gè)版本的輸入對(duì)話部分收費(fèi)分別為每Ktokens0.03美元和0.06美元,對(duì)話生成部分收費(fèi)分別為每1Ktokens0.06美元和0.12美元圖表3GPT-4API調(diào)用收費(fèi)標(biāo)準(zhǔn)資料來(lái)源:OpenAI官網(wǎng),研究所根據(jù)OpenAI官網(wǎng)目前已有多家政企機(jī)構(gòu)接入GPT4實(shí)現(xiàn)賦能。圖表4接入GPT-4的企業(yè)/政府及其賦能方向接入機(jī)接入機(jī)構(gòu) 賦能方向 領(lǐng)域多鄰

選用GPT-4推出了兩個(gè)新功能來(lái)增強(qiáng)其產(chǎn)品:RolePlay(角色扮演),一個(gè)AI 教對(duì)話伙伴,以及ExplainmyAnswer(解釋我的答案)。Robocat 開(kāi)發(fā)了一款名為GPT-4動(dòng)力的虛擬志愿者,它可以在APP中生成與人類志愿者同的上下文和理解水平。

視覺(jué)輔助Stripe 支持定制、回答有關(guān)支持的問(wèn)題和欺詐檢測(cè)。 網(wǎng)絡(luò)支摩根士丹利 利用GPT-4驅(qū)動(dòng)一個(gè)內(nèi)部聊天機(jī)器,對(duì)財(cái)富管理內(nèi)容進(jìn)行全面搜索。 財(cái)富管可汗學(xué)

使用GPT-4為人工智能驅(qū)動(dòng)的助手Khanmigo提供動(dòng)力,Khanmigo既是學(xué)生的虛 教擬導(dǎo)師,也是教師的課堂助手。文化文化使用GPT-4來(lái)保護(hù)冰島語(yǔ),并將防御地位轉(zhuǎn)化為創(chuàng)新的機(jī)會(huì)。冰島政府資料來(lái)源:OpenAI官網(wǎng),研究所OpenAI還提供Fine-tuning和embeddingmodel的API接口。Fine-tuning微調(diào)GPT-3雖然被更強(qiáng)大的GPT-3.5代模型所取代,但是原始GPT-3基本模型(DavinciCurie、Ada和Babbage)是當(dāng)前唯一可用于微調(diào)的模型。用戶可以通過(guò)使用訓(xùn)練數(shù)據(jù)微調(diào)這四種基礎(chǔ)模型來(lái)創(chuàng)建自己的自定義模型。其中Ada是響應(yīng)最快的模型,而Davinci是最強(qiáng)大的。圖表5GP-3基本模型模模型 描述 參數(shù)規(guī)模 TOKENS上限 訓(xùn)練數(shù)據(jù)型號(hào)可以做的任務(wù),并且質(zhì)量更高。Curie功能較強(qiáng),比Davinci更快,成本更低。67型號(hào)可以做的任務(wù),并且質(zhì)量更高。Curie功能較強(qiáng),比Davinci更快,成本更低。67億2,049tokens截至2019年10月Babbage能夠直接完成任務(wù),速度快,成本更低。15億2,049tokens截至2019年10月

1750億 2,049tokens 截至2019年10月截至截至2019年10月2,049tokens12億能夠完成非常簡(jiǎn)單的任務(wù),是GPT-3系列速度最快的型號(hào),成本最低。Ada資料來(lái)源:OpenAI官網(wǎng),研究所模型微調(diào)涉及三個(gè)步驟:第一步為準(zhǔn)備和上傳訓(xùn)練數(shù)據(jù),第二步為訓(xùn)練新的微調(diào)模型,最后為使用微調(diào)模型模型訓(xùn)練后,用戶只需為在對(duì)該模型的請(qǐng)求中使用的tokens付費(fèi)。其中訓(xùn)練階段和使用階段采用不同標(biāo)準(zhǔn)收費(fèi)Ada、Babba、CurieDavinci訓(xùn)練收費(fèi)分別為每1Ktokens0.0004/0.0005/0.002/0.02美元,使用收費(fèi)分別為每1Ktokens0.0016/0.0024/0.012/0.12美元。圖表6四種微調(diào)模型微調(diào)收費(fèi)標(biāo)準(zhǔn)資料來(lái)源:OpenAI官網(wǎng),研究所Embedding嵌入:OpenAI嵌入功能可以用于搜索、聚類分析、建議、異常檢測(cè)、多樣性測(cè)量、分類等需求。嵌入僅支持ada模型,根據(jù)發(fā)送的輸入中的tokens數(shù)計(jì)費(fèi)每1Ktokens收費(fèi)0.0004美元。圖片/語(yǔ)音文生圖DALL·E:2021年1月發(fā)布,按生成量計(jì)費(fèi)。DALL·E可以根據(jù)自然語(yǔ)言的描述創(chuàng)建逼真的圖像和藝術(shù)。用戶將DALL·E直接構(gòu)建到應(yīng)用程序中就可以在給定文本提示的情況下創(chuàng)建原始圖像。該模型提供了根據(jù)文本提示從頭開(kāi)始創(chuàng)建圖像、根據(jù)新的文本提示編輯現(xiàn)有圖像以及創(chuàng)建現(xiàn)有圖像的變體三種與圖像交互的方法。生成的圖的大小有256x256、512x512、1024x1024三種分辨率,對(duì)應(yīng)的價(jià)格分別為每幅圖0.016、0.0180.02美元,較小的尺寸生成速度更快。圖表7DALL·E使用示例資料來(lái)源:DALL·E官網(wǎng),研究所圖表8DALL·E收費(fèi)標(biāo)準(zhǔn)資料來(lái)源:OpenAI官網(wǎng),研究所圖表9Whisper使用示

音轉(zhuǎn)文Whisper:2022年9月發(fā)布,按分鐘計(jì)費(fèi)。Whisper是一種通用語(yǔ)音識(shí)別模型,可以將音頻轉(zhuǎn)錄為音頻使用的任何語(yǔ)言,也可以將音頻翻譯并轉(zhuǎn)錄為英語(yǔ)。文件上傳目前限制為25MB,支持mp3、mp4、mpeg、mpg、am4、awa、vwebm文件類型。在支持的98種語(yǔ)言中阿拉伯語(yǔ)、中文、丹麥語(yǔ)、荷蘭語(yǔ)、英語(yǔ)、法語(yǔ)、德語(yǔ)、日語(yǔ)等57種語(yǔ)言的轉(zhuǎn)錄錯(cuò)誤率達(dá)到了以下收費(fèi)標(biāo)準(zhǔn)為每分鐘0.006美元。Modelinstane(/年費(fèi)租用模式)3月1日,OpenAI推出了售賣(mài)Modelinstance,即模型實(shí)例的新業(yè)務(wù)模式。起價(jià)26萬(wàn)4千美元一年該模式的特點(diǎn)為購(gòu)買(mǎi)之后模型示例將完全歸屬于用,用戶可以按照自己的要求,對(duì)它進(jìn)行有針對(duì)的微調(diào),使其具備需要的專業(yè)能力。與此相對(duì)應(yīng)OpenAI即將發(fā)布的產(chǎn)品Foundry將專門(mén)為單一客戶提供“靜態(tài)”的計(jì)算容量,并提供一定程度的版本控制,由客戶決定是否升級(jí)到更新的模型版本,為OpenAI的新模型提供更強(qiáng)大的微調(diào)。運(yùn)行單一模型實(shí)例需要租用特定數(shù)量的計(jì)算單元,這專用計(jì)算單元要按季度或年計(jì)算租金。季度付費(fèi)年度付費(fèi)模型實(shí)例單位季度付費(fèi)年度付費(fèi)模型實(shí)例單位/實(shí)例月租金總金額月租金總金額月租金總金額GPT-3.5Turbo 100$26,000$78,000$22,000$264,000DV(8Kmax 300$78,000$234,000$66,000$792,000DV(32Kmax 600$156,0005,468,000$132,000$1,584,000百度文心帆商業(yè)式及價(jià)格2023年3月16日百度發(fā)布文心一言2023年3月27日升級(jí)為文心千帆目前用戶可以通過(guò)邀請(qǐng)測(cè)試碼在文心一言官網(wǎng)進(jìn)行免費(fèi)體驗(yàn),文心一言API接口調(diào)用服務(wù)需要通過(guò)申請(qǐng)加入。除文心一言外,百度依托飛槳、文心大模型于2022年8月推出文生圖產(chǎn)品文心一格。使用文心一格部分功能及服務(wù)需要消耗電量,按生成性能和張數(shù)計(jì)費(fèi)。用戶可通過(guò)任務(wù)活動(dòng)、充值購(gòu)買(mǎi)等途徑獲取電量。根據(jù)李彥宏在發(fā)布會(huì)上的講述文心一言希望為企業(yè)客戶提供MaaS服務(wù)一方面,文心一言將通過(guò)百度智能云對(duì)外提供服務(wù),幫助企業(yè)構(gòu)建自己的模型和應(yīng)用,農(nóng)業(yè)、工業(yè)、金融、教育、醫(yī)療、交通、能源等重點(diǎn)領(lǐng)域,都會(huì)因此效率大幅提升,并在每一個(gè)行業(yè)快速形成新的產(chǎn)業(yè)空間,助力數(shù)字中國(guó)的實(shí)現(xiàn);另一方面,百度文心大模型已經(jīng)在電力、金融、媒體等領(lǐng)域,發(fā)布了10多個(gè)行業(yè)大模型,基于對(duì)行業(yè)的洞察,調(diào)用通用大模型能力,為行業(yè)客戶提供解決方案。2023年3月27日,百度文心一言升級(jí),企業(yè)級(jí)大模型服務(wù)平臺(tái)“文心千帆”發(fā)布百度文心千帆公布API模式定價(jià),推理云價(jià)格調(diào)用單價(jià)為1Ktokens0.012元,比ChatGPT便宜約0.0003美元。百度推出的文心千帆大模型平臺(tái),可企業(yè)提供推理、微調(diào)和托管服務(wù)。其中,推理云服務(wù)按量后付費(fèi),企業(yè)可以直接使用或云服務(wù)調(diào)用。根據(jù)OpenAI官方文檔,在ChatGPT中文模型中,一個(gè)中文字通常會(huì)被視為一個(gè)單獨(dú)的token,每個(gè)token使用的單位長(zhǎng)度是1。公司 產(chǎn)品 公司 產(chǎn)品 定價(jià)百度 文心千帆推理云 0.012元/千tokensGPT-3.5Turbo 0.002美元/千tokensOpenAI

GPT-4

輸入 0.03美元/千tokens輸出 0.06美元/千tokens資料來(lái)源:OpenAI官網(wǎng),甲子發(fā)現(xiàn),研究所AIMaaS是星辰大海:下游空間匡算從GC角度,目前海外文檔生成asper、otonI等均使用aaS模式計(jì)費(fèi),文生圖dourney、reamtudo、文生影騰訊智影等使用aaS會(huì)員免費(fèi)額度超額按量計(jì)費(fèi)的模式計(jì)費(fèi)。我們認(rèn)為,文檔生成、文生圖、文生影等I工具處于需求爆發(fā)階段,下游空間廣闊。文檔生成多采用aaS形式收費(fèi),如面營(yíng)銷領(lǐng)的內(nèi)容生成工具asper以及面向更通用文檔生成領(lǐng)域的oton。asper目已擁有超過(guò)10萬(wàn)用戶,分為月費(fèi)、按字?jǐn)?shù)收費(fèi)2B協(xié)商收費(fèi)3種定價(jià)模式,針對(duì)C端用戶29美元/20000詞/月的tarterode、針對(duì)中小型企業(yè)客戶的ossode(最低59美元/50000詞/月,最高600美元/700000詞/月)和usnessode(協(xié)商定價(jià)otonI目前收取10美元/月的訂閱費(fèi),用戶超過(guò)200萬(wàn)人。我們以百度文心千帆大模型提供推理云使用價(jià)格0.012元/千tokens為基,假設(shè)每月提供給C端每個(gè)用戶的合理額度約為20萬(wàn)-25萬(wàn)字(按平均每人每天六千-九千字產(chǎn)出估算asper在營(yíng)銷文案細(xì)分場(chǎng)景下,提供給C端用戶的月度額度為20000詞,按1個(gè)token=0.75英文單計(jì)算,額度實(shí)約為26667個(gè)tokenC端aaS服務(wù)的毛利率約為80,則我們認(rèn)對(duì)C端文檔生成訂閱月費(fèi)的合理價(jià)格約在1-15元/月。我國(guó)C端文檔生成的空間或達(dá)200億元以上根據(jù)中國(guó)互聯(lián)網(wǎng)絡(luò)信息中心(,截至2022年12月,我國(guó)網(wǎng)民規(guī)模達(dá)10.67億線上辦公用戶規(guī)模達(dá)億。假設(shè)I工具的付費(fèi)滲透率達(dá)到2040,每付費(fèi)用戶的年度付費(fèi)金額為180元(按月費(fèi)15元計(jì)算,則年付費(fèi)用戶數(shù)達(dá)到1.082.16億人(相關(guān):2022年金山S累計(jì)年度付費(fèi)個(gè)人用戶數(shù)為2997萬(wàn)人,則文檔生成類工具空間規(guī)模達(dá)到194389億元。圖表11C端文檔生成SaaS空間規(guī)??锼惆俣惹Х评碓普{(diào)用價(jià)格(千tokens) 0.012每月提供給C端每個(gè)用戶的額度(千字) 250每月每人調(diào)用成本(元) 3SaaS毛利率 80C端文檔生成合理訂閱月費(fèi)(元) 15ARPPU(元/年) 180在線辦公用戶規(guī)模(億人) 5.4AI工具付費(fèi)滲透率 20~40年付費(fèi)用戶數(shù)(億人) 1.08~2.16C端文檔生成類工具空間(億元) 194~389文生圖I作圖領(lǐng)域工具發(fā)展迅速,已能夠?qū)θ祟惍?huà)師形成一定程度上的替代。Midjourey推出5版本能通過(guò)文本生成逼真的畫(huà)師級(jí)圖像,質(zhì)量水平極高。dourney“出圈”代表“中國(guó)情”圖片,由于在光影、人物細(xì)節(jié)、氛圍感等方面的出色刻畫(huà),甚至被認(rèn)為是真實(shí)拍攝的老照片,而非I生成的圖片。dourney可以根據(jù)用戶輸入的文字提示,通過(guò)I產(chǎn)生相應(yīng)的圖,于2022年3月首次面世,每次迭代都會(huì)為生成的畫(huà)作增添細(xì)節(jié)dourneyv5相比前一本v4具有重大升級(jí)。圖像質(zhì)量更高、輸出更多樣化、有更廣泛的風(fēng)格、支持無(wú)縫紋理、有更寬的縱橫比、有更好的圖像提示以及更寬的動(dòng)態(tài)范圍。大幅優(yōu)化了此前無(wú)法準(zhǔn)確生成人物手部的問(wèn)題。以往I生成圖像無(wú)法正確渲染手部,可能會(huì)繪出7-10個(gè)手指,而dourneyv5可以準(zhǔn)確地畫(huà)出人手。圖表12MidjourneyV5繪制的中國(guó)情侶”圖表13MidjourneyV5可以準(zhǔn)確繪出人手目前商業(yè)化的I繪畫(huà)的服務(wù)產(chǎn)品幾乎不區(qū)分2B或,文生圖工具多使按需按量付費(fèi)或aaS會(huì)員免費(fèi)額超額按量計(jì)費(fèi)的模式計(jì)的模式。圖表14AI繪畫(huà)產(chǎn)品的收費(fèi)模式產(chǎn)品名產(chǎn)品名稱 收費(fèi)模式StableDiffusionMidjourney

模型開(kāi)源免費(fèi);DreamStudio及API:0.01歐/基礎(chǔ)調(diào)用10美元月:200次快速生+不限量的排隊(duì)生成;30美元月:900次快速生+不限量的排隊(duì)生成;4美/GPU小時(shí);600美/年的企業(yè)套餐Dalle 0.13美元/生成6pen 不限量的免費(fèi)排隊(duì)生成;付費(fèi)快速生成0.1人民幣根據(jù)6pen的估算,在未來(lái)五年全球圖片內(nèi)容可能有10-30為I生成或生,據(jù)此估算市場(chǎng)規(guī)??赡艹^(guò)600億。圖表15全球AI圖片生成市場(chǎng)規(guī)模估計(jì)我們從成本節(jié)省角度計(jì)算游戲領(lǐng)域使用文生圖I工具的市場(chǎng)空間根據(jù)伽馬數(shù)據(jù)2018年,中國(guó)游戲從業(yè)者約145萬(wàn);根據(jù)游戲陀螺,中國(guó)游戲運(yùn)研人員職位需求方美術(shù)崗占到28.10。假設(shè)游戲美術(shù)從業(yè)人員為30萬(wàn)人,其技術(shù)水平和薪資水平較低的2040可以被I工具替代,游戲領(lǐng)域使用文生圖I工具的市場(chǎng)空間能達(dá)到約0240億元。圖表16游戲領(lǐng)域使用文生圖AI工替代市場(chǎng)空匡算游戲從業(yè)人員(萬(wàn)人)30替換比率2040替換人員平均年薪(萬(wàn)元)1520替代空間(億元)90240同樣在廣告領(lǐng)域,根國(guó)家市場(chǎng)監(jiān)督管理總,2019年中國(guó)廣告行業(yè)從業(yè)人員數(shù)量約為593萬(wàn)人,假設(shè)其中從事平面設(shè)計(jì)的人員占15,其中技術(shù)水平和薪資水平較低的2040可以完全被I工具完全替代;另一方面,我們認(rèn)為,文生圖可以解決大部分的素材版權(quán)支出,根阿爾法工,2020年我國(guó)圖片版權(quán)市場(chǎng)估計(jì)為230億元,假設(shè)其中50可以被I工具替代則廣告領(lǐng)域使用文生圖I工具的市場(chǎng)空間能達(dá)到約40475億元。圖表17廣告領(lǐng)域使用文生圖AI工具替代市場(chǎng)空間匡算廣告行業(yè)從業(yè)人員(萬(wàn)人) 600平面設(shè)計(jì)人員占比 15替換比率 20~40替換人員平均年薪(萬(wàn)元) 7~10人力替代空間(億元) 125~360版權(quán)素材市場(chǎng)規(guī)模(億元) 230版權(quán)素材替換比例 50人力替代空間(億元) 115廣告領(lǐng)域文生圖AI工具市場(chǎng)空間 240~475文生影3月20日unay發(fā)布了世界首款多模態(tài)視頻工具G-2。G-2通過(guò)文字和圖像作為提示詞,就可以直接生成視,具有性能強(qiáng)、操作簡(jiǎn)便、效果出眾的特點(diǎn)。目前,unayG-2僅在官網(wǎng)提供功能演示,尚未開(kāi)啟內(nèi)測(cè)入口。收費(fèi)模式和商業(yè)化進(jìn)程,需持續(xù)關(guān)注unay官網(wǎng)的最新動(dòng)態(tài)。未來(lái)unayGen-2有望廣泛應(yīng)用于影視廣告、科普教育、藝術(shù)創(chuàng)作等領(lǐng)域,幫助用戶快速、高效地制作出豐富多彩的視頻內(nèi)容。圖表18GEN-2根據(jù)文本生成視頻圖表19GEN-2根據(jù)圖+文本生成視頻騰訊于3月30日發(fā)布了全新的I智能創(chuàng)作助——騰訊智,其中包影數(shù)字人、文章轉(zhuǎn)視頻和文本配音等I創(chuàng)作工具。其中智影數(shù)字是一項(xiàng)創(chuàng)新性的技術(shù),可通過(guò)上傳少量圖片、視頻和音頻素材,快速生成自己的數(shù)字人分身并定制音色通文章轉(zhuǎn)視頻功,智影就能將創(chuàng)作者輸入的文本和文章鏈接轉(zhuǎn)化成由網(wǎng)絡(luò)素材和I語(yǔ)音組成的視頻內(nèi)容。目前該功能暫時(shí)只支持娛樂(lè)類文章,后續(xù)還將有軍事、旅游、游戲、科技、體育、汽車(chē)、財(cái)經(jīng)、養(yǎng)生等領(lǐng)域。圖表20騰訊智影收費(fèi)標(biāo)

騰訊智影采用會(huì)員額超額按量計(jì)費(fèi)的商業(yè)模式專業(yè)版會(huì)需要訂閱元一年的服務(wù)費(fèi)用,可獲得每月30分鐘的數(shù)字生成時(shí)及其他智能工具的使用。根據(jù)中研網(wǎng)2021年我參與從事自媒體的人達(dá)到970萬(wàn)人,其全職人數(shù)達(dá)到370萬(wàn)人,兼職人數(shù)超過(guò)600萬(wàn);假設(shè)全職從業(yè)者I工具滲透率為4060,平均年付費(fèi)金額為8000元,兼職從業(yè)者I工具滲透率為2060%,平均年付費(fèi)金額為800元,則文轉(zhuǎn)影I工具在C端的市場(chǎng)空間達(dá)到128206億元。圖表21自媒體領(lǐng)域使用文生影AI工具的市場(chǎng)空匡算自媒體全職從業(yè)人員(萬(wàn)人)AI工具付費(fèi)滲透率40370~60ARPPU(/年)8000自媒體兼職從業(yè)人員(萬(wàn)人AI工具付費(fèi)滲透率20600~60ARPPU(/年)800C端文轉(zhuǎn)影AI工具空間(億元)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論