字節(jié)ai戰(zhàn)略全面復(fù)盤(pán)-華泰證券-202412_第1頁(yè)
字節(jié)ai戰(zhàn)略全面復(fù)盤(pán)-華泰證券-202412_第2頁(yè)
字節(jié)ai戰(zhàn)略全面復(fù)盤(pán)-華泰證券-202412_第3頁(yè)
字節(jié)ai戰(zhàn)略全面復(fù)盤(pán)-華泰證券-202412_第4頁(yè)
字節(jié)ai戰(zhàn)略全面復(fù)盤(pán)-華泰證券-202412_第5頁(yè)
已閱讀5頁(yè),還剩115頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2024年12o宏觀經(jīng)濟(jì)波動(dòng)。若宏觀經(jīng)濟(jì)波動(dòng),產(chǎn)業(yè)變革及新技術(shù)的落地節(jié)奏或?qū)⑹艿接绊?,宏觀經(jīng)濟(jì)波動(dòng)還可能對(duì)AI投入產(chǎn)生負(fù)面影響,從而導(dǎo)致整體行業(yè)增長(zhǎng)不及預(yù)1#概é?從AI戰(zhàn)略到AIà}#的“困境”?1)字節(jié)的“圍剿”。據(jù)數(shù)據(jù)分析機(jī)構(gòu)QuestMobile,字節(jié)豆包App今年9月的日活已達(dá)760萬(wàn),成為中國(guó)日活最大的AI產(chǎn)品;同為生產(chǎn)力場(chǎng)景的?智譜AI高峰期有1000多人,今年一度縮減上百人,不少交付、銷(xiāo)售人員離開(kāi);?零一萬(wàn)物調(diào)整了數(shù)十人的團(tuán)隊(duì),集中在產(chǎn)品和運(yùn)營(yíng)部門(mén);?MiniMax的商業(yè)化和部分產(chǎn)品運(yùn)營(yíng)團(tuán)隊(duì)總計(jì)減?4)月之“暗”面:?以前是好評(píng)如潮,但不知何時(shí)開(kāi)始,月之暗面被冠以“大模型營(yíng)銷(xiāo)咖?今年年初,月之暗面在海外推出情感陪伴類(lèi)AI對(duì)話(huà)產(chǎn)品Ohai和AI生成視頻工具Noisee。據(jù)創(chuàng)投日?qǐng)?bào)援引知情人士消息,其出海項(xiàng)目在今年6月就已撤掉。前Noisee產(chǎn)品負(fù)責(zé)人明超平、前Ohai產(chǎn)品負(fù)責(zé)人已于近期離職3的<困境=?據(jù)廣告營(yíng)銷(xiāo)數(shù)據(jù)平āDataEye,Kimi智能?手10o的÷放素材超18萬(wàn)條,是豆包的4倍多2但t前,豆包的日活和o活都更勝N籌,據(jù)QuestMobile,豆包App9oo活~4200多萬(wàn),Kimi智能?手~1000萬(wàn)出頭24大模型和產(chǎn)品進(jìn)展?1)截至11月初,百度文心大模型的日均調(diào)用量超15億次,相較5月披露的2億增長(zhǎng)7.5倍,相較一年前首次披露的5000萬(wàn)次,更是增長(zhǎng)約30倍。24年6月底,文心一言日調(diào)用token5億次;24年8月Q2電話(huà)會(huì)上,文心大模型日調(diào)用量超過(guò)6億次,日均處理Tokens文本超1萬(wàn)億。與23年Q4公布的5000萬(wàn)?2)24年5月,豆包每日調(diào)用token量達(dá)千億;7月25日,豆包大模型日均tokens使用量超5,000億;截至24年9月,豆包大模型日均tokens調(diào)用量已超1.3萬(wàn)億。?3)24年9月,MiniMax大模型已有?4)24年7月,騰訊混元單日調(diào)用tokens達(dá)千億>>>>>>…?據(jù)AI產(chǎn)品榜顯示,截止到今年9月,中國(guó)AI原生應(yīng)用月活用戶(hù)規(guī)模已經(jīng)突破了1.2億。其中,豆包、文小言、Kimi智能助手、天工AI、訊飛星火分別占據(jù)了前五位,MAU分別為4700萬(wàn)、1234萬(wàn)、738萬(wàn)、571萬(wàn)以及551萬(wàn)。豆包以一騎絕塵的姿態(tài),把后幾位選手遠(yuǎn)遠(yuǎn)甩在了身后。?MiniMax,旗下的Chatbot產(chǎn)品海螺AI也在近幾個(gè)月數(shù)據(jù)表現(xiàn)亮眼,其中,9月海螺AI的MAU同比增長(zhǎng)了超800%,已接近500萬(wàn)。5的AI之路?2023年字節(jié)正式進(jìn)軍大模型之前,于2016年模型+應(yīng)用?字節(jié)通過(guò)調(diào)動(dòng)部分技術(shù)和管理高管為這項(xiàng)業(yè)務(wù)加碼,加速構(gòu)建成熟的大模型體系,以期能夠在“百模大戰(zhàn)”競(jìng)爭(zhēng)中更快掌握主動(dòng)權(quán)。部分業(yè)務(wù)線(xiàn)的負(fù)責(zé)人相繼轉(zhuǎn)崗至大模型團(tuán)隊(duì),其中包括抖音社交負(fù)責(zé)人陸游。?字節(jié)成立新部門(mén)Flow,主攻AI應(yīng)用。字節(jié)抽調(diào)了大量高管人才掌舵,大模型團(tuán)隊(duì)的負(fù)責(zé)人朱文佳同時(shí)負(fù)責(zé)Flow的業(yè)務(wù)線(xiàn),字節(jié)技術(shù)副總裁洪定坤負(fù)責(zé)Flow的技術(shù)線(xiàn),字節(jié)產(chǎn)品與戰(zhàn)略副總裁朱駿負(fù)責(zé)該部門(mén)的產(chǎn)品線(xiàn),同時(shí)還有飛書(shū)的產(chǎn)品副總裁齊元俊加盟。?原抖音集團(tuán)CEO張楠辭任CEO一職,稱(chēng)未來(lái)將把精力聚焦在剪映的發(fā)展上。截止目前,剪映已經(jīng)上線(xiàn)了AI克隆音色、AI作圖、AI繪畫(huà)、AI生成口播等功能。同年2月1日,Coze(國(guó)內(nèi)2023.1?字節(jié)組建了首個(gè)大模型團(tuán)隊(duì)Seed,包括語(yǔ)言大模型團(tuán)隊(duì)和圖片大模型團(tuán)隊(duì)。?其中,語(yǔ)言大模型團(tuán)隊(duì)由字節(jié)搜索部門(mén)牽頭,圖片大模型團(tuán)隊(duì)由產(chǎn)品研發(fā)與工程架構(gòu)部下屬的智能創(chuàng)作團(tuán)隊(duì)牽頭。同時(shí),還從搜索業(yè)務(wù)部門(mén)、AILab和應(yīng)用機(jī)器學(xué)習(xí)團(tuán)隊(duì)抽調(diào)一部分人支援語(yǔ)言大模型,而且還將遠(yuǎn)在新加坡負(fù)責(zé)TikTok技術(shù)負(fù)責(zé)人朱文佳調(diào)回國(guó)內(nèi),擔(dān)任團(tuán)隊(duì)的業(yè)務(wù)負(fù)責(zé)人。2023.62023.8?云雀大模型正式發(fā)布,同時(shí)宣布開(kāi)始對(duì)外測(cè)試AI對(duì)話(huà)產(chǎn)品“豆包”。2023.92023.12?字節(jié)低調(diào)推出Coze(海外版),支持通過(guò)GPT-3.5(16K)和GPT-4(8K)來(lái)創(chuàng)建聊天機(jī)器人,以及可以使用DALLE3、GPT4V插件。2024.2模型注:Seed團(tuán)隊(duì)由原來(lái)的搜索團(tuán)隊(duì)、AILab團(tuán)隊(duì)、AML團(tuán)隊(duì)聯(lián)合而成,但實(shí)際上,這幾個(gè)團(tuán)隊(duì)都在暗自較勁。6?研發(fā):Seed團(tuán)隊(duì)。應(yīng)用:Flow團(tuán)隊(duì)。路線(xiàn):1)打磨階段,無(wú)流量?縱向:從23年8月推出豆包大模型(原云雀)以來(lái),截至24年6月,字節(jié)跳動(dòng)已經(jīng)推出了11款A(yù)I產(chǎn)品。橫向:國(guó)內(nèi)國(guó)外雙輪驅(qū)動(dòng)的產(chǎn)品發(fā)展戰(zhàn)略,即通過(guò)在海外市場(chǎng)先行測(cè)試產(chǎn)品,驗(yàn)證PMF和提升產(chǎn)品與技術(shù)的匹配度,以利于在國(guó)內(nèi)推出更成熟的AI?賽馬:幾乎所有的產(chǎn)品范式,都有字節(jié)參與的身影,幾乎是采用了「人盯人防守」的打法。?豆包,對(duì)標(biāo)ChatGPT、百度文心一言;?貓箱,對(duì)標(biāo)MiniMax旗下社交AI星野;?除了Flow和Seed團(tuán)隊(duì)外,字節(jié)跳動(dòng)還有兩個(gè)AI團(tuán)隊(duì):李航領(lǐng)導(dǎo)的AILab更側(cè)重于學(xué)術(shù)理論的探索,而項(xiàng)亮的團(tuán)隊(duì)則專(zhuān)注于Data-AML。?從內(nèi)部結(jié)構(gòu)來(lái)看,模型和算法歸屬于模型算法團(tuán)隊(duì)Seed,由朱文佳(曾任TikTok產(chǎn)品技術(shù)負(fù)責(zé)人)負(fù)責(zé);2023年11月成立的Flow團(tuán)隊(duì)主要負(fù)責(zé)打造C端產(chǎn)品,在最新的人事調(diào)動(dòng)中顯示,朱文佳為整體業(yè)務(wù)負(fù)責(zé)人、朱駿(原Music.ly創(chuàng)始人、原TikTok負(fù)責(zé)人)為產(chǎn)品負(fù)責(zé)人、洪定坤為技術(shù)負(fù)責(zé)人,向下包括豆包、AI教育、社區(qū)、國(guó)際化四個(gè)部門(mén),同時(shí)PC端和移動(dòng)端也分為兩條業(yè)務(wù)線(xiàn);而豆包大模型toB的商業(yè)化業(yè)務(wù)主要由火山引擎對(duì)外提供,并通過(guò)API的方式接入飛書(shū)。78(7日留存率)((7日留存率)豆包文小言(原文心一言)智譜清言訊飛星火騰訊元寶Kimi智能助手通義海螺AI秘塔AI搜索豆包文小言(原文心一言)智譜清言訊飛星火騰訊元寶Kimi智能助手通義海螺AI秘塔AI搜索6,0005,0004,0003,0002,0001,000060%50%60%50%智譜清言通義秘塔AI搜索騰訊元寶訊飛星火海螺AI40%30%20%40%30%20%數(shù)據(jù)來(lái)源:QuestMobile9主要AI?品的}戶(hù)情況(7日留`率)((7日留`率)星?貓箱70%星?貓箱70%星?貓箱60%50050%40040%30030%20020%00數(shù)據(jù)來(lái)源?QuestMobile(萬(wàn))文心一言通義千問(wèn)騰訊元寶百度搜索AI助手智譜清言秘塔AI搜索海螺AIKimi天工AI3,500字節(jié)豆包訊飛星火智譜清言秘塔AI搜索海螺AIKimi天工AI3,500Kimi3,000Kimi2,0001,5001,000---""---""500011月12月1月2月3月4月5月6月7月8月9月10月11月數(shù)據(jù)來(lái)源:Similarweb?1)聯(lián)網(wǎng)插件:提供頭條抖音同款搜索能力,實(shí)時(shí)連接海量?jī)?yōu)質(zhì)數(shù)據(jù),同時(shí)使用文本、圖像、語(yǔ)音等多模態(tài)交互方式,并通過(guò)業(yè)內(nèi)領(lǐng)先的意圖識(shí)別能力,大幅提升模型的信息獲取能力;2)內(nèi)容插件:提供頭條抖音同源海量?jī)?nèi)容,支持多模態(tài)交互,提供基于意圖的垂類(lèi)內(nèi)容信息檢索,內(nèi)容時(shí)效檢索更強(qiáng),幫助大模型深入理解、檢索和生成內(nèi)容;3)知識(shí)庫(kù)插件,提供毫秒級(jí)百億規(guī)模的高性能檢索,秒級(jí)流式知識(shí)庫(kù)索引更新,內(nèi)嵌豆包向量化模?智能體平臺(tái)、AI應(yīng)用開(kāi)發(fā)平臺(tái)Coze(扣子),集合海量AI資源、豐富的發(fā)布渠道、一鍵自定義API服務(wù),填補(bǔ)大模型到用戶(hù)場(chǎng)景的最后一公里?;鹕降膬?yōu)勢(shì)#2:擁有重要的投流渠道?字節(jié)旗下的巨量廣告,在工具應(yīng)用、其他應(yīng)用流量上占據(jù)優(yōu)勢(shì)。騰訊廣告騰訊百度營(yíng)銷(xiāo)磁力引擎四大流量平臺(tái)在投APP分布2024H1四大流量平臺(tái)行業(yè)投放分布2024H1數(shù)據(jù)來(lái)源:AppGrowing的`勢(shì)#3?擁p偏研究的á層技術(shù)智囊團(tuán)?豆包大模型團(tuán)隊(duì)?團(tuán)隊(duì)p立?2023年,?力?開(kāi)發(fā)業(yè)界最Y?的AI大模型技術(shù)2à該就是Seed2?à期T要的技術(shù)?SeedEdit,2024.11.11,從ā像T生p到ā像編輯2?豆包視頻生p模型,2024.9.24,高效的DiT融合?算W元,?更充V地壓縮編碼視頻P文本,à之全新??的擴(kuò)散模型ˉ?方法,帶來(lái)了多鏡頭W換保持N?能力2?Seed-Music,2024.9.18,統(tǒng)N框架能夠生pxp多種語(yǔ)言富p表ā力的人聲音P,允許ü模型輸出?ì精確的音符?別調(diào)整,并e供將}戶(hù)自y的聲音?p到音P]作中的能力等2?很多研究p果都在__節(jié)的AI?品中à},比如視頻生p模型和語(yǔ)音模型2##大模型家族大模型家族?火山引???調(diào)}豆包全家桶模型2按模型類(lèi)別和token收費(fèi)2模型è理模型è理模型微調(diào)?LoRAā模型W元?包小時(shí)或oāDoubao-lite-4kDoubao-lite-128kDoubao-pro-32kDoubao-pro-128kDoubao-pro-256k大模型家族?豆包模型24年5月正式發(fā)布時(shí)即定了很低的價(jià)格,參與了Deepseek引發(fā)的國(guó)產(chǎn)大模型“價(jià)格戰(zhàn)”。大模型家族?豆包模型24年5月正式發(fā)布時(shí)即定了很低的價(jià)格,參與了Deepseek引發(fā)的國(guó)產(chǎn)大模型“價(jià)格戰(zhàn)”。大模型關(guān)鍵時(shí)間線(xiàn)23.8?字節(jié)的云雀大模型正式發(fā)布,并同時(shí)上線(xiàn)AI對(duì)話(huà)產(chǎn)品“豆包”,云雀大模型成為豆包等后續(xù)一系列AI產(chǎn)品背后的“底座”24.8.17?字節(jié)跳動(dòng)類(lèi)ChatGPT產(chǎn)23.12?字節(jié)在海外上線(xiàn)全新AI聊天機(jī)器人開(kāi)發(fā)平臺(tái)Coze,支持無(wú)代碼生成AIBot、且直接整合了GPT4的強(qiáng)大會(huì)話(huà)能力。24.2?Coze的國(guó)內(nèi)版本命名為"扣子"于2024年2月初上線(xiàn)、底層基于云雀大模型。Coze平臺(tái)集成了多種插件,覆蓋了搜索、新聞閱讀、資料查找、旅行規(guī)劃、生產(chǎn)力工具等多個(gè)領(lǐng)域,支持一鍵發(fā)布聊天機(jī)器人到各種社交/社區(qū)平臺(tái),讓非技24.5.16?豆包大模型正式發(fā)布。共包含9大模型,覆蓋用戶(hù)不同使用場(chǎng)景,包括:通用模型Pro、通用模型Lite、語(yǔ)音識(shí)別模型、語(yǔ)音合成模型、聲音復(fù)刻模型、角色扮演模型、Functioncall模型、文生圖模型、向量化模型。術(shù)人員可以快速創(chuàng)建、調(diào)試和優(yōu)化AI聊天機(jī)器人。24.5.18?豆包的桌面端發(fā)布,用戶(hù)不僅可以通過(guò)傳統(tǒng)的Web端訪問(wèn),還能以桌面客戶(hù)端和瀏覽器插件的方式使用豆包。24.8.17?字節(jié)跳動(dòng)類(lèi)ChatGPT產(chǎn)24.7.4?“豆包大模型萬(wàn)億Tokens免24.824.8.8?豆包發(fā)布音樂(lè)生成功能。24.9.24?字節(jié)發(fā)布中國(guó)版Sora,豆包AI視頻模型(豆包PixelDance模型與Seaweed模型)。?豆包同聲傳譯模型發(fā)布?主力模型“豆包通用模型pro”完成升級(jí)24.11.11?豆包AIP圖功能發(fā)布24.12.5?豆包支持一鍵生成帶有指定文字的圖片24.12.10?豆包電腦版視頻生成功能開(kāi)啟20?對(duì)于Γ豆包」基本問(wèn)答、常識(shí)問(wèn)答、寫(xiě)作能力和數(shù)學(xué)能力四個(gè)方面進(jìn)行了簡(jiǎn)單測(cè)試,發(fā)現(xiàn)主要具備自然語(yǔ)言處理、知識(shí)回答、語(yǔ)言翻譯、文本摘要、常識(shí)問(wèn)答能力寫(xiě)作能力數(shù)學(xué)能力基本問(wèn)答能力常識(shí)問(wèn)答能力寫(xiě)作能力數(shù)學(xué)能力基本問(wèn)答能力摘要、情感分析幾大能力21?豆包模型l式發(fā)a,?格P?平均95%?5o15日,__節(jié)在24春季火山引?Force原ú力大bP,l式發(fā)a了豆包大模型?原]?雀ā,共9種2豆包大模型從1.0?W到3.02?通}ā礎(chǔ)模型?ProPQ文128K,全系列?微調(diào)āLitep較快的響à速t2x體參數(shù)未知,無(wú)評(píng)測(cè)V數(shù)2??格T]新P?PQ文ā32K窗口尺?,Pro?格0.0008元/千tokens,比ì業(yè)?格P99.3%ā128K窗口尺?,Pro?格0.005元/千tokens,比ì業(yè)?格P95.8%2?注?PGPT-4相üà的PQ文窗口?格API?格相比ā降?的背^主要原因是技術(shù)P??áā,?p很多手段繼續(xù)降p本,O?損2?截ó24年5o,豆包大模型日均處理1,200?tokens文本1生p3,000萬(wàn)張āw2豆包o活}戶(hù)達(dá)到2,600萬(wàn),tp超過(guò)800萬(wàn)個(gè)智能體被]建2豆包通}模型pro?__節(jié)跳ú自研LLM模型__業(yè)x,支持128k長(zhǎng)文本,全系列?精調(diào),x備更強(qiáng)的理解1生p1邏輯等綜合能力,適配t答1總?1]作1V類(lèi)等豐富場(chǎng)oā豆包通}模型lite?__節(jié)跳ú自研LLM模型輕àx,ü比__業(yè)xe供更Ptokenp本1更P延?,~企業(yè)e供靈活āo豆包.角色扮演模型?個(gè)性W的角色]作能力,更強(qiáng)的PQ文感知和劇情èú能力,滿(mǎn)足靈活的角色扮演需求ā豆包.語(yǔ)音合p模型?e供自然生ú的語(yǔ)音合p能力,善?表達(dá)多種情ā,演ā多種場(chǎng)oā豆包.聲音復(fù)刻模型?5ú即?áā聲音1:1克隆,ü音色相似t和自然t?ì高t?原,支持聲音的跨語(yǔ)種遷移ā豆包.語(yǔ)音識(shí)別模型?更高的準(zhǔn)確率?靈敏t,更P的語(yǔ)音識(shí)別延?,支持多語(yǔ)種的l確識(shí)別ā豆包.文生ā模型?更精準(zhǔn)的文__理解能力,ā文{配更準(zhǔn)確,畫(huà)面效果更`美,擅長(zhǎng)ü中?文W元素的]作ā豆包.Functioncall模型?e供更à準(zhǔn)確的?能識(shí)別和參數(shù)抽×能力,適合復(fù)gyx調(diào)}的場(chǎng)oā豆包.UàW模型?聚焦Uà檢索的使}場(chǎng)o,~LLM知識(shí)?e供核心理解能力,支持多語(yǔ)言222?2024年5月16日,豆包大模型正式發(fā)布。共包含9大模型,覆蓋用戶(hù)不同使用場(chǎng)景,包括:通用模型Pro、通用模型Lite、語(yǔ)音識(shí)別模型、語(yǔ)音合成模23豆包通用模型pro:解、生成、邏輯等綜合能力,適配問(wèn)答、總結(jié)、創(chuàng)作、分類(lèi)等豐富場(chǎng)景;字節(jié)跳動(dòng)自研LLM模型輕量版,對(duì)比專(zhuān)業(yè)版提供更低token成本、更低延遲,為企豆包.角色扮演模型:個(gè)性化的角色創(chuàng)作能力,更強(qiáng)的上下文感知和劇情推動(dòng)能力,滿(mǎn)足靈活的角色扮演需求;豆包.語(yǔ)音合成模型:提供自然生動(dòng)的語(yǔ)音合成能力,善于表達(dá)多種情緒,演繹多種場(chǎng)景;豆包.聲音復(fù)刻模型:5秒即可實(shí)現(xiàn)聲音1:1克隆,對(duì)音色相似度和自然度進(jìn)行高度還原,支持聲音的跨語(yǔ)種遷移;豆包.語(yǔ)音識(shí)別模型:更高的準(zhǔn)確率及靈敏度,更低的語(yǔ)音識(shí)別延遲,支持多語(yǔ)種的正確識(shí)別;豆包.文生圖模型:更精準(zhǔn)的文字理解能力,圖文匹配更準(zhǔn)確,畫(huà)面效果更優(yōu)美,擅長(zhǎng)對(duì)中國(guó)文化元素豆包.Functioncall模型:提供更加準(zhǔn)確的功能識(shí)別和參數(shù)抽取能力,適合復(fù)雜工具調(diào)用的場(chǎng)景;豆包.向量化模型:聚焦向量檢索的使用場(chǎng)景,為L(zhǎng)LM知識(shí)庫(kù)提供核心理解能力,支持多語(yǔ)言。24字節(jié)跳動(dòng)產(chǎn)品與戰(zhàn)略副總裁朱駿:“大模型的能力目前很多維度上讓人驚嘆,但也在很多維度上有缺陷,同時(shí)又在快速演進(jìn),每隔三個(gè)月、半年都會(huì)發(fā)生很大的變化。而且它的能力改進(jìn)往往不是線(xiàn)性的,隔一段時(shí)間可能就會(huì)出現(xiàn)一個(gè)躍遷。所以做大模型應(yīng)用一個(gè)很大的挑戰(zhàn)是,在這個(gè)動(dòng)態(tài)發(fā)展的過(guò)程中,不僅要判斷大模型現(xiàn)在能解決好什么任務(wù),同時(shí)可能更重要的是要嘗試預(yù)測(cè)豆豆包產(chǎn)品設(shè)計(jì)三大原則擬人化擬人化“擬人化”是大模型產(chǎn)品的新特性?!皵M人化”是大模型產(chǎn)品的新特性。AI除了帶來(lái)了新的能力,也帶來(lái)了新的嵌入用戶(hù)使用環(huán)境嵌入用戶(hù)使用環(huán)境需要離用戶(hù)很近,隨時(shí)伴隨用戶(hù),嵌入用戶(hù)的不同使用環(huán)境需要離用戶(hù)很近,隨時(shí)伴隨用戶(hù),嵌入用戶(hù)的不同使用環(huán)境用戶(hù)身邊,而不是用戶(hù)到豆包身邊。例如:為了讓豆包在這種移動(dòng)場(chǎng)景里交互更方便,像一個(gè)隨身攜帶的百事通,我們很早投入了很大力度優(yōu)化語(yǔ)音交互體驗(yàn),包括基于大模型的ASR和超自然的TTS音色,盡量做到個(gè)性化個(gè)性化性化的需求,在智能體世界里,我們覺(jué)得未來(lái)用能體(比如豆包)做最高頻的互動(dòng),解決很多任務(wù);但是也會(huì)因?yàn)閭€(gè)性化、多樣化的需要,和很多其他的智能體互動(dòng)。25大模型能力測(cè)評(píng)?在多個(gè)|開(kāi)評(píng)測(cè)???__業(yè)的第O方評(píng)測(cè)中,豆包通}模型pro均表ā出__,是得V最高的??大模型226?2024年5月18日,字節(jié)跳動(dòng)旗下的大語(yǔ)言模型“豆包”迎來(lái)了一次全面升級(jí),力求做到一個(gè)應(yīng)用涵蓋所有功能,從文本閱讀理解與總結(jié)、寫(xiě)作輔助,到?用戶(hù)不僅可以通過(guò)傳統(tǒng)的Web端訪問(wèn),還能以桌通過(guò)桌面端和Chrome插件,可以體驗(yàn)到AI劃詞功能可以通過(guò)劃詞功能,逐行解釋代碼,還可以進(jìn)一步對(duì)劃詞部分的代碼進(jìn)行提問(wèn)27?主要功能包括:AI寫(xiě)作、圖像生成、AI搜索、PDF問(wèn)答、AI翻譯與網(wǎng)頁(yè)摘要。4.PDF問(wèn)答功能,支持上傳文件和添加PDF兩種方式,目前只支持上傳一個(gè)不超過(guò)28?可以在看視頻時(shí)打開(kāi)AI看視頻功能,可以幫助總結(jié)視頻重點(diǎn),也可以邊看邊提問(wèn);可以使用快捷鍵將電腦自帶搜索功能變成AI搜索;2.將電腦自帶搜索功能變成AI搜索4.可以對(duì)任何內(nèi)容進(jìn)行“劃詞AI搜索”6.將鼠標(biāo)懸停在某個(gè)段落上,豆包會(huì)自動(dòng)選中內(nèi)2.將電腦自帶搜索功能變成AI搜索4.可以對(duì)任何內(nèi)容進(jìn)行“劃詞AI搜索”29?2024年7月4日,“豆包大模型萬(wàn)億Tokens免費(fèi)用”活動(dòng)發(fā)布,該活動(dòng)由火山引擎提供資源支持,助力高校及科研機(jī)構(gòu)師生參與Al大模型創(chuàng)新應(yīng)用和學(xué)術(shù)30模型等新?能發(fā)a?2024年8o,2024火山引?AI]新巡展?p都站P__節(jié)ya豆包日均tokens使}à突破5000?,\時(shí)發(fā)a豆包?ā生ā模型1升?x豆包?文生ā模型1升?x豆包?語(yǔ)音合p模型1升?x豆包?聲音復(fù)刻模型2?主要升???在數(shù)據(jù)P,團(tuán)隊(duì)持續(xù)à強(qiáng)數(shù)據(jù)Re-caption能力,ü數(shù)據(jù)?ì精確打o?áāü數(shù)據(jù)°à更高把?2面U大批à數(shù)據(jù)?ì管理和處理,團(tuán)隊(duì)?üˉ??群穩(wěn)定性__?ì了`W2?文本理解模塊,團(tuán)隊(duì)采}原生Y語(yǔ)大語(yǔ)言模型作~文本編碼器,顯著e升ü中文的理解能力2它能擁p更廣泛的世界知識(shí)并üO\語(yǔ)言tā形pā礎(chǔ)認(rèn)知,換而言之,無(wú)論面ü中文特色}語(yǔ),?是英語(yǔ)俚語(yǔ),語(yǔ)言模型都能e供更準(zhǔn)確的TextEmbedding,讓模型能夠精準(zhǔn)的學(xué)`原始的文W元素2?部署è理方面,團(tuán)隊(duì)使}蒸餾方式,解?模型è理耗時(shí)t題,?áā在更P部署?境Q,完p高°à的āw生p2從數(shù)據(jù)P看,他們將原p模型生pā像n數(shù)簡(jiǎn)W,消耗時(shí)長(zhǎng)壓縮到原p40%2新N?模型能夠深t理解復(fù)gprompt,包括多主體1Tāá1主ü體s系等內(nèi)容,ā文{配更精準(zhǔn)2新N?模型__更善?從Z影明暗1氛圍色彩和人物美感O個(gè)方Ue升畫(huà)面°感2模型的á層技術(shù),都s聯(lián)Seed-TTS1Seed-ASRn個(gè)模型2TTS模型是機(jī)器的<嘴巴=,那ASR模型[üà<耳朵=本身大模型就擁p建模并e×大數(shù)據(jù)特à的能力,使得語(yǔ)音特à得?保留,TàPRL1數(shù)據(jù)增強(qiáng)1更好的文本o注1文本表à,強(qiáng)W了特定層面的表ā2語(yǔ)言模型穩(wěn)定性方面,團(tuán)隊(duì)在token,模型??,解碼策略,數(shù)據(jù)準(zhǔn)備P?ì了多方面的探索,真l做到了y業(yè)?à}的要求231?2024年8月8日,豆包發(fā)布音樂(lè)生成功能。32?2024年9月24日,字節(jié)發(fā)布中國(guó)版Sora,豆包AI視頻模型(豆包PixelDance模型與Seaweed模型)。高效的DiT融合計(jì)碼視頻與文本,加之全新設(shè)計(jì)的擴(kuò)散模型訓(xùn)練方法,帶來(lái)了多鏡頭切換保持一致能力。在此基礎(chǔ)上,團(tuán)隊(duì)還優(yōu)化了擴(kuò)散模型訓(xùn)練框架和Tra構(gòu),大幅提升視頻生成的泛化性。?精準(zhǔn)語(yǔ)義理解,多主體、動(dòng)作交互:豆包視頻生成模型可以遵從復(fù)雜的用戶(hù)提示詞,精確理解語(yǔ)義關(guān)系,解鎖時(shí)序性多拍動(dòng)作指令與多個(gè)主體間的交?強(qiáng)大動(dòng)態(tài)與酷炫運(yùn)鏡:運(yùn)鏡是視頻語(yǔ)言的關(guān)鍵之一。豆包視頻生成模型可以讓視頻在主體的大動(dòng)態(tài)與鏡頭中炫酷切換,擁有變焦、環(huán)繞、平搖、縮放、目標(biāo)跟隨等多鏡頭話(huà)語(yǔ)言能力,靈活控制視角,帶來(lái)真實(shí)世界的體?一致性多鏡頭生成,10秒講述完整故事:一致性多鏡頭生成是豆包視頻生成模型的一項(xiàng)特色能力。在一句提示詞內(nèi),實(shí)現(xiàn)多個(gè)鏡頭切換,同時(shí)保持主33?豆包同聲傳譯模型發(fā)布:2024年9月24日,豆包同聲傳譯模型發(fā)布。豆包同聲傳譯模型采用端到端的模型架構(gòu),讓翻譯高精準(zhǔn)、高質(zhì)量,時(shí)延更低,還豆包同聲傳譯模型豆包通用模型pro能力升級(jí)343536?2024年12月10日,豆包電腦版視頻生成功能開(kāi)啟內(nèi)測(cè)。內(nèi)測(cè)申請(qǐng)通過(guò)后,打開(kāi)選擇37##Coze:字節(jié)的智能體開(kāi)發(fā)平臺(tái)扣子Coze的部分集成插件扣子Coze的全球總訪問(wèn)量39愛(ài)學(xué):字節(jié)AI+教育?豆包愛(ài)學(xué)是AI教育應(yīng)用,利用人工智能技術(shù)提供拍照搜題、AI講題、作業(yè)批改、作文指導(dǎo)等功能,幫助學(xué)生個(gè)性化地解決學(xué)習(xí)難題,提升寫(xiě)作能力,豆包愛(ài)學(xué)功能介紹40貓箱網(wǎng)頁(yè)端界面貓箱部分使用功能41即夢(mèng)AI網(wǎng)頁(yè)端界面42規(guī)劃:對(duì)話(huà)類(lèi)應(yīng)用只是中間態(tài),提升即夢(mèng)優(yōu)先級(jí)?字節(jié)跳動(dòng)對(duì)AI對(duì)話(huà)類(lèi)產(chǎn)品(如豆包)的市場(chǎng)表現(xiàn)持謹(jǐn)慎態(tài)度,認(rèn)為其使用時(shí)長(zhǎng)、打開(kāi)頻次和商業(yè)化潛力未達(dá)預(yù)期,因此判斷這類(lèi)產(chǎn)品可能只是AI發(fā)展?字節(jié)跳動(dòng)內(nèi)部數(shù)據(jù)顯示,豆包等AI對(duì)話(huà)產(chǎn)品用戶(hù)活躍度不高,且增長(zhǎng)幅度有限。管理層認(rèn)為,基于文本的對(duì)話(huà)類(lèi)產(chǎn)品可能不是最理想的產(chǎn)品形態(tài),因?即夢(mèng)作為AI創(chuàng)作工具和社區(qū),具備AI工具和內(nèi)容社區(qū)屬性,已吸引了大量AI創(chuàng)作者。字節(jié)跳動(dòng)計(jì)劃將更多資源轉(zhuǎn)移到這種多模態(tài)產(chǎn)品形態(tài)上,預(yù)計(jì)即夢(mèng)將承擔(dān)更大的期望,特別是在視覺(jué)生成和AI功能方面。同時(shí),字節(jié)跳動(dòng)也在探索其他低交互門(mén)檻的多模態(tài)嘗試,如貓箱,其用戶(hù)對(duì)話(huà)輪數(shù)遠(yuǎn)超豆即夢(mèng)AI網(wǎng)頁(yè)端界面43#內(nèi)外發(fā)力探索大模型e硬t?合路?#?字節(jié)內(nèi)外雙路徑探索AI與硬件結(jié)合:通過(guò)AI硬件團(tuán)隊(duì)自研、投資或與外部公司合作進(jìn)行AI硬件產(chǎn)品的開(kāi)發(fā)。?1)24年10月,智能耳機(jī)OlaFriend上市,產(chǎn)品由開(kāi)放式耳機(jī)品牌Oladance研發(fā),且該公司于24年8月由字節(jié)100%控股。?3)24年4月,李未可MetaLensChatAI眼鏡發(fā)布,同年7月,該產(chǎn)品在全國(guó)50家博士眼鏡門(mén)店首發(fā)。21年年底,字節(jié)投資AI技術(shù)及智能眼鏡研發(fā)商“李?4)21年9月,字節(jié)收購(gòu)VR頭銜團(tuán)隊(duì)PICO,該團(tuán)隊(duì)稱(chēng)于23年底開(kāi)始研發(fā)多款新的搭載豆包大模型的穿戴設(shè)備。24年5月,火山引擎FORCE原動(dòng)力大會(huì),字節(jié)對(duì)外展示3款外部合作方開(kāi)展的AI硬件產(chǎn)品,包括機(jī)器狗、學(xué)習(xí)機(jī),以及學(xué)習(xí)機(jī)器人。2019年?字節(jié)開(kāi)始嘗試硬件,收購(gòu)錘子科技?原錘子科技團(tuán)隊(duì)組建新石實(shí)驗(yàn)室,推出大力智能燈和寫(xiě)字板等教育硬件2021年?字節(jié)收購(gòu)PICO,投資智能眼鏡研發(fā)商“李未可”等公司?原錘子科技團(tuán)隊(duì)組建新石實(shí)驗(yàn)室,推出大力智能燈和寫(xiě)字板等2022年?字節(jié)收購(gòu)Kayden的硬件公司部分團(tuán)隊(duì)和專(zhuān)利,并入AI硬件團(tuán)隊(duì)2023年?8月字節(jié)上線(xiàn)AI應(yīng)用豆包APP,歸屬于Flow產(chǎn)品矩陣,其中包括豆包、Coze(海外版)、圖片生成產(chǎn)品星繪等2024年?字節(jié)100%股權(quán)收購(gòu)大十科技,該公司2022年推出第一代Oladance耳機(jī)?4月,李未可MetaLensChatAI眼鏡發(fā)布?9月,字節(jié)推出“顯眼包”AI陪伴玩具?10月,智能耳機(jī)OlaFriend上市45riend:讓豆包,成為隨時(shí)陪伴耳邊的朋友?10月17日,OlaFriend正式開(kāi)售。截至24年12月11日,產(chǎn)品抖音旗艦店累計(jì)銷(xiāo)售3400件,京東旗艦店累計(jì)銷(xiāo)售超5000件,淘寶旗艦店累計(jì)銷(xiāo)售超旅行導(dǎo)游:即時(shí)講解旅途中遇到的植物、名勝、建筑、美食46包”AI陪伴玩具:激發(fā)教育和陪伴新功能?24年9月字節(jié)中秋禮品包含顯眼包AI毛絨玩具,該產(chǎn)品并未對(duì)外發(fā)售。使用說(shuō)明書(shū)中提及:“顯眼包是一款基于大模型開(kāi)發(fā)的情感陪伴玩偶,集合多項(xiàng)人工智能技術(shù),入豆包大模型、扣子專(zhuān)業(yè)版、語(yǔ)音識(shí)別、語(yǔ)音合成等?!?玩偶內(nèi)嵌FoloToy的大模型AI機(jī)芯Magicbox,該機(jī)芯可以搭載并呈現(xiàn)豆包大模型和扣子專(zhuān)業(yè)版的能力。Magicbox通過(guò)內(nèi)置AI對(duì)話(huà)芯片可以實(shí)現(xiàn)智能對(duì)話(huà),回答問(wèn)題、講故事、播放?FoloToy旗下還有多款旗艦AI智能對(duì)話(huà)機(jī)器人,如Fofo火火兔搭載一款經(jīng)過(guò)改造的AI芯片能夠?qū)崿F(xiàn)記住對(duì)話(huà)上下文并實(shí)現(xiàn)智能對(duì)話(huà)。FoloToy由王樂(lè)和郭興華于2023年7月成立,暫無(wú)字節(jié)跳動(dòng)等外部股東入股。兩人均為科技領(lǐng)域連續(xù)創(chuàng)業(yè)者,王樂(lè)兼任幣探索FoloToy八爪魚(yú)套件Octopus芯片能夠放入任何類(lèi)型玩具,使玩具具有智能對(duì)話(huà)功能,具有極強(qiáng)的兼容性、交互性FoloToyToB業(yè)務(wù)為企業(yè)提供定制玩具,ToC業(yè)務(wù)為消費(fèi)者提供IP合作玩具,截至2447?李未可自研WAKE-AI大模型平臺(tái),實(shí)現(xiàn)“真人助理”體驗(yàn)?1)分發(fā)大模型+Agent:分發(fā)大模型通過(guò)語(yǔ)音輸入來(lái)快速分發(fā)用戶(hù)意圖,降低AI眼鏡調(diào)用大模型時(shí)延至1.8秒左右(豆包等語(yǔ)音對(duì)話(huà)在2秒),復(fù)雜交互縮短至3-5秒。大模型支持的AIAgent功能能夠快速執(zhí)行可能存在的剛需意圖,如導(dǎo)航、買(mǎi)票、備忘錄等。?2)情感大模型和擬人化:根據(jù)核心記憶和長(zhǎng)期記憶更新用戶(hù)畫(huà)像,并且打造擬人化語(yǔ)氣,使得模型對(duì)客戶(hù)更加?3)多模態(tài)和LBS能力:模型能夠?qū)崿F(xiàn)室外項(xiàng)目的智能導(dǎo)覽,理解和?李未可AI智能體融合各種Gen-Z聊天對(duì)話(huà)類(lèi)型,同時(shí)包括字節(jié)扣子AI智能體開(kāi)發(fā)平臺(tái)。48或?qū)⒂H自Q場(chǎng)做AI智能眼鏡?MetaRay-Ban智能眼鏡獲得?段性p?,海外大廠Google1Apple均?劃入局2?__節(jié)或__p類(lèi)似?劃249#w他?品?研究論文#?24年6月,字節(jié)于北京召開(kāi)豆包MarsCode發(fā)布大會(huì),豆包MarsCode針對(duì)具有超強(qiáng)的原生AI能力和安全可靠的云開(kāi)發(fā)環(huán)境,支持豐富的編輯語(yǔ)言和主?豆包MarsCode具有超強(qiáng)的原生AI能力。1)代碼補(bǔ)全功能:豆包MarsCode可在編碼過(guò)程中提供當(dāng)行或多行代碼推薦,并支持通過(guò)注釋生成代碼片段,由此提升代碼編寫(xiě)速度。2)代碼解釋功能:豆包MarsCode可幫助開(kāi)發(fā)者理解項(xiàng)目倉(cāng)庫(kù)既有內(nèi)容,從而降低上手難度。3)AI問(wèn)答功能:豆包MarsCode對(duì)代碼編譯領(lǐng)域內(nèi)容進(jìn)行針對(duì)性?xún)?yōu)化研發(fā),能夠提供更為準(zhǔn)確的問(wèn)答結(jié)果。4)代碼生成功能:豆包MarsCode可智能理解自然語(yǔ)言并快速生成代碼,提供“在編輯器中寫(xiě)入”的原生交互體驗(yàn)。5)錯(cuò)誤修復(fù)功能:豆包MarsCode可以快速發(fā)現(xiàn)代碼中的問(wèn)題并給出智能優(yōu)化建議,從而提升超強(qiáng)原生AI能力超強(qiáng)原生AI能力AI問(wèn)答豆包MarsCodeAI問(wèn)答豆包MarsCode錯(cuò)誤修復(fù)錯(cuò)誤修復(fù)提供學(xué)習(xí)資源和資料提供學(xué)習(xí)資源和資料51?豆包MarsCode支持支持多編輯語(yǔ)言及IDLE。豆包MarsCode支持超過(guò)100種編程語(yǔ)言,兼容VSCode和JetBrains代碼編輯器。開(kāi)發(fā)者無(wú)需配置開(kāi)發(fā)超強(qiáng)原生AI能力豆包MarsCode從模板創(chuàng)建從Git導(dǎo)入提供學(xué)習(xí)資源和資料52?2024年8月8日,字節(jié)豆包旗下的AI音樂(lè)生成工具海綿音樂(lè)開(kāi)啟內(nèi)測(cè),海綿音樂(lè)是一款面向普通消費(fèi)者的免費(fèi)AI音樂(lè)創(chuàng)作和分享平臺(tái),主打利用人工AI音樂(lè)創(chuàng)作工具——RippleAI音樂(lè)生成工具——海綿音樂(lè)53生p和識(shí)別模型Seed-TTS/Seed-ASR?6o24日,豆包大模型團(tuán)隊(duì)發(fā)a語(yǔ)音生pā?模型Seed-TTS,包含N系列大規(guī)模自回__文本到語(yǔ)音(Text-to-Speech,TTS)模型,按文本生p和人類(lèi)語(yǔ)音幾N無(wú)法|V的語(yǔ)音,在虛擬?手1p聲書(shū)1視頻配音等à}領(lǐng)域xpT要潛力,t前tà}到豆包?品線(xiàn)2?7o10日,豆包大模型團(tuán)隊(duì)發(fā)a語(yǔ)音識(shí)別模型Seed-ASR,?將各種語(yǔ)音轉(zhuǎn)W~文本信息,例如__業(yè)領(lǐng)域1語(yǔ)言1口音等āSeed-ASRt在豆包APP中à}?英語(yǔ)b話(huà)1虛擬聊y伴侶1復(fù)刻親ü聲音等場(chǎng)oāü?企業(yè)ü戶(hù),在語(yǔ)音交à1內(nèi)容?核1b°à談轉(zhuǎn)寫(xiě)1音視頻__幕等場(chǎng)o__p落地2?高°à文本到語(yǔ)音ā?模型?Seed-TTS生p的語(yǔ)音和真人語(yǔ)音幾NN?,??ā?簡(jiǎn)W的樣本,模仿聲音特°1發(fā)音瑕疵,生p??的高保真合p語(yǔ)音2Seed-TTS面U多元任á,相比?WN任á的傳統(tǒng)TTS模型,它xp高自然t和高穩(wěn)定性,e供廣泛的語(yǔ)音屬性定制能力,例如語(yǔ)言1情感1音色??所處情o,數(shù)據(jù)覆蓋à?巨大2?出色的PQ文理解能力和泛W能力?大模型的ScalingLaws~Seed-ASR引入了了PQ文理解能力,并e供了更好的模型泛W性和能力涌ā2Seed-TTS系統(tǒng)框架Seed-TTS包含四部V??語(yǔ)音o2器?從參考語(yǔ)音中學(xué)`語(yǔ)音o2?tokensā2?自回__語(yǔ)言模型?根據(jù)條t文本和語(yǔ)音生p語(yǔ)音o22Seed-TTS,Seed-ASR技術(shù)?告?擴(kuò)散ù換器模型?Seed-TTS,Seed-ASR技術(shù)?告?聲學(xué)聲碼器?將擴(kuò)散模型的輸出轉(zhuǎn)換~高°à的語(yǔ)音254生p大模型Seed-Music,探索音P]作新?能?9o18日,豆包大模型團(tuán)隊(duì)l式發(fā)a自研音P大模型,e供四項(xiàng)核心?能???音P生p1譜轉(zhuǎn)曲1詞曲編輯1零樣本人聲克隆,x體涵蓋十種]作任á,滿(mǎn)足音P小白1__業(yè)音P人的O\場(chǎng)o需求2?多模態(tài)輸入生p??音P?Seed-Music支持多模態(tài)輸入áā??音P生p,?輸入信息包括歌詞1風(fēng)格?述1音頻參考1P譜和語(yǔ)音e示,通過(guò)?制音P風(fēng)格1歌詞1情ā1節(jié)奏等,生p3V鐘全曲1純器P和仿寫(xiě)歌曲ā?交à式P曲編輯?Seed-Musicā?擴(kuò)散模型能夠精確ü歌詞或旋律?ì局部改編,并確保編輯|域的平滑過(guò)oā?音P]作輔??Seed-Music通過(guò)定制W的技術(shù)解?方案,~音P小白和__業(yè)音P人士e供\樣精準(zhǔn)1高效的支持,降Pn通人音P]作門(mén)檻,并輔?__業(yè)音P]作者áāü詞1旋律1編曲的完全?制,節(jié)省]作中的時(shí)間和p本2?表à模型?將原始音頻波形壓縮~p意O`緊湊的音P音頻表àā該表à作~ˉ?^續(xù)āt的ā礎(chǔ)2?生p器?處理各種}戶(hù)?制輸入,并生p相à的中間表?渲染器?ā?生p器e供的中間表示合p高°à的音頻55?9月4日,豆包大模型團(tuán)隊(duì)發(fā)布AI智能體豆包MarsCodeAgent,AI智能體能夠感知外部環(huán)境、操作工具并具有一定自主決策能力,豆包MarsCodeAgent開(kāi)發(fā)了多智能體協(xié)作框架,利用基于大語(yǔ)言模型的智能體自動(dòng)識(shí)別并修復(fù)軟豆包MarsCodeAgent在SWE-benchLite排行榜上位列第一?Searcher:利用CKG、LSP等代碼檢索工段;?Manager:根據(jù)收集到的相關(guān)代碼片段對(duì)問(wèn)?Reproducer:在動(dòng)態(tài)調(diào)試修復(fù)場(chǎng)景下,根據(jù)箱中對(duì)腳本進(jìn)行動(dòng)態(tài)調(diào)試以確認(rèn)復(fù)現(xiàn)成功;?Programmer:根據(jù)問(wèn)題描述和相關(guān)代碼進(jìn)行多輪迭代修改;?Tester:根據(jù)問(wèn)題復(fù)現(xiàn)腳本,對(duì)當(dāng)前代碼版?Planner:在靜態(tài)修復(fù)場(chǎng)景下,根據(jù)問(wèn)題和些代碼片段及其修改方式;?SymbolEditor:根據(jù)修改計(jì)劃,對(duì)所負(fù)責(zé)的56?HybridFlow發(fā)a,最高e升20倍吞Tà?__節(jié)RLHF框架HybridFlow,解耦?制流和?算流,|顧靈活高效2采}混合編程模型,HybridFlow框架Q,?制流vW?制器管理,xp全局視āā?算流v多?制器負(fù)°,保證?算執(zhí)ì高效2相較?純粹的多?制器架構(gòu),HybridFlow通過(guò)`W數(shù)據(jù)傳輸,降P了?制流P?算流之間的傳輸à,|顧了靈活性和高效性2?系統(tǒng)??之N?HybridProgrammingModel(編程模型]新)2首Y,HybridFlow采}封裝W模型Va式?算,e高了?碼的復(fù)}性,便?模型的t?和擴(kuò)展2w次,HybridFlowxp較~靈活的模型部署2通過(guò)資金池,HybridFlow將GPU資源虛擬W,并~每個(gè)模型V配?算資源,滿(mǎn)足了O\算法1模型和硬t?境Q的資源和性能需求2第O,HybridFlow采}N套通}數(shù)據(jù)傳輸`°?TransferProtocolā來(lái)解?O\模型間數(shù)據(jù)傳輸面臨的多ü多廣播和數(shù)據(jù)TVwt題2最^,HybridFlow支持支持異nRL?制流,僅需少à?碼便?靈活áā各種RL?制流算法2?系統(tǒng)??之N?3D-HybridEngine?ˉ?è理混合技術(shù)ā降P通信內(nèi)`開(kāi)銷(xiāo)23D-HybridEngine通過(guò)定OO\的并ìā1Tā模型參數(shù)過(guò)程??減少通信開(kāi)銷(xiāo)的方式,áā了零冗余的模型參數(shù)Tā,壓縮了因模型參數(shù)在ˉ?和生pn個(gè)?段之間T新Vw和V配而增à的過(guò)o時(shí)間2?á驗(yàn)?果顯示,HybridFlow在e供靈活性的\時(shí)à速ˉ?2團(tuán)隊(duì)在16āA100GPU?群P,üHybridFlow和主流RLHF框架?ìü比試驗(yàn),?果,都顯著`?w他框架,吞Tàe升幅t在1.5倍ó20倍之間,能夠p效減少開(kāi)銷(xiāo)23D-HybridEngineN次迭?的流程吞Tàá驗(yàn)?果側(cè)視ā57?為了更真實(shí)地評(píng)估AI編程水平,字節(jié)豆包大模型團(tuán)隊(duì)聯(lián)合M-A-P社區(qū),開(kāi)源了全新代碼大模型評(píng)估基準(zhǔn)FullStackBench。此外,研發(fā)團(tuán)隊(duì)推出?SandboxFusion為高效的代碼沙盒執(zhí)行工具。SandboxFusion包含數(shù)據(jù)集和沙箱執(zhí)行兩大模塊,支持23種編程語(yǔ)言,兼容超過(guò)10種代碼評(píng)估數(shù)據(jù)?測(cè)試結(jié)果表明閉源模型在解決難題方面優(yōu)于開(kāi)源模型,SandboxFusion的FullStackBench的數(shù)據(jù)收集過(guò)程58免責(zé)聲明分析師,茲證明本資料所表達(dá)的觀點(diǎn)準(zhǔn)確地反映了分析師對(duì)標(biāo)的證券或發(fā)行人的個(gè)人意見(jiàn);彼以往、現(xiàn)在或未來(lái)并無(wú)就其資料所提供的具體建議或所表述的意見(jiàn)直接或間接收取任何報(bào)酬。本資料由華泰證券股份有限公司(已具備中國(guó)證監(jiān)會(huì)批準(zhǔn)的證券投資咨詢(xún)業(yè)務(wù)資格,以下簡(jiǎn)稱(chēng)“本公司”)制作。本資料所載資料是僅供接收人的嚴(yán)格保密資料。本資料僅供本公司及其客戶(hù)和其關(guān)聯(lián)機(jī)構(gòu)使用。本公司不因接收人收到本資料而視其為客本資料基于本公司認(rèn)為可靠的、已公開(kāi)的信息編制,但本公司及其關(guān)聯(lián)機(jī)構(gòu)(以下統(tǒng)稱(chēng)為“華泰”)對(duì)該等信息的準(zhǔn)確性及完整性不作本資料所載的意見(jiàn)、評(píng)估及預(yù)測(cè)僅反映資料發(fā)布當(dāng)日的觀點(diǎn)和判斷。在不同時(shí)期,華泰可能會(huì)發(fā)出與本資料所載意見(jiàn)、評(píng)估及預(yù)測(cè)不一致的研究資料。同時(shí),本資料所指的證券或投資標(biāo)的的價(jià)格、價(jià)值及投資收入可能會(huì)波動(dòng)。以往表現(xiàn)并不能指引未來(lái),未來(lái)回報(bào)并不能得到保證,并存在損失本金的可能。華泰不保證本資料所含信息保持在最新?tīng)顟B(tài)。華泰對(duì)本資料所含信息可在不發(fā)出通知的情形下做出修改,投資者應(yīng)當(dāng)自行關(guān)注相應(yīng)的更新或修改。華泰力求資料內(nèi)容客觀、公正,但本資料所載的觀點(diǎn)、結(jié)論和建議僅供參考,不構(gòu)成購(gòu)買(mǎi)或出售所述證券的要約或招攬。該等觀點(diǎn)、建議并未考慮到個(gè)別投資者的具體投資目的、財(cái)務(wù)狀況以及特定需求,在任何時(shí)候均不構(gòu)成對(duì)客戶(hù)私人投資建議。投資者應(yīng)當(dāng)充分考慮自身特定狀況,并完整理解和使用本資料內(nèi)容,不應(yīng)視本資料為做出投資決策的唯一因素。對(duì)依據(jù)或者使用本資料所造成的一切后果,華泰及作者均不承擔(dān)任何法律責(zé)任。任何形式的分享證券投資收益或者分擔(dān)證券投資損失的書(shū)面或口除非另行說(shuō)明,本資料中所引用的關(guān)于業(yè)績(jī)的數(shù)據(jù)代表過(guò)往表現(xiàn),過(guò)往的業(yè)績(jī)表現(xiàn)不應(yīng)作為日后回報(bào)的預(yù)示。華泰不承諾也不保證任何預(yù)示的回報(bào)會(huì)得以實(shí)現(xiàn),分析中所做的預(yù)測(cè)可能是基于相應(yīng)的假設(shè),任何假設(shè)的變化可能會(huì)顯著影響所預(yù)測(cè)的回報(bào)。華泰及作者在自身所知情的范圍內(nèi),與本資料所指的證券或投資標(biāo)的不存在法律禁止的利害關(guān)系。在法律許可的情況下,華泰可能會(huì)持有資料中提到的公司所發(fā)行的證券頭寸并進(jìn)行交易,為該公司提供投資銀行、財(cái)務(wù)顧問(wèn)或者金融產(chǎn)品等相關(guān)服務(wù)或向該公司招攬業(yè)務(wù)。華泰的銷(xiāo)售人員、交易人員或其他專(zhuān)業(yè)人士可能會(huì)依據(jù)不同假設(shè)和標(biāo)準(zhǔn)、采用不同的分析方法而口頭或書(shū)面發(fā)表與本報(bào)告意見(jiàn)及建議不一致的市場(chǎng)評(píng)論和/或交易觀點(diǎn)。華泰沒(méi)有將此意見(jiàn)及建議向資料所有接收者進(jìn)行更新的義務(wù)。華泰的資產(chǎn)管理部門(mén)、自營(yíng)部門(mén)以及其他投資業(yè)務(wù)部門(mén)可能獨(dú)立做出與本資料中的意見(jiàn)或建議不一致的投資決策。投資者應(yīng)當(dāng)考慮到華泰及/或其相關(guān)人員可能存在影響本資料觀點(diǎn)客觀性的潛在利益沖突。投資者請(qǐng)勿將本資料視為投資或其他決定的唯一信賴(lài)依據(jù)。有關(guān)該方面本資料并非意圖發(fā)送、發(fā)布給在當(dāng)?shù)胤苫虮O(jiān)管規(guī)則下不允許向其發(fā)送、發(fā)布的機(jī)構(gòu)或人員,也并非意圖發(fā)送、發(fā)布給因可得到、使用本資料的行為而使華泰違反或受制于當(dāng)?shù)胤苫虮O(jiān)管規(guī)則的機(jī)構(gòu)或人員。本資料版權(quán)僅為本公司所有。未經(jīng)本公司書(shū)面許可,任何機(jī)構(gòu)或個(gè)人不得以翻版、復(fù)制、發(fā)表、引用或再次分發(fā)他人(無(wú)論整份或部分)等任何形式侵犯本公司版權(quán)。如征得本公司同意進(jìn)行引用、刊發(fā)的,需在允許的范圍內(nèi)使用,并需在使用前獲取獨(dú)立的法律意見(jiàn),以確定該引用、刊發(fā)符合當(dāng)?shù)剡m用法規(guī)的要求,同時(shí)注明出處為“華泰證券研究所”,且不得對(duì)本資料進(jìn)行任何有悖原意的引用、刪節(jié)和修改。本公司保留追究相關(guān)責(zé)任的權(quán)利。所有本資料中使用的商標(biāo)、服務(wù)標(biāo)記及標(biāo)記均為本公司的商59本資料由華泰證券股份有限公司制作,在香港由華泰金融控股(香港)有限公司向符合《證券及期貨條例》及其附屬法律規(guī)定的機(jī)構(gòu)投資者和專(zhuān)業(yè)投資者的客戶(hù)進(jìn)行分發(fā)。華泰金融控股(香港)有限公司受香港證券及期貨事務(wù)監(jiān)察委員會(huì)監(jiān)管,是華泰國(guó)際金融控股有限公司的全

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論