




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
信達(dá)證券CINASECURITIES本期內(nèi)容提要:本期內(nèi)容提要:郵箱:fengcuiting@對(duì)相同提示詞的比較分析,而AI視頻生成正成為當(dāng)前AI產(chǎn)業(yè)發(fā)展的郵箱:fengcuiting@市場(chǎng)主流的AI視頻生成技術(shù)迭代路徑經(jīng)歷了早期的GAN+VAE、Transformer、DiffusionModel以及Sora采用的DiT架構(gòu)躍性提升。VAE引入了隱變量推斷,GAN生成的圖像真實(shí)清晰,VAE+GAN的串聯(lián)融合可以實(shí)現(xiàn)數(shù)據(jù)的自動(dòng)生成+高質(zhì)量圖像生成;強(qiáng)大的優(yōu)勢(shì),通過預(yù)訓(xùn)練和微調(diào)可提高模型性能;擴(kuò)散模型可解釋性據(jù)的擴(kuò)散過程以生成時(shí)長更長、質(zhì)量更高的圖像和視頻。前AI+視頻主流產(chǎn)品的單條視頻生成價(jià)格分別為:Luma(3.49rmb)、快手可靈0.5rmb、字節(jié)剪映即夢(mèng)0.04r內(nèi)AI+視頻產(chǎn)品單條價(jià)格較低,質(zhì)量不差。請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://www.ci請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://www.AI+視頻時(shí)代來臨,思考哪類公司存在商業(yè)化變現(xiàn)的可能性?我們認(rèn) 6 表3:LumaAI、Pika、RunwayG 6 6 7 8 8 圖18:RunwayGen-3Alpha 請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://www.ci 一、為什么要研究AI+視頻——AI視頻生成正成為當(dāng)前行業(yè)發(fā)展關(guān)鍵節(jié)點(diǎn)2023年紅杉資本在關(guān)于生成式AI發(fā)展進(jìn)程的預(yù)測(cè)報(bào)告中表明,在歷經(jīng)文生文、文生圖的升級(jí)迭代后,我們目前正處在AI+生產(chǎn)力辦公&設(shè)計(jì)、AI+視頻和AI+3d滲透的歷史節(jié)點(diǎn)上。在底層大模型技術(shù)迭代逐天,AI文本對(duì)話、AI文生圖、AI陪伴等方向已經(jīng)逐漸成為競(jìng)爭做深入的研究,而視頻方向一直是業(yè)內(nèi)關(guān)注的重點(diǎn)方向之一。視頻雜糅了文本、語音、圖像等多維度內(nèi)容,其訓(xùn)練的難點(diǎn)也往往在于視頻數(shù)據(jù)對(duì)數(shù)量和質(zhì)量的不足、算法架構(gòu)需要優(yōu)化、物理規(guī)律性較差等等,但我們相信,隨著AI+視頻的技術(shù)和產(chǎn)品升級(jí)迭代,眾多行業(yè)有望受益,諸如電影、廣告、視頻剪輯、視頻流媒體平臺(tái)、UGC創(chuàng)作平臺(tái)、短視頻綜合平臺(tái)等,而目前正資料來源:紅杉資本官網(wǎng),信達(dá)證券研發(fā)中心在紅杉資本2024年關(guān)于AI應(yīng)用的地圖梳理中反映了市場(chǎng)中的兩個(gè)重要趨勢(shì):生成式人工智能資料來源:紅杉資本官網(wǎng),信達(dá)證券研發(fā)中心請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://www.ci請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://www.ci2)缺乏高質(zhì)量的數(shù)據(jù)集:用于文生視頻的多模態(tài)數(shù)據(jù)集很少,而且通常數(shù)據(jù)集運(yùn)動(dòng)語義很困難。文生視頻模型需要依賴于大量數(shù)據(jù)來掌握如捕捉時(shí)間上的動(dòng)態(tài)變化;3)視頻生成質(zhì)量:時(shí)空一致性難以保持,在不同鏡頭、場(chǎng)景或時(shí)間段內(nèi)較難確保角色、物體和背景的一致性。長視頻制作仍面臨時(shí)間一致性和完整性的挑戰(zhàn),這直接影響到實(shí)際應(yīng)用的可4)語義對(duì)齊:由于自然語言具有復(fù)雜性和多義性,文本語義理解、文5)產(chǎn)品易用性:對(duì)于文生視頻,產(chǎn)品的易用性和體驗(yàn)仍需改進(jìn)。個(gè)人用戶希望制作流牌傳播效果;行業(yè)用戶則需要內(nèi)容與交互性的融合,包括商用素材適配性、快速審核和批量制作分發(fā)能力;6)合規(guī)應(yīng)用:文生視頻的應(yīng)用面臨素材版權(quán)、隱私安全和倫理道德等風(fēng)險(xiǎn)。二、市場(chǎng)主流AI視頻生成技術(shù)的迭代路徑forVideoGeneration》;EiichiMatsumoto等《TemporalGenerativeAdversarialNetswithSingularValueClipping》;AidanClark等《ADVERSARIALVIDEOGENERATIONONCOMPLEXDATASETS》;VARIABLELENGTHVIDEOGENERATIONFROMOPENDOMAINTEXTO-VIDEOGENERATIONWITHOUTforInfiniteVisualSynthesis》;WenyiHong等《CogVideo:Large-Yu等《GENERATINGVIDEOSWITHDYNAMICS-AWAREIMPLICITGENERATIVEADVERSARIALNETWORKS》;DanKondratyuk等《VideoPoet:ALargeLanguageModelforZero-ShotVideoGeneration》;AgrimGModels》;SongweiGe等《PreserveYourOwnCorrelation:ANoisePriorforVideoDiffusionModels》;AndreasBlattLongVideoGeneration》;WeiminWang等《MagicVideo-V2:Multi-StageHigh-AestheticVideoGeneration》、Runway公司官網(wǎng),信達(dá)證券研發(fā)中心資料來源:信達(dá)證券研發(fā)中心(注:該圖通過圖3所引用論文總結(jié)而來)欺騙判別器,而判別器則試圖最大化識(shí)別生成視頻的和MoCoGAN,它們通過不同的網(wǎng)絡(luò)架構(gòu)和訓(xùn)練方法來改進(jìn)GAN在視頻生成上的性能。此外,DualVideoDiscriminatorGAN(DVD-GAN)通過使用空間和時(shí)間判別器的分解來提高視頻生成的資料來源:AWSMarketplace,信達(dá)證券研發(fā)中心以應(yīng)用于圖像生成、風(fēng)格遷移、數(shù)據(jù)增強(qiáng)、超分辨率等多種任務(wù);3)模型靈活,通過改變網(wǎng)絡(luò)結(jié)構(gòu),可以),請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://www.c請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://www.c不具備生成能力,基本自編碼器給定一張圖片生成原始間,而解碼器則基于這些表示生成輸出序列。Tran型通常先在大量數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,再針對(duì)特定任務(wù)進(jìn)行微調(diào),使得模型能夠快速適應(yīng)新任務(wù);5)適應(yīng)長序列數(shù)據(jù),在處理諸如語音信號(hào)、長時(shí)間序列數(shù)據(jù)等任務(wù)具有成本;2)對(duì)輸入數(shù)據(jù)的敏感性較高,模型依賴于輸入數(shù)據(jù)的全局信息進(jìn)行建模,在處理復(fù)雜任務(wù)時(shí)(如機(jī)器翻變化特性的任務(wù)時(shí),需要結(jié)合其他技術(shù)來提高模型的性能。Transfo性能。此外,這些模型還探索了如何通過多模態(tài)學(xué)習(xí)3)擴(kuò)散模型請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://www資料來源:數(shù)據(jù)派THU公眾號(hào),信達(dá)證券研發(fā)中心請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://www資料來源:KihyukSohn等《PhotorealisticVideoGenerationwithDiffusionModels》、WALT視頻模型官網(wǎng),信達(dá)證券研發(fā)中心在空間:空間層捕獲圖像和視頻中的空間關(guān)系,而時(shí)空層通3)對(duì)硬件要求高,雖然DiT在計(jì)算上更有效率,但TransformDiT作為一種新型的擴(kuò)散模型,通過在潛在空間中使用Transformer架構(gòu),實(shí)現(xiàn)了對(duì)圖像生成任務(wù)的高效資料來源:Sora,信達(dá)證券研發(fā)中心能生成高保真度視頻,尤其是適應(yīng)動(dòng)作條件近鄰注意力機(jī)制簡化計(jì)算,支持多模態(tài)預(yù)訓(xùn)有零樣本能力。在生成圖像、視頻以及視頻采用多幀率層次化訓(xùn)練策略、雙通道注意力機(jī)制,靈活文本條件模擬不同幀率視頻,順序生成和遞歸插值框架使視頻生成連貫。對(duì)復(fù)雜語義的運(yùn)動(dòng)理解加強(qiáng),生成高分辨率、采用雙重自回歸生成機(jī)制來處理可變尺寸的生成任務(wù),引入NCP緩存已生成的相關(guān)賦能圖像擴(kuò)展,能生成任意大小高分辨率圖使用因果注意力機(jī)制生成可變長度視頻,使遮蔽Transformer根據(jù)文本嵌入生成視頻請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露12token,采用C-ViViT編碼-解碼架構(gòu)減少僅采用解碼器架構(gòu)能處理多模態(tài)輸入,支持零樣本視頻生成;使用雙向變換器在標(biāo)記空間內(nèi)提高空間分辨率;通過自回歸擴(kuò)展內(nèi)容使用因果編碼器聯(lián)合壓縮圖像和視頻,實(shí)現(xiàn)跨模態(tài)生成;采用窗口注意力架構(gòu),聯(lián)合空間和時(shí)空生成建模;不依賴分類器自由引導(dǎo)可生成視頻;通過潛在視頻擴(kuò)散模型和視頻自然語言、過去幀、低分辨率視頻生成可控采用基礎(chǔ)視頻擴(kuò)散模型和用于空間與時(shí)間超免色彩偏移,應(yīng)用漸進(jìn)式蒸餾技術(shù),快速高效采樣;使用噪聲條件增強(qiáng)來減少級(jí)聯(lián)模型中的域差距,提高樣本質(zhì)量;能生成各種藝從圖像和視頻數(shù)據(jù)聯(lián)合訓(xùn)練減小批量梯度方為擴(kuò)散模型架構(gòu),使時(shí)間空間分解;采用因在獨(dú)立圖像上運(yùn)行;使用多種擴(kuò)散模型采樣無監(jiān)督的視頻素材學(xué)習(xí)世界的運(yùn)動(dòng)方式;構(gòu)模型、超分辨率模型生成高分辨率、高幀率采用有向自注意力機(jī)制,僅基于所有先前幀器,改善像素抖動(dòng)問題;訓(xùn)練基于擴(kuò)散的超請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露13只更新注意力塊中的投影矩陣而非所有參將潛在擴(kuò)散模型擴(kuò)展到視頻生成,通過將時(shí)間層引入到預(yù)訓(xùn)練的圖像模型中并對(duì)圖像和頻;通過訓(xùn)練模型預(yù)測(cè)視頻下一幀,對(duì)視覺世界深入理解;從單個(gè)幀的高保真度生成開采用混合微調(diào)方法,結(jié)合全時(shí)序注意力和時(shí)力機(jī)制,捕捉幀間的時(shí)序依賴性;提出圖像UTAustin,實(shí)現(xiàn)零樣本學(xué)習(xí);在生成幀代碼注入運(yùn)動(dòng)動(dòng)使用新的跨幀注意力機(jī)制保留前景對(duì)象的上在潛在空間擴(kuò)散模型中引入時(shí)間維度,將圖像生成器轉(zhuǎn)換為視頻生成器,實(shí)現(xiàn)視頻數(shù)據(jù)編碼的視頻上微調(diào)生成視頻;能夠?qū)崿F(xiàn)高達(dá)提出視頻擴(kuò)散噪聲先驗(yàn),更好地捕捉視頻幀之間的內(nèi)在聯(lián)系;采用一個(gè)由基礎(chǔ)模型和三個(gè)上采樣堆疊組成的級(jí)聯(lián)網(wǎng)絡(luò)架構(gòu);使用了DEIS及其隨機(jī)變體進(jìn)行樣本合成的先進(jìn)采請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露14使用文本條件擴(kuò)散模型,處理視頻和圖像的空間時(shí)間塊;訓(xùn)練了一個(gè)網(wǎng)絡(luò)來降低視覺數(shù)據(jù)的維度,輸入原始視頻并輸出壓縮的潛在現(xiàn)視頻擴(kuò)展、視頻過渡,輸入視頻的風(fēng)格和資料來源:CarlVondrick等《GeneratingVideoswithSceneDynamics》;SergeyTulGENERATIONFROMOPENDOMAINTEXTUALDESCRIPTIONS》;UrielSingeWITHDYNAMICS-AWAREIMPLICITGENERATIVEADVERSARIALNETWORKS》;DanKondratyuk等《VideoPoet:ALargeLanguageModelforZero-ShotVideoGeneration》;AgrimGuptauOwnCorrelation:ANoisePriorforVideoDiffusionModels》;AndLatentDiffusionModels》;ShengmingYin等《NUWA-XL:DiffusionoverDiffusionforeXtremelyLongVideoGeneration《MagicVideo-V2:Multi-StageHigh-AestheticVideoGeneration》、OpenAISora官網(wǎng)、Runway公司官網(wǎng),信達(dá)證券研發(fā)中心AI+視頻發(fā)展以來,技術(shù)路徑和迭代產(chǎn)品冗雜繁多、功能不一、效果差異,我們選取目前海內(nèi)外市場(chǎng)主要的生成了其融資歷程、產(chǎn)品迭代、核心功能、實(shí)測(cè)效果比較等多方面,經(jīng)個(gè)別提示詞生資料來源:VentureTwins、a16z,信達(dá)證請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露15請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://www致性和物理準(zhǔn)確性,適用于創(chuàng)意視頻制作、故事講述、市場(chǎng)營銷及教育劃將DreamMachine技術(shù)應(yīng)用于更多資料來源:LumaAIBlog,信達(dá)證券研發(fā)中心資料來源:LumaAI官網(wǎng),信達(dá)證券研發(fā)中心資料來源:LumaAI官網(wǎng),信達(dá)證券研發(fā)中心請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://www4.5億美元,估值有望達(dá)到40億美元。融資輪次融資金額投資方估值/B輪/C輪/資料來源:Runway官網(wǎng)、TheInformation、TechCrunch官網(wǎng),信達(dá)證券研發(fā)中心資料來源:Runway官網(wǎng)、信達(dá)證券研發(fā)中心請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露18請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://www的樣式預(yù)設(shè)中選擇一個(gè);最后,使用結(jié)構(gòu)一致性和提示權(quán)在當(dāng)時(shí)的方法中利用視頻擴(kuò)散模型去生成和編輯視頻需要在保留現(xiàn)有結(jié)構(gòu)的同時(shí)編輯現(xiàn)有素材內(nèi)容,需要對(duì)每個(gè)輸入進(jìn)行較為昂貴的重新訓(xùn)練,或者需要跨幀圖像編輯。而Gen-1提出了一個(gè)結(jié)構(gòu)和內(nèi)容感知模型,該模型可以根據(jù)示例圖像或文本引導(dǎo)修改視頻。編輯完全在推理時(shí)執(zhí)行,無需額外的每個(gè)視頻的訓(xùn)練或預(yù)處理。Gen-1模型在大規(guī)模未配對(duì)視頻和配對(duì)的文本-圖像數(shù)據(jù)集上進(jìn)行訓(xùn)練。同時(shí),產(chǎn)品展示了通過訓(xùn)練不引導(dǎo)方法明確控制了時(shí)間一致性。資料來源:PatrickEsser等《StructureandContent-GuidedVideoSynthesiswithDiffusionModels》,信達(dá)證券研發(fā)中心用戶通過調(diào)節(jié)不同的視頻風(fēng)格、風(fēng)格的變化程較好,但由于是早期的gen-1版本,視頻分辨率較低。資料來源:Runway官網(wǎng),信達(dá)證券研發(fā)中心秒的視頻。此時(shí),可以選擇將鏡頭延長至總資料來源:Runway官網(wǎng),信達(dá)證券研發(fā)中心請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://w資料來源:Runway官網(wǎng),信達(dá)證券研發(fā)中心和運(yùn)動(dòng)方面有了重大改進(jìn)。Gen-3Alpha經(jīng)過視頻和圖像聯(lián)現(xiàn)富有想象力的過渡和場(chǎng)景中元素的精確關(guān)鍵幀;2)逼真的人類角色創(chuàng)造:Gen-3Alpha擅長創(chuàng)造具有多種動(dòng)資料來源:Runway官網(wǎng),信達(dá)證券研發(fā)中心請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://w請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://w資料來源:Runway官網(wǎng),信達(dá)證券研發(fā)中心Pika是一家利用人工智能重新設(shè)計(jì)整個(gè)視頻制作和編輯體驗(yàn)的公司。雖然其他平臺(tái)專注于為專業(yè)人士和企業(yè)提供支持,但Pika讓所有創(chuàng)作者都能創(chuàng)作出高質(zhì)量的視頻,在不到何視頻的某個(gè)方面;通過外畫功能將視頻擴(kuò)展至任意內(nèi)容或?qū)捀弑?;甚至調(diào)整攝像機(jī)的移動(dòng)。海外AI設(shè)計(jì)巨頭Cloud中添加非AdobeAI模型。此前Adobe展示了一些早期的“預(yù)覽”,展示了專業(yè)視頻編輯未來如何利用請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://w資料來源:AdobeBlog,信達(dá)證券研發(fā)中心資料來源:Pika官網(wǎng),信達(dá)證券研發(fā)中心谷歌和Meta之后,OpenAI正式加入到這場(chǎng)AI資料來源:OpenAI官網(wǎng),信達(dá)證券研發(fā)中心視頻、對(duì)圖像進(jìn)行動(dòng)畫處理、提取視頻中的元素、擴(kuò)展或填充缺失的幀。資料來源:OpenAI官網(wǎng),信達(dá)證券研發(fā)中心請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://w請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://w資料來源:OpenAI官網(wǎng),信達(dá)證券研發(fā)中心Sora可以對(duì)寬屏1920x1080p視頻、垂直1080x1920視頻以及介于兩者之間的所有視頻進(jìn)行采樣。這樣,Sora就可以直接以原始縱橫比為不同設(shè)備創(chuàng)建內(nèi)容。還讓用戶能夠快速制作較小尺寸的內(nèi)各種圖像和視頻編輯任務(wù)-創(chuàng)建完美循環(huán)的視頻、為靜態(tài)圖像制作動(dòng)畫、向前或向后延長視頻時(shí)間等。此外,filledwithwarmglowingneonanabout.”資料來源:LumaAI官網(wǎng),信達(dá)證券研發(fā)中心請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://w資料來源:Pika官網(wǎng),信達(dá)證券研發(fā)中心資料來源:Runway官網(wǎng),信達(dá)證券研發(fā)中心資料來源:Runway官網(wǎng),信達(dá)證券研發(fā)中心LumaAIPikaRunwayGen-3AlphaSora上線時(shí)間/實(shí)測(cè)綜合效果中低高分辨率中低/生成時(shí)長/單次延長時(shí)間物理規(guī)律中低高/提示詞理解高低高生成速度中高高其他主要能力請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露27產(chǎn)品定價(jià)最新融資金額估值情況24.06全渠道應(yīng)用下載量/24.04-06網(wǎng)站擁擠度加總24.06平均月活用戶數(shù)ARR//估值指數(shù)=估值/ARR/單活躍用戶估值指數(shù)資料來源:Sensortower、Similarweb、各公司官網(wǎng),信達(dá)證券研發(fā)中心(僅代表以上提示詞生成視頻橫向比較,僅代表信達(dá)證券預(yù)測(cè))/請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露28分,每天獲得民幣)資料來源:Runway、LumaAI、Pika、可靈、即夢(mèng)、PixverseAI官網(wǎng),信達(dá)證券研發(fā)中心技術(shù)方向,并基于快手豐富的業(yè)務(wù)場(chǎng)景,將生成式AI與多模態(tài)內(nèi)容理解、短視頻/頻拍攝時(shí),有望對(duì)游戲、動(dòng)畫、泛視頻行業(yè)帶來新的機(jī)遇,有望促進(jìn)視頻平臺(tái)生態(tài)繁榮。請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露29請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://資料來源:世界人工智能大會(huì)公眾號(hào)、可圖大模型公眾號(hào),信達(dá)證券研發(fā)中心紫色的,花瓣被風(fēng)吹動(dòng)旁邊有一棵草在搖曳,氛圍光照”。左下圖的提示詞:“氛圍光照,抽象背景,黑貓警資料來源:可靈APP,信達(dá)證券研發(fā)中心資料來源:可靈大模型官網(wǎng),信達(dá)證券研發(fā)中心資料來源:可靈大模型官網(wǎng),信達(dá)證券研發(fā)中心2023年12月,美圖公司發(fā)布自研AI視覺大模型MiracleVision4.0版本,主打AI設(shè)計(jì)與AI視頻。新增了文生請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://作捕捉,MiracleVision可以輕松生成。非常的自能,導(dǎo)入一段視頻,再加上不同的提示詞,就能獲得卡通、科幻、像素風(fēng),羊毛氈等不同的藝術(shù)風(fēng)格。資料來源:Whee官網(wǎng),信達(dá)證券研發(fā)中心較大的國產(chǎn)AI視頻生成產(chǎn)品,上線88天,PixVerse視頻生成量已達(dá)一千萬次。公司早使輪融資,2024年3月公司完成億級(jí)人民幣A1輪融資,國內(nèi)一線投資機(jī)構(gòu)達(dá)晨財(cái)智領(lǐng)投。深耕計(jì)算機(jī)視覺與人工智能領(lǐng)域20年,帶領(lǐng)字節(jié)跳動(dòng)視覺技術(shù)團(tuán)隊(duì)在巨量規(guī)模的成;融合文字、圖片、視頻等多模態(tài)”的雙融合技術(shù)路徑,搭建世界一流的AIGC視覺多模態(tài)大模度合成服務(wù)算法備案信息公告,愛詩科技視頻生成算法成功通過備案。請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://和繪制軌跡,精確控制視頻元素運(yùn)動(dòng)方式移動(dòng),甚至豐富多樣的以靈活替換調(diào)整視頻主體、動(dòng)作、風(fēng)格和運(yùn)鏡,進(jìn)一步豐富創(chuàng)作的可能性。我們使用了其海外版產(chǎn)品PixverseV2進(jìn)行測(cè)試,V2版本較生成人物一致性較強(qiáng)的多個(gè)鏡頭視頻,同時(shí)還可對(duì)生成的視頻進(jìn)行風(fēng)格、人資料來源:Pixverse官網(wǎng),信達(dá)證券研發(fā)中心際電影節(jié)期間,由抖音、博納影業(yè)AIGMS制作中心聯(lián)合出品的AIGC科幻短劇集《三星堆:未來啟示錄》亮相“博納25周年'向新而生'發(fā)布會(huì)”。即夢(mèng)AI作為《三星堆:未來啟示錄》首席AI技術(shù)支持方,借助包括AIGC劇本創(chuàng)作、概念及分鏡設(shè)計(jì)、圖像到視頻轉(zhuǎn)換、視頻編輯和媒體內(nèi)容增強(qiáng)等十種AIGC技術(shù),重新為古老IP注入資料來源:即夢(mèng)官網(wǎng),信達(dá)證券研發(fā)中心資料來源:即夢(mèng)官網(wǎng),信達(dá)證券研發(fā)中心請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://資料來源:機(jī)器之心公眾號(hào),信達(dá)證券研發(fā)中心布,Etna模型采用最新的神經(jīng)網(wǎng)絡(luò)架構(gòu),融合了Transformer模型的強(qiáng)大語義理解能力,以及Diffusion模型的資料來源:七火山官網(wǎng),信達(dá)證券研發(fā)中心 請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://今階段還需要多種不同的視頻創(chuàng)作工具串聯(lián)使用才能達(dá)到直接輸出可商業(yè)化視頻的效果,環(huán)節(jié)繁瑣、多工具之資料來源:Adobe公司官網(wǎng),信達(dá)證券研發(fā)中心資料來源:Adobe公司官網(wǎng),信達(dá)證券研發(fā)中心請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://Leto。此次融資使公司籌集的總資本超過1億美元,公司估值為5戶無需從空白畫布開始。從三種視頻編輯風(fēng)格中選擇一種Impact、Cinematic和Pape資料來源:Captions公司官網(wǎng),信達(dá)證券研發(fā)中心AI廣告生成器:通過AICreators資料來源:Captions公司官網(wǎng),信達(dá)證券研發(fā)中心請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://故事角色、生成具備一致性的角色和場(chǎng)景畫面,再利用運(yùn)鏡控制、運(yùn)動(dòng)編輯,創(chuàng)作AI視頻作品。用各類視頻編輯功能進(jìn)行修改,更有圖層拆解和融合功能,定制化視頻內(nèi)容,方便用戶利用AI創(chuàng)作高質(zhì)量、高一致性的故事視頻片段,而非幾十秒的創(chuàng)意資料來源:尋光官網(wǎng),信達(dá)證券研發(fā)中心資料來源:尋光官網(wǎng),信達(dá)證券研發(fā)中心請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http://視覺風(fēng)格、角色等前期設(shè)定;2)用AI生成分鏡圖,分鏡圖資料來源:美圖公眾號(hào),信達(dá)證券研發(fā)中心物視頻場(chǎng)景生成中,可以做到整個(gè)的環(huán)境都跟著肢體的控制去變化,包括生成合理的頭發(fā)的抖動(dòng)。Vimi相機(jī)是資料來源:Vimi公眾號(hào),信達(dá)證券研發(fā)中心采用此類架構(gòu)的擴(kuò)散模型表現(xiàn)出了天然生成高質(zhì)量圖像和視頻的傾向,并在可定制化、生成內(nèi)容可控性方面具資料來源:機(jī)器之心公眾號(hào),信達(dá)證券研發(fā)中心請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http:/請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http:/資料來源:機(jī)器之心公眾號(hào),信達(dá)證券研發(fā)中心型公司后續(xù)有望深度受益。資料來源:Adobe官網(wǎng),信達(dá)證券研發(fā)中心字媒體業(yè)務(wù)營收市占率在16.6%-16.7%之間請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露42資料來源:Adobe官網(wǎng),信達(dá)證券研發(fā)中心頻等相關(guān)生成式AI功能,用戶數(shù)的增長側(cè)面驗(yàn)證了Adobe產(chǎn)品在AI功能上的迭代資料來源:Sensortower,信達(dá)證券研發(fā)中心資料來源:AdobeBlog,信達(dá)證券研發(fā)中心請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露43層和應(yīng)用層構(gòu)建的AI產(chǎn)品生態(tài)。2023年美圖實(shí)現(xiàn)總收入2億元,同比增長+233.2%。總收入與凈利潤增長主要得益于AI推動(dòng)主營業(yè)務(wù)收入增長,美圖用戶每天處理數(shù)億元,同比增長52.8%;廣告業(yè)務(wù)收入7.6億195個(gè)國家和地區(qū)布局影像產(chǎn)品,美圖秀秀、美顏相機(jī)、Wink先后取得多個(gè)國家和地區(qū)的應(yīng)用榜單冠軍。在data.ai2024年1月的中國非游戲廠商出海收入排行榜中,美圖公據(jù)QuestMobile數(shù)據(jù),美圖秀秀連續(xù)8年奪得中國圖片美化賽道用戶規(guī)拍照攝影賽道用戶規(guī)模第一名。影像產(chǎn)品組合的付費(fèi)訂閱用戶滲透率持續(xù)快速上升,進(jìn)而推動(dòng)付費(fèi)訂閱收入大資料來源:美圖秀秀桌面版公眾號(hào),信達(dá)證券研發(fā)中心細(xì)節(jié)、畫面裁剪等之外,產(chǎn)品希望做到讓用戶像修圖一樣來實(shí)現(xiàn)修視頻的功能,上線了諸漫(可以一鍵將視頻生成動(dòng)漫風(fēng)格)、AI美容、視2)開拍。開拍APP主打功能為用AI制作口播視頻請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http:/(二)AI+視頻技術(shù)頭部服務(wù)商轉(zhuǎn)型To生成領(lǐng)域的難點(diǎn)在于創(chuàng)作人物形象的一致性和是否符合世界物理規(guī)律上。因暫未拿到實(shí)測(cè)資格,在Vimi微信公眾號(hào)的介紹中我們看到,Vimi基于商湯日日新大模型的強(qiáng)大能力,僅通過一張任意風(fēng)格的照片就能生成和目標(biāo)資料來源:Vimi公眾號(hào),信達(dá)證券研發(fā)中心),若在視頻剪輯領(lǐng)域做到極強(qiáng)產(chǎn)品力,同樣有望提升用戶付費(fèi)率,帶來商業(yè)化變現(xiàn)程度的提域深耕多年,多年的視頻數(shù)據(jù)標(biāo)簽化儲(chǔ)備讓在可靈在訓(xùn)練階段的數(shù)據(jù)端、尤其是視頻數(shù)據(jù)端的優(yōu)勢(shì)較為顯著。請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http:/可靈視頻大模型的更新迭代有望賦能快手創(chuàng)作者用戶,從而給快手平臺(tái)帶來留存率的提升和更多商業(yè)化空間的產(chǎn)品月活用戶數(shù)應(yīng)用近一年凈收入產(chǎn)品定價(jià)年訂閱費(fèi)資料來源:SensorTower,信達(dá)證券研發(fā)中心所需的時(shí)長大多在幾分鐘,如果更為復(fù)雜的提示詞在較少的算力支持下,甚至要等幾十分鐘的時(shí)長從而才能得YouTube等短視頻平臺(tái)崛起,據(jù)Statista相關(guān)數(shù)據(jù)顯示,2030年全球移動(dòng)營銷市場(chǎng)規(guī)模達(dá)預(yù)計(jì)將達(dá)到578.5億繁瑣的流程環(huán)節(jié)。易點(diǎn)天下:2023年旗下AIGC數(shù)字營銷創(chuàng)作平臺(tái)KreadoAI就開始了AI+營銷的探索和應(yīng)用,KreadoAI請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露46蓋相對(duì)全面,能夠適用于文案、商品圖、視頻等常見營銷應(yīng)用領(lǐng)域。在短視頻制作方式上大量應(yīng)用于多家知名品牌的營銷活動(dòng)中,大幅提升了廣告投放的精準(zhǔn)度和效果,收獲客業(yè)務(wù)的結(jié)合度,高度聚焦行業(yè)的底層邏輯,結(jié)合業(yè)務(wù)場(chǎng)景不斷迭代;5)視頻多模態(tài)方面,要尋求更大的突破。的效果已經(jīng)堪比電影級(jí)別鏡頭。當(dāng)某個(gè)UGC創(chuàng)作者平臺(tái)積淀了大量類似的AI+視頻創(chuàng)作者用戶后,一個(gè)AI+視請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露http:/頻的技術(shù)迭代發(fā)展中,優(yōu)質(zhì)的視頻數(shù)據(jù)對(duì)于模型質(zhì)量的訓(xùn)練優(yōu)化顯得至關(guān)重要。捷成股份與華為云簽署協(xié)議共同建設(shè)視頻大模型。捷成股份憑借十多年來積視視聽節(jié)目素材和通過數(shù)據(jù)清洗來為華為云投入高質(zhì)量數(shù)據(jù)集,授權(quán)華為用于視頻大模型訓(xùn)練。華為方面投入基礎(chǔ)模型、算力、模型優(yōu)化與主研發(fā)的AI智能創(chuàng)作引擎ChatPV正式發(fā)布,并為云盤古大模型為基礎(chǔ)打造視覺大模型,共同實(shí)現(xiàn)視覺領(lǐng)域高度智能層次的內(nèi)容產(chǎn)業(yè)智能轉(zhuǎn)型。視覺中國專注“AI+內(nèi)容+場(chǎng)景”戰(zhàn)略,依托海量優(yōu)質(zhì)合規(guī)的專有數(shù)據(jù)、全球創(chuàng)作者生態(tài)、數(shù)字版權(quán)交易場(chǎng)景等核心競(jìng)爭力,聚焦“以客戶為中心”的AIGC技術(shù)創(chuàng)新,能夠在視覺領(lǐng)域?yàn)槎嗄?shù)據(jù)集,助力多模態(tài)大模型生態(tài)建設(shè)。原始拍攝素材,可通過清洗、標(biāo)注、加工等技術(shù)處理后形成版權(quán)數(shù)據(jù)集。上線“AI視頻分析檢索功能”,可以對(duì)視頻中的人、物等特定元素進(jìn)行自動(dòng)標(biāo)簽,快速鎖定相關(guān)素打造AI算料綜合服務(wù)交易平臺(tái):在人工智能快速發(fā)展的背景下,公司利新業(yè)務(wù)發(fā)展,首先是公司擁有大量優(yōu)質(zhì)自有版權(quán)的音視頻版權(quán)數(shù)據(jù),其次是公司具備強(qiáng)大的渠道能力,利用現(xiàn)有500+城市廣電合作客戶資源開展行業(yè)版權(quán)行業(yè)主管部門的支持下,打造中國廣電行業(yè)優(yōu)質(zhì)版權(quán)的垂類數(shù)據(jù)集,在此基礎(chǔ)上,積極資料來源:捷成股份公眾號(hào)、視覺中國公眾號(hào)、華策影視公告、中廣天擇公告,信達(dá)證券研發(fā)中心請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露48化,打造AI+IP在影視行業(yè)的全新重點(diǎn)戰(zhàn)略布局。三大先導(dǎo)行動(dòng):探索中國動(dòng)畫AI模型、發(fā)起全球創(chuàng)造者計(jì)劃聚焦AI在短劇和影視垂直領(lǐng)域的應(yīng)用開發(fā)項(xiàng)目,招募全球AI+影視方向人才,建立AI事等產(chǎn)品,已初步完成主要功能的測(cè)試。公司AI硬件團(tuán)隊(duì)正研發(fā)一款基于生成智能技術(shù)的AI語音交互陪伴機(jī)器人。公司IP屬性強(qiáng),深耕AI情截至2023年底,公司以自有原創(chuàng)內(nèi)容平臺(tái)、知名作家源,累積數(shù)字內(nèi)容資源超560萬種,網(wǎng)絡(luò)原創(chuàng)駐站作者450余萬名;與600余家版權(quán)資料來源:中國基金報(bào)、上觀新聞、湯姆貓公告、銀柿財(cái)經(jīng)、中文在線公告,信達(dá)證券研發(fā)中心動(dòng)生成分鏡圖并轉(zhuǎn)為視頻素材,通過智能剪輯、AI配樂、AI音探索AIGC技術(shù)賦能短劇創(chuàng)作及制作提質(zhì)增效,未來將適當(dāng)參與優(yōu)質(zhì)AI短劇的及AI短劇相關(guān)技術(shù)和應(yīng)用產(chǎn)品的布局。公司參與出品了由北京華塢科技制請(qǐng)閱讀最后一頁免責(zé)聲明及信息披露49作者進(jìn)行短劇相關(guān)的內(nèi)容創(chuàng)作。推出“星芒短劇+可靈大模型”創(chuàng)作者孵化計(jì)劃。2024較早布局短劇賽道,旗下打造的精品短劇《二十九》總播放量超8攜手SevenVolcanoes,領(lǐng)航AI短劇出海。超訊通信子公司超訊人工智能科技有限公Limited簽署了相關(guān)投資協(xié)議。通過本次投資,由博納影業(yè)AIGMS制作中心,聯(lián)合抖音、即夢(mèng)AI生成式人工智能創(chuàng)作平臺(tái),出品并制作的AI生成式連續(xù)性敘事科幻短劇《三星堆:未來啟示錄
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 二零二五年度鮮魚養(yǎng)殖與市場(chǎng)推廣代理合同
- 二零二五年度山地草皮植被恢復(fù)與生態(tài)保護(hù)合同
- 2025年度集體合同簽訂與勞動(dòng)者權(quán)益保障體系
- 二零二五年度解除勞動(dòng)合同關(guān)系及離職員工培訓(xùn)協(xié)議
- 二零二五年度教育機(jī)構(gòu)教師職稱評(píng)定合同
- 二零二五年短視頻平臺(tái)演員藝人培養(yǎng)計(jì)劃合同
- 二零二五年度公司員工業(yè)績提升對(duì)賭協(xié)議書
- 二零二五年度留學(xué)回國人員就業(yè)安置及創(chuàng)業(yè)扶持協(xié)議
- 2025年度離婚協(xié)議書樣本:情感破裂后的財(cái)產(chǎn)分割與子女監(jiān)護(hù)權(quán)協(xié)議
- 2025年車載通訊產(chǎn)品天線項(xiàng)目可行性研究報(bào)告
- 防腐工安全操作規(guī)程范文(2篇)
- 2025年湖北日?qǐng)?bào)傳媒集團(tuán)招聘筆試參考題庫含答案解析
- 綠化養(yǎng)護(hù)項(xiàng)目管理服務(wù)機(jī)構(gòu)設(shè)置方案、運(yùn)作流程、管理方式及計(jì)劃
- 鄉(xiāng)村景觀規(guī)劃改造
- 數(shù)字電子技術(shù)基礎(chǔ)教案
- 膠帶輸送機(jī)司機(jī)崗位技能競(jìng)賽理論題庫
- 城鄉(xiāng)規(guī)劃專業(yè)開題報(bào)告
- 義務(wù)消防隊(duì)組織管理制度模版(2篇)
- 直流充電樁培訓(xùn)
- 《小麻雀》(課件)西師大版音樂二年級(jí)上冊(cè)
- GB/T 44768-2024配電網(wǎng)線損理論計(jì)算導(dǎo)則
評(píng)論
0/150
提交評(píng)論