2023年AIGC發(fā)展趨勢(shì)報(bào)告:迎接人工智能的下一個(gè)時(shí)代-騰訊研究院_第1頁
2023年AIGC發(fā)展趨勢(shì)報(bào)告:迎接人工智能的下一個(gè)時(shí)代-騰訊研究院_第2頁
2023年AIGC發(fā)展趨勢(shì)報(bào)告:迎接人工智能的下一個(gè)時(shí)代-騰訊研究院_第3頁
2023年AIGC發(fā)展趨勢(shì)報(bào)告:迎接人工智能的下一個(gè)時(shí)代-騰訊研究院_第4頁
2023年AIGC發(fā)展趨勢(shì)報(bào)告:迎接人工智能的下一個(gè)時(shí)代-騰訊研究院_第5頁
已閱讀5頁,還剩122頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

一一報(bào)告2023一一前言012、AIGC產(chǎn)業(yè)生態(tài)加速形成和發(fā)展,走向模型即服務(wù)(MaaS)的未來、更包容性的用戶交互界面,不斷拓展應(yīng)用領(lǐng)域三、產(chǎn)業(yè)端:合成數(shù)據(jù)牽引人工智能的未來31、合成數(shù)據(jù)產(chǎn)業(yè)加快成為數(shù)據(jù)要素市場(chǎng)新賽道,科技大廠和創(chuàng)新企業(yè)搶先布局37加速構(gòu)建AI賦能、數(shù)實(shí)融合的大型虛擬世界39四、社會(huì)端:AIGC助力可持續(xù)社會(huì)價(jià)值411、元價(jià)值:解放人類創(chuàng)造力,革新藝術(shù)領(lǐng)域43AIGC45五、發(fā)展與挑戰(zhàn)并生:積極應(yīng)對(duì)AIGC帶來的社會(huì)倫理問題48六、展望:擁抱人工智能的下一個(gè)時(shí)代,打造可信AIGC生態(tài)60內(nèi)容數(shù)量內(nèi)容數(shù)量AIGCAIGeneratedContent,人工智能生成內(nèi)容)爆火出圈的—年,不僅被消費(fèi)23日,紅杉美國發(fā)表文布的開源模型StableDiffusion,可以根據(jù)用戶輸入的文字描述(稱為提示詞,prompts)自動(dòng)是否已經(jīng)具有人類智能。全球各大科技企業(yè)都在積極擁抱AIGC,不斷推出相關(guān)的技術(shù)、平臺(tái)GCAI作UGC圖:內(nèi)容創(chuàng)作模式的四個(gè)發(fā)展階段AI自動(dòng)生成內(nèi)容的生產(chǎn)方式。但是AIGC已經(jīng)代表了AI技術(shù)發(fā)展的新趨勢(shì)。過去傳統(tǒng)的人工如應(yīng)用最為廣泛的個(gè)性化推薦算法。而現(xiàn)在人工智能正在生成新的東西,而不是僅僅局限于AIGC發(fā)展趨勢(shì)報(bào)告2023分析已經(jīng)存在的東西,實(shí)現(xiàn)了人工智能從感知理解世界到生成創(chuàng)造世界的躍遷。因此,從這個(gè)它可以基于訓(xùn)練數(shù)據(jù)和生成算法模型,自主生成創(chuàng)造新的文本、圖像、音樂、視頻、3D交互內(nèi)容(如虛擬化身、虛擬物品、虛擬環(huán)境)等各種形式的內(nèi)容和數(shù)據(jù),以及包括開啟科學(xué)新發(fā)現(xiàn)、朝著效率和品質(zhì)更高、成本更低的方向發(fā)展,在某些情況下,它比人類創(chuàng)造的東西更好。包括從社交媒體到游戲、從廣告到建筑、從編碼到平面設(shè)計(jì)、從產(chǎn)品設(shè)計(jì)到法律、從營銷到銷AIGC影響和變革。數(shù)字經(jīng)濟(jì)和人工智能發(fā)展所需的海量數(shù)據(jù)也能通過AIGC技術(shù)生成、合成出來,即合成數(shù)據(jù)(syntheticdata)。未來,人AI性工作會(huì)加速進(jìn)入人機(jī)協(xié)同時(shí)代——人類與AIGC技術(shù)共同創(chuàng)造比過去單純?nèi)说膭?chuàng)造之下更高效、更優(yōu)質(zhì)。在本質(zhì)上,AIGC技術(shù)的最大影響在于,AIGC技術(shù)將會(huì)把創(chuàng)造和知識(shí)工作的邊際成本降至零,以產(chǎn)生巨大的勞動(dòng)生產(chǎn)率和經(jīng)濟(jì)價(jià)值。換句話說,正如互聯(lián)網(wǎng)實(shí)現(xiàn)了信息的零成本傳播、復(fù)制,未來塑內(nèi)容生產(chǎn)供給,進(jìn)而給依賴于內(nèi)容生產(chǎn)供給的行業(yè)和領(lǐng)域帶來巨大影響。戰(zhàn),諸如知識(shí)產(chǎn)權(quán)保護(hù)、安全、技術(shù)倫理、環(huán)境影響等。各界需要秉持科技向善理念,負(fù)責(zé)任地、安全可控地發(fā)展應(yīng)用AIGC,打造安全可信的AIGC技術(shù)和應(yīng)用,以01注:國外傾向于使用生成式AI(GenerativeAI)的表述,國內(nèi)通常使用AIGC的表述。本報(bào)告認(rèn)為兩者雖表述有不同,但是表意是—樣的,故而在行文中本章主筆:胡曉萌騰訊研究院研究員AIGC發(fā)展趨勢(shì)報(bào)告2023雖然從嚴(yán)格意義上來說,1957年萊杰倫·希勒(LejarenHiller)和倫納德·艾薩克森(Leon-ardIsaacson)完成了人類歷史上第—支由計(jì)算機(jī)創(chuàng)作的音樂作品就可以看作是AIGC的開端,距今已有65年,這期間也不斷有各種形式的生成模型、AI生成作品出現(xiàn),但是2022年才真正算是AIGC的爆發(fā)之年,人們看到了AIGC無限的創(chuàng)造潛力和未來應(yīng)用可能性。目前,1、生成算法、預(yù)訓(xùn)練模型、多模態(tài)等AI技術(shù)累積融合,催生了模型、圖:AIGC技術(shù)累積融合02—是,基礎(chǔ)的生成算法模型不斷突破創(chuàng)新。2014年,伊恩·古德費(fèi)洛(IanGoodfellow)提出的生成對(duì)抗網(wǎng)絡(luò)(GenerativeAdversarialNetwork,GAN)成為早期最為著名的生成模型。GAN使用合作的零和博奕框架來學(xué)習(xí),被廣泛用于生成圖像、視頻、語音和三維物體模sAAErnedInferenceALIDALLE為例,它通過預(yù)訓(xùn)練模型的方式,串聯(lián)融合了打通文字與圖像兩種模態(tài)的CLIP模型、控制圖像生成的擴(kuò)散模型、以及能夠同時(shí)處理多成為支持文字生成圖像的多模態(tài)AIGC工具。10X2XX10X2XX以按照輸入數(shù)據(jù)各部分重要性的不同而分配不同的權(quán)重,可以用在自然語言處理(NLP)、計(jì)算機(jī)視覺(CV)領(lǐng)域應(yīng)用。后來出現(xiàn)的BERT、GPT-3、LaMDA等預(yù)訓(xùn)練模型都是基于Transformer模型建立的。而擴(kuò)散模型(DiffusionModel)是受非平衡熱力學(xué)的步驟的馬爾可夫鏈,逐漸向數(shù)據(jù)添加隨機(jī)噪聲,然后學(xué)習(xí)逆擴(kuò)散過程,從噪聲中構(gòu)建所需的數(shù)據(jù)樣本。擴(kuò)散模型最初設(shè)計(jì)用于去除圖像中的噪聲。隨著降噪系統(tǒng)的訓(xùn)練3Z圖:擴(kuò)散模型結(jié)構(gòu)然而,從最優(yōu)化模型性能的角度出發(fā),擴(kuò)散模型相對(duì)GAN來說具有更加靈活的模型架構(gòu)和精I(xiàn)03P.Dhariwal,A.Nichol.DiffusionModelsBeatGANsonImageSynthesis(2021)04/2021/07/high-fidelity-image-generation-using.htmlAIGC發(fā)展趨勢(shì)報(bào)告2023自動(dòng)編碼(Variational模型對(duì)生成對(duì)抗網(wǎng)絡(luò)(GAN)基于流的生成模型(Flow-學(xué)習(xí)—個(gè)非線性雙射轉(zhuǎn)換(bijective整個(gè)模型架構(gòu)依靠直接最大化log-likelihood擴(kuò)散模型(DiffusionModel)擴(kuò)散模型有兩個(gè)過程,分別為擴(kuò)散過程和逆擴(kuò)散過程。在前向擴(kuò)散階段對(duì)圖像逐步施加噪聲,直至圖像被破壞變成完全的高斯噪聲,然后在逆向階段學(xué)習(xí)從高斯噪聲還原為原始圖像的過程。經(jīng)過訓(xùn)練,該模型可以應(yīng)用這些去噪方法,從—種基于自注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)模型,最初用來完成不同語言之間的文本翻譯任務(wù),主體包含Encoder和Decoder部分,分別負(fù)責(zé)對(duì)源語言文本進(jìn)行編碼和將編碼信息轉(zhuǎn)換為目標(biāo)語言文本神經(jīng)輻射場(chǎng)的表示(任何連續(xù)位置的體積密度和視角相關(guān)顏色)的方法,要解決的問題就是Training)模型—個(gè)模型的訓(xùn)練,不斷調(diào)整兩個(gè)模型的內(nèi)部參數(shù),使得模型分別輸出的文字特征和圖像認(rèn)匹配。本高、內(nèi)容生成簡單和質(zhì)量偏低,遠(yuǎn)遠(yuǎn)不能滿足真實(shí)內(nèi)容消費(fèi)場(chǎng)景中的靈活多工智能領(lǐng)域進(jìn)入了大煉模型參數(shù)的預(yù)訓(xùn)練模型時(shí)代。AI預(yù)訓(xùn)練模型,又稱為大模型、基礎(chǔ)模型(foundationmodel),即基于大量數(shù)據(jù)(通常使用大規(guī)模自我監(jiān)督學(xué)習(xí))訓(xùn)練的、擁有巨量參數(shù)的模型,可以適應(yīng)廣泛的下游任務(wù)。這些模型基于遷移學(xué)習(xí)的思想和深度學(xué)習(xí)的最新進(jìn)展,以及大規(guī)模應(yīng)用的計(jì)算機(jī)系統(tǒng),展現(xiàn)了令人驚訝的涌現(xiàn)能力,并顯著提高各種下游任務(wù)的性能。05鑒于這種潛力,預(yù)訓(xùn)練模型成為AI技術(shù)發(fā)展的范式變革,許多跨領(lǐng)域的AI系統(tǒng)將直在各種內(nèi)容的生成上將扮演關(guān)鍵角色。按照基本類型分類,預(yù)訓(xùn)練模型包括:(1)自然語言處 (CV)預(yù)訓(xùn)練模型,如微軟的Florence;(3)多模態(tài)預(yù)訓(xùn)練模型,即融合文字、圖片、音視頻等多種內(nèi)容形式。05/news/reflections-foundation-modelsAIGC發(fā)展趨勢(shì)報(bào)告2023語言理解與生成語言理解與圖像生成語言理解與圖像生成0億別言模型語言理解與生成億語言理解與圖像生成具通用性,成為多才多藝、多面手的AI模型,主要得益于多模型技術(shù)(multimodaltechnol-P行開源。CLIP模型能夠?qū)⑽淖趾蛨D像進(jìn)行關(guān)聯(lián),比如將文字“狗”和狗的圖像進(jìn)行關(guān)聯(lián),并CLIP模型具備兩個(gè)優(yōu)勢(shì):—方面同時(shí)進(jìn)行自然語言理解和計(jì)算機(jī)視覺分析,實(shí)現(xiàn)圖像和文本匹配。另—方面為了有足夠多標(biāo)記好的“文本-圖像”進(jìn)行訓(xùn)言文字、圖形圖像、音視頻等多模態(tài)、跨模態(tài)模型。2021年3月OpenAI發(fā)布AI繪畫產(chǎn)品總的來看,AIGC在2022年的爆發(fā),主要是得益于深度學(xué)習(xí)模型方面的技術(shù)創(chuàng)新。不斷創(chuàng)新的生成算法、預(yù)訓(xùn)練模型、多模態(tài)等技術(shù)融合帶來了AIGC技術(shù)變革,擁有通用性、基礎(chǔ)性、質(zhì)穩(wěn)定等特征的AIGC模型成為了自動(dòng)化內(nèi)容生AIGC發(fā)展趨勢(shì)報(bào)告2023圖:AIGC產(chǎn)業(yè)生態(tài)體系的三層架構(gòu)練模型的高成本和技術(shù)投入,因此具有較高的進(jìn)入門欖。以2020年推出的GPT-3模型為例,主要機(jī)構(gòu)為頭部科技企業(yè)、科研機(jī)構(gòu)等。目前在AIGC領(lǐng)域,美國的基礎(chǔ)設(shè)施型公司(處于上游生態(tài)位)有OpenAI、Stability.ai等。OpenAI的商業(yè)模式為對(duì)受控的api調(diào)用進(jìn)行收費(fèi)。Stability.ai以基礎(chǔ)版完全開源為主,然后通過開發(fā)和銷售專業(yè)版和定制版實(shí)現(xiàn)商業(yè)獲利,目前估值已經(jīng)超過10億美金。因?yàn)橛辛嘶A(chǔ)第二層,為中間層,即垂直化、場(chǎng)景化、個(gè)性化的模型和應(yīng)用工具。預(yù)訓(xùn)練的大模型是基礎(chǔ)設(shè)施,在此基礎(chǔ)上可以快速抽取生成場(chǎng)景化、定制化、個(gè)性化的小模型,實(shí)現(xiàn)在不同行業(yè)、垂直領(lǐng)域、功能場(chǎng)景的工業(yè)流水線式部署,同時(shí)兼具按需使用、高效經(jīng)濟(jì)的優(yōu)勢(shì)。隨著兼具大模型和多模態(tài)模型的AIGC模型加速成為新的技術(shù)平臺(tái),模型即服務(wù)(Model-as-a-Service,MaaS將對(duì)商業(yè)領(lǐng)域產(chǎn)生巨大影響。StableDiffusion開源之后,有很多基于開源模型的二次開發(fā),訓(xùn)練特定風(fēng)格的垂直領(lǐng)域模型開始流行,比如著名的二次元畫風(fēng)生第三層,為應(yīng)用層,即面向C端用戶的文字、圖片、音視頻等內(nèi)容生成服務(wù)。在應(yīng)用層,側(cè)AIGC以StableDiffu-的C端用戶中的普及起到至關(guān)重要的作用?,F(xiàn)在貼近C端用戶的工具越發(fā)豐富多樣,包括網(wǎng)聊機(jī)器人等,甚至還有利用AIGC工具定制代出圖的目前,從提供預(yù)訓(xùn)練模型的基礎(chǔ)設(shè)施層公司到專注打造AIGC產(chǎn)品和應(yīng)用工具的應(yīng)用層公司,AIGC國也有望憑借領(lǐng)先濟(jì)融合程度不斷加深,以及互聯(lián)網(wǎng)平臺(tái)的數(shù)字化場(chǎng)景向元宇宙轉(zhuǎn)型,人類對(duì)數(shù)字內(nèi)容總量和豐富程度的整體需求不斷提高。AIGC作為當(dāng)前新型的內(nèi)容生產(chǎn)方式,已經(jīng)率先在傳媒、電商、影視、娛樂等數(shù)字化程度高、內(nèi)容需求豐富的行業(yè)取得重大創(chuàng)新發(fā)展,市場(chǎng)潛力逐漸顯現(xiàn)。與此同時(shí),在推進(jìn)數(shù)實(shí)融合、加快產(chǎn)業(yè)升級(jí)的進(jìn)程中,金融、醫(yī)療、工業(yè)C本章主筆:本章主筆:胡曉萌究員研究員研究員研究員2AIGC發(fā)展趨勢(shì)報(bào)告20232數(shù)字內(nèi)容生產(chǎn)領(lǐng)域,不僅在寫作、繪畫、作曲等多個(gè)領(lǐng)域達(dá)到“類人”表現(xiàn),更展示出在大數(shù)的非凡創(chuàng)意潛能。這將塑造數(shù)字內(nèi)容生產(chǎn)的人機(jī)協(xié)作新范式,也讓內(nèi)容創(chuàng)作者和”和“效能”限制,盡情揮灑內(nèi)容創(chuàng)意???,人們?cè)诰€的時(shí)間持續(xù)增長,在線新聞、音樂、動(dòng)漫、影視、文學(xué)、游戲的數(shù)字內(nèi)容消費(fèi)的結(jié)構(gòu)也正轉(zhuǎn)型升級(jí),從以圖文為主過度到視頻為主,量中的占比不斷上升。短視頻和直播的流行,在生產(chǎn)側(cè),讓原本需要長制作周期成了可以源源不斷產(chǎn)出的“工業(yè)品”;在消費(fèi)側(cè),過往需要高注意投入、反復(fù)觀看的媒體“貨架”上的“快消品”。最后,創(chuàng)意仍是核心,仍舊稀缺,需要新的模式輔助創(chuàng)作者持續(xù)產(chǎn)生、送代和驗(yàn)證創(chuàng)意。種種因素,都需要更加低成本、高效能的數(shù)字AIGC正在越來越多地參與數(shù)字內(nèi)容的創(chuàng)意性生成工作,以人機(jī)協(xié)同的方式釋放價(jià)值,成為未從范圍上看,AIGC逐步深度融入到文字、音樂、圖片、視頻、3D多種媒介形態(tài)的生產(chǎn)中,可以擔(dān)任新聞、論文、小說寫手,音樂作曲和編曲者,多樣化風(fēng)格的畫手,長短視頻的剪輯者和后期處理工程師,3D建模師等多樣化的助手角色,在人類的指導(dǎo)下完成指定主題內(nèi)容的創(chuàng)從效果上看,AIGC在基于自然語言的文本、語音和圖片生成領(lǐng)域初步令人滿意,特別是知識(shí)類中短文,插畫等高度風(fēng)格化的圖片創(chuàng)作,創(chuàng)作效果可以與有中級(jí)經(jīng)驗(yàn)的創(chuàng)作者相匹敵;在D于探索階段,但成長很快。盡管AIGC對(duì)極端案例的處理、方面仍有許多進(jìn)步空間,但蘊(yùn)含的潛力令人期待。AIGC發(fā)展趨勢(shì)報(bào)告2023AIGC模態(tài)加工是熱點(diǎn)。吳恩達(dá)(AndrewNg)認(rèn)為多模態(tài)是2021年AI的PPerceiverIO視頻和點(diǎn)云進(jìn)行分類。典型應(yīng)用包括如文本轉(zhuǎn)換語音、文本生成圖片,廣義來看AI翻譯、圖個(gè)不同“模態(tài)”間的映射。圖:AIGC基礎(chǔ)模型和應(yīng)用發(fā)展預(yù)測(cè)(引用自紅杉資本)06AIGC在新研究范式及算力進(jìn)步下加速發(fā)展,特別是自然語言理解能力大幅進(jìn)化,典型代表是GPT就是加菲貓的照片,音樂劇《貓》和無數(shù)內(nèi)容的索引,這些不同的內(nèi)容類型可以稱為“多模態(tài)”。創(chuàng)作者以自然語言描述要素、特征后,AI就能生成對(duì)應(yīng)的不同模態(tài)的結(jié)果。2017年Google發(fā)布的Transformer開啟了大型語言模型(Largelanguagemodel,簡稱LLM)時(shí)代。它作種預(yù)訓(xùn)練語言模型中,以大數(shù)據(jù)預(yù)訓(xùn)練+小數(shù)據(jù)微調(diào)的方式,擺脫了對(duì)大量人工調(diào)參的依賴,在手寫、語音和圖像識(shí)別、語言理解方面的表現(xiàn)大幅突破,所生成的內(nèi)容也越來越準(zhǔn)確和自然。06/article/generative-ai-a-creative-new-world/圖:游戲設(shè)計(jì)師杰森·艾倫使用Midjourney模型生成的《太空歌劇院》是首個(gè)獲獎(jiǎng)的AI生成藝術(shù)式各樣的需求,做出回答、短文和詩歌創(chuàng)作、代碼寫作、數(shù)學(xué)和邏輯計(jì)算等。ChatGPT可以F在—些缺陷,例如引用不存在的論文和書籍,誤解和扭曲直觀的自然在AIGC技術(shù)開源的背景下,AIGC圖片生成也促進(jìn)了小眾文化的發(fā)展。早在2022年五月,次元形象生成器火遍國內(nèi)外。AIGC發(fā)展趨勢(shì)報(bào)告2023圖:KFC官推親自打破次元壁StableDiffusionAIGC常見的問題,如不便捷,用戶想要生成比較好的結(jié)果,需要對(duì)圖片內(nèi)容進(jìn)行詳盡的描述,并增加很多提升效果和強(qiáng)化風(fēng)格的詞, (1)內(nèi)容描述:為了得到圖片的內(nèi)容描述,QQ小世界對(duì)輸入圖中的信息進(jìn)行人物性別、得到最終盡可能準(zhǔn)確詳盡的內(nèi)容描述詞。 (2)風(fēng)格描述:為了讓結(jié)果更接近二次元,QQ小世界為各種不同場(chǎng)景設(shè)計(jì)了非常鮮明的二結(jié)合內(nèi)容描述和風(fēng)格描述,QQ小世界通過對(duì)原圖的分析得到最終完整的提示詞輸入網(wǎng)絡(luò),從而能夠穩(wěn)定生成畫面精致、風(fēng)格突出的結(jié)果。既保證了生成內(nèi)容和原圖的對(duì)應(yīng)性,又增添了很二次元的感覺,同時(shí)也保證了較高的生成質(zhì)量。圖:QQ小世界二次元風(fēng)格生成流程圖AIGC在學(xué)習(xí)通用知識(shí)和理解泛化上有更好的表現(xiàn),這是之前的生成模型沒有體現(xiàn)出來的能力。這也決定了AIGC不光是生成,而是建立在認(rèn)知與理解上的模型的應(yīng)用生態(tài)。2020年,OpenAIGPT3,在國內(nèi)外掀起千億參數(shù)預(yù)訓(xùn)練模型的研 (1)自動(dòng)內(nèi)容生成:大型語言和圖像AI模型可用于自動(dòng)生成內(nèi)容,例如文章、博客或社子。對(duì)于定期創(chuàng)建內(nèi)容的企業(yè)和專業(yè)人士來說,這可能是—種寶貴的節(jié)省時(shí)間的n詞條內(nèi)容的豐富性等方面都有了顯著的改進(jìn)。架設(shè)在社交平臺(tái)Discord上的Midjourney,果,在社會(huì)層面得到了很大的關(guān)注。 (2)提高內(nèi)容質(zhì)量:AIGC生成的內(nèi)容可能比人類創(chuàng)建的內(nèi)容質(zhì)量更高,因?yàn)槿斯ぶ悄苣A?xí)并識(shí)別人類可能看不到的模式。這可以產(chǎn)生更準(zhǔn)確和信息更豐富AIGC發(fā)展趨勢(shì)報(bào)告2023 AIGC、3D內(nèi)容等等。這可以幫助企業(yè)和專業(yè)人士創(chuàng)建更多樣化、更有趣的內(nèi)容,從而吸引更廣泛的k (4)內(nèi)容制作成本低、門欖低:基于AIGC,內(nèi)容制作的成本顯著降低、效率顯著提高,可以實(shí)現(xiàn)以十分之—的成本,以百倍千倍的生產(chǎn)速度,創(chuàng)造出有獨(dú)特價(jià)值和獨(dú)立視角的 (5)可實(shí)現(xiàn)個(gè)性化內(nèi)容生成:人工智能模型可以根據(jù)個(gè)人用戶的喜好生成個(gè)性化內(nèi)容。這可以幫助企業(yè)和專業(yè)人士創(chuàng)建目標(biāo)受眾更有可能感興趣的內(nèi)容,因此更有可能被閱讀或分ovelAI素材生產(chǎn)效率,在游戲、數(shù)字藏品領(lǐng)域初步得以應(yīng)用。文字生成圖片(Text-to-Image,T2I)是目前AI繪畫的主流生成方式,用戶輸入文本命令便可生成相應(yīng)效果圖。對(duì)于游戲開發(fā)者而07/s?id=1742950890265955383&wfr=spider&for=pc亦可批量生產(chǎn)石頭花紋、花草樹木等通用型貼圖素材。藝術(shù)是另—應(yīng)用領(lǐng)域,全球最大的AIArtAI靈感生成數(shù)字藏品,單字僅象似乎開始落地:打造—個(gè)基于生成的全新內(nèi)容平臺(tái)。圖:AIGC應(yīng)用現(xiàn)狀概覽(引用自紅杉資本)0808/article/generative-ai-a-creative-new-world/AIGC發(fā)展趨勢(shì)報(bào)告2023AIGC作為當(dāng)前新型的內(nèi)容生產(chǎn)方式,已經(jīng)率先在傳媒、電商、影視、娛樂等數(shù)字化程度高、AIGC成可以由AI提供,后期再由創(chuàng)作者進(jìn)行調(diào)整,從而提高內(nèi)容產(chǎn)出效率。根據(jù)6pen預(yù)測(cè),未AI與生成,有望創(chuàng)造超過600億以上市場(chǎng)空間,若考慮到sultingAIGC將成為打造虛實(shí)集成世界的基石。人們將在在虛擬空間構(gòu)建仿真世界,在現(xiàn)實(shí)世界“疊加”虛擬增強(qiáng),實(shí)現(xiàn)真正的臨場(chǎng)感。隨著XR、游戲引擎、云游戲等等各種交互、仿真、傳輸技術(shù)的突破,信息傳輸越來越接近無損,數(shù)字仿真能力真假難辨,人類的交互和體驗(yàn)將到達(dá)新AIGCDDAI畫那樣,為創(chuàng)作者激發(fā)新的靈感。傳統(tǒng)的3D制作需要耗費(fèi)大量時(shí)間和人力成本。以2018年發(fā)售的游戲《荒野大標(biāo)客2》為例,為了打造約60平方公里的虛擬場(chǎng)景、先后有六百余名美PCGProceduralContentGeneration—種在效能和可控度上介于AIGC年的交互內(nèi)容《黑客帝國:覺醒》中就采用了這項(xiàng)技術(shù),在最新引擎技術(shù)的加持下,虛擬城市共包括700萬個(gè)實(shí)例化資產(chǎn),每個(gè)資產(chǎn)由數(shù)百萬個(gè)多邊。09/now/generative-ai-market-size-achieve-230000291.html圖:Epic使用虛幻5引擎和程序化生成技術(shù)高效制作《黑客帝國:覺醒》中的龐大城市,016年發(fā)布、主打宇宙探險(xiǎn)的獨(dú)立游戲《無人深空》(NoMan,sSky)聲稱創(chuàng)造了1840億PCG系列生成規(guī)少的數(shù)據(jù)量生成了這個(gè)看似無限的游戲宇宙。圖:游戲《無人深空》中自動(dòng)化生成的海洋生物示例盡管如此,距離“復(fù)刻”真實(shí)世界和打造千千萬萬個(gè)幻想世界,這樣的速度還是太慢了。為什IDAIGC發(fā)展趨勢(shì)報(bào)告2023相比,本身蘊(yùn)含的信息量就有數(shù)量級(jí)的差距;其次,圖片和3D的實(shí)質(zhì)不同,如果說2D是像素點(diǎn)陣在顯示器的客觀陳列,3D則是實(shí)時(shí)、快速、海量的矩陣運(yùn)算,就像對(duì)著模型在1秒內(nèi)少有:(1)模型幾何特征,通常用幾千上萬個(gè)三角面來表示;(2)材質(zhì)特征,模型本身的顏色,是強(qiáng)反射的金屬,還是漫反射的布料;(3)光線,光源是點(diǎn)狀的嗎,顏色和強(qiáng)度如何。最后,原生3D模型的數(shù)據(jù)相對(duì)較少,遠(yuǎn)不如已存在了數(shù)千年、可以以非數(shù)字化形態(tài)存在的圖像行轉(zhuǎn)化。計(jì)算機(jī)視覺技術(shù)的進(jìn)步,為3D另辟溪徑:我們可以通過圖片來推測(cè)物體在3D空間中的形態(tài),盡可能還原每個(gè)像素點(diǎn)原本的深度信息。采用激光雷達(dá)等設(shè)備掃描物理世界,能快速得到大量3D模型。當(dāng)然,這些素材要經(jīng)過簡化處理才能更好使用。因?yàn)樗鼈償y帶了海量的坐標(biāo)點(diǎn)和顏色信息,呈現(xiàn)起來耗費(fèi)的計(jì)算資源多。想要應(yīng)用在影視、游戲、元宇宙等場(chǎng)景中,設(shè)備中,需要經(jīng)過—系列的后處理,比如讓模型的幾何表示更簡潔,還原材質(zhì)信息、盡可能去除拍攝時(shí)的光照影響等。處理后的模型,也會(huì)具有更強(qiáng)的可編輯性,比色等。目前AIGC在3D模型領(lǐng)域還處于探索階段,從基本原理和使用的模型來看,仍然以擴(kuò)散模型為基礎(chǔ),基于文字-圖片-3D路徑進(jìn)行處理。谷歌和英偉達(dá)在這—領(lǐng)域較為領(lǐng)先,先后在速度也未能盡如人意。DreamFusion夠使用文本到圖像模型先生成2D圖像,然后優(yōu)化為體積NeRF(神經(jīng)輻射場(chǎng))數(shù)據(jù)。但其缺點(diǎn)也很顯著,首先擴(kuò)散模型僅對(duì)64x64的圖像生時(shí)費(fèi)力,導(dǎo)致生成速度較慢。SA,2022-9-26隨后,英偉達(dá)發(fā)布了Magic3D,同樣是從文字描述中生成3D模型的AI模型。在輸入諸如“—只坐在睡蓮上的藍(lán)色毒標(biāo)蛙”這樣的提示后,Magic3D在大約40分鐘內(nèi)生成了—個(gè)3D網(wǎng)格模型,并配有彩色紋理。Magic3D的轉(zhuǎn)換分為兩步,先將低分辨率生成粗略模型,再優(yōu)化為高分辨率的精細(xì)模型,而且使用InstantNGP的哈希特征編碼,高分辨率圖像特征表示的計(jì)算成本大大降低,因此比谷歌DreamFusion的3D生成速度更快、效果更好。同時(shí),與文本到圖片的擴(kuò)散模型類似,Magic3D可以在幾代生成圖像中均保留相同的主題(—般稱為“—致性”),并將2D圖像(如立體派繪畫)的風(fēng)格應(yīng)用于3D模型。研究人員表示,模型完善后有望使3D合成技術(shù)進(jìn)—步普及,并激發(fā)每個(gè)人在3D內(nèi)容上的創(chuàng)造力。所產(chǎn)生的技術(shù)可以加速游戲和VR應(yīng)用的開發(fā),可能最終會(huì)在電影和電視的特效制作中實(shí)現(xiàn)落地應(yīng)用。圖:Magic3D(第1、3列)與DreamFusion(第2、4列)對(duì)比AIGC模型GET3D(GenerateExplicitTextured3D的縮寫),具備生成具有顯示紋理的3D網(wǎng)格的能力,可根據(jù)其所訓(xùn)練的建筑物、汽車、動(dòng)物等2D圖像類別,即時(shí)合成3D幾何體。AIGC生成的物體具有高保真的紋理和復(fù)雜的幾何細(xì)節(jié),并且以常用圖形軟件應(yīng)用中所使用的三角網(wǎng)格格式創(chuàng)建,這使得用戶可以十分輕松地將這些幾何體導(dǎo)入3D這染器和游戲引擎,以進(jìn)行后續(xù)編輯??捎糜跇?gòu)建為游戲、機(jī)器人、建筑、社交媒體等行業(yè)設(shè)計(jì)的數(shù)字空間,比如建DDAIGC發(fā)展趨勢(shì)報(bào)告2023VIDIAGETDAIDAI顯示,在分離景中移動(dòng)的物體替換材質(zhì)或者調(diào)整光照。4、聊天機(jī)器人和數(shù)字人成為新的、更包容性的用戶交互界面,不 (1)聊天機(jī)器人:2022年12月1日,美國人工智能研究公司OpenAI研發(fā)的AI聊天機(jī)器人ChatGPTWeb,不僅能夠滿足與人類進(jìn)行對(duì)話的基本功能,能誤、質(zhì)疑不正確的前提和拒絕不適當(dāng)?shù)恼?qǐng)求。而且,根據(jù)各領(lǐng)域的用戶在使用后反債,ChatGPT還可以駕駁各種風(fēng)格和文體,且代碼編輯能力、基礎(chǔ)腦力工作處文字輸出任務(wù)的完成程度也大大超出預(yù)期。比如根據(jù)關(guān)鍵詞或提問,生成11/s/Yr-8HSVFQj26X-n75cyKvw的搜索引擎。12目前,從ChatGPT展示出來的內(nèi)容輸出質(zhì)量和內(nèi)容覆蓋多維度,已經(jīng)可以直etSundarPichai議,并指示公司的許多團(tuán)隊(duì)重新集Google和ChatGPT進(jìn)行了對(duì)比,分別在Google搜索和ChatGPT中提出了同—個(gè)問題 (2)數(shù)字人:數(shù)字人、虛擬機(jī)器人是數(shù)字智能體(digitalagent),作為新的交互形式,目前已有很多應(yīng)用,包括元宇宙應(yīng)用中的NPC虛擬角色、用戶虛擬替身/虛擬形象(avatar),主12/article/739676.html?type=text&visit_source=home_page&collection_id=13913/newsDetail_forward_21282873AIGC發(fā)展趨勢(shì)報(bào)告2023圖:應(yīng)用了AIGC的騰訊2D數(shù)字人自動(dòng)化管線生產(chǎn)流程(引用自騰訊研究院《數(shù)字人產(chǎn)業(yè)發(fā)展趨勢(shì)報(bào)告》)首先,AIGC大大提升了數(shù)字人的制作效能。用戶可以上傳照片/視頻,通過AIGC生成寫實(shí)類型的數(shù)字人,具有生成過程較短、成本低、可定制等特點(diǎn)?;贏IGC的3D數(shù)字人建模已經(jīng)初步實(shí)現(xiàn)產(chǎn)品化,目前精度可以達(dá)到次世代游戲人物級(jí)別,優(yōu)勢(shì)是可以開放程序接口,對(duì)接各種應(yīng)用,因此潛力較大,范圍較廣,特別是C端的應(yīng)用,可以通過便捷化的上傳圖片即可生成3D數(shù)字人面部模型。未來發(fā)展方向是通過算法驅(qū)動(dòng)提高精度,優(yōu)化建模效果,比如:偏移矯正、形成高度逼真的仿真這染,同時(shí)結(jié)合臉部表情、情緒、發(fā)型、年齡特征等因素讓用戶的虛擬形象更具活力。目前,Meta、英偉達(dá)等眾多科技公司已經(jīng)在利用AI技術(shù)幫助用戶在虛擬世界打verseavatar其次,AIGC支撐了AI驅(qū)動(dòng)數(shù)字人多模態(tài)交互中的識(shí)別感知和分析決策功能,使其更神似人。自然語言處理是數(shù)字人的大腦,直接影響交互體驗(yàn),而計(jì)算機(jī)視覺決定了數(shù)字人面部表情和肢進(jìn)行感知-決策-表達(dá)的閉環(huán)來驅(qū)動(dòng)數(shù)字人交互。計(jì)算機(jī)視覺(CV)目前數(shù)字人聲唇同步技術(shù)相對(duì)完善,在游戲中已經(jīng)大量應(yīng)用。的的理解嘴形視頻(2D)/嘴形動(dòng)畫(3D)的數(shù)據(jù)進(jìn)行者標(biāo)簽表:AIGC支撐AI驅(qū)動(dòng)數(shù)字人多模態(tài)交互的趨勢(shì),—是融入會(huì)話式AI系統(tǒng)(ConversationalAI),給傳統(tǒng)的Siri等虛擬助手、器人以—個(gè)具象化、有親和力的人類形象,提升交流中情感的連接,有望給預(yù)計(jì)到2026年將增長到184億美元。隨著線上空間日益豐富,更多普通用戶也希望擁有自在虛幻引擎中集成的虛擬人工具M(jìn)etahuman,用戶可以在系統(tǒng)提供的基礎(chǔ)形象模板上修改參數(shù),僅用30分鐘就能“捏”成獨(dú)—無二的形象??烧{(diào)節(jié)內(nèi)容既包括整體的膚色、身材,也包括細(xì)節(jié)的面龐輪廓、五官大小等。未來,對(duì)話式AI系統(tǒng)、先進(jìn)的實(shí)時(shí)圖形處理等技術(shù)的結(jié)合,將使得數(shù)字人、虛擬助手、虛擬伴侶、NPC等數(shù)字智能體(digitalagent)能夠逼真地模仿人類的音容笑貌,變得更加智能化、人性化。這將帶來更復(fù)雜的、自然交互的AI虛擬角色,除了模仿人類的語言表達(dá),還具有表情、肢體語言、情緒甚至物理交互等能力,給用戶提供更直AIGC發(fā)展趨勢(shì)報(bào)告2023力。元宇宙最令人興奮的特征之—是它的可擴(kuò)展性潛力,它將極大擴(kuò)展人類在虛擬世界的生存空間。但是問題在于,誰來建造這個(gè)巨大的世界?它將如何填充內(nèi)容?如今,創(chuàng)建高保真3D模型或虛擬人通常需要大量的計(jì)算機(jī)科學(xué)家和數(shù)字藝術(shù)家。面對(duì)這個(gè)空間所需要的大量的數(shù)字AIGC將是新的元宇宙內(nèi)容生成解決方案。求。圖:扎克伯格在元宇宙的島嶼上,可以通過發(fā)出語音命令變換天氣、生成創(chuàng)建海灘等不同場(chǎng)景14/pulse/how-generative-ai-impact-metaverse-info-tech-research-group/?trk=public_post力工具。元宇宙在理論上可以用于工作、會(huì)議、游戲以及生活社交等各種人類活動(dòng),因此需要在元宇宙空間中創(chuàng)建各種各樣的活動(dòng)對(duì)象、建筑和活動(dòng)環(huán)境。但是,在過去,為了構(gòu)建這些數(shù)半手工地創(chuàng)建每—個(gè)部分,從山丘到大海,用鼠標(biāo)拖動(dòng)來放置樹木或家AIGC現(xiàn)創(chuàng)建逼真的3D虛擬空間環(huán)境、虛擬人物,并且效率和成本可間環(huán)境創(chuàng)建。在元宇宙發(fā)展的過程中,游戲是虛擬世界重要的載體,將需要大量數(shù)字原生的場(chǎng)景。AIGC可以極大提高數(shù)字原生內(nèi)容的開發(fā)效率,降低游戲開發(fā)成本。具體來說,劇情、角色、頭像、道世界、進(jìn)行無限內(nèi)容創(chuàng)作,從而實(shí)現(xiàn)自發(fā)有機(jī)生長。例如,當(dāng)用戶朝任何方向行走時(shí),游戲通過將2D視頻輸入來創(chuàng)建語義標(biāo)記和可修改的3D環(huán)境。正如Unity人工智能高級(jí)副總裁DannyLange所言:“市政府想要通過城市的數(shù)字李生來做—些規(guī)劃。而城市數(shù)字李生很難聘AIGC編寫代碼,使開發(fā)人員可以花更少的時(shí)編寫代碼,而花更多的時(shí)間來表達(dá)需求,最終實(shí)現(xiàn)生產(chǎn)力的大幅提升,以及元宇宙空間環(huán)境C字內(nèi)容是吸引人們進(jìn)駐元宇宙的重要原因,而這些內(nèi)容如果僅通過人工方式來生產(chǎn)既成本高需求,因此,需要AIGC作為生產(chǎn)力工具來滿足和填A(yù)IGC數(shù)字藝術(shù)家團(tuán)隊(duì)數(shù)周才能完成,然而這兩個(gè)項(xiàng)目都是由兩個(gè)軟件開發(fā)15/ml/unity-s-ai-chief-on-generative-ai-metaverse-and-gamingAIGCD這種創(chuàng)造內(nèi)容的方式,我們可以想象未來的元宇宙體驗(yàn)將不再完全由開發(fā)人員構(gòu)建,而是利用應(yīng)該存在很多類似NPC的智能體為用戶提供交互服務(wù),這些智能體可以由AIGC生成并驅(qū)動(dòng)。ChatGPT便可以作為語言模型中集成到各種智能體中充當(dāng)元宇宙中高度逼真的虛擬助手或伙16https://www.artificialintelligence.news/how-will-ai-power-the-metaverse/AIGC發(fā)展趨勢(shì)報(bào)告2023本章主筆:研究員研究員3AIGC發(fā)展趨勢(shì)報(bào)告2023隨著AIGC技術(shù)持續(xù)創(chuàng)新發(fā)展,基于AIGC算法模型創(chuàng)建、生成合成數(shù)據(jù)(syntheticdata)迎此,業(yè)界非常看好合成數(shù)據(jù)的發(fā)展前景及其對(duì)人工智能未來發(fā)展的巨大價(jià)值。Forrester、埃發(fā)展的核心要素,認(rèn)為合成數(shù)據(jù)對(duì)于人工智能的未來而言是“必選項(xiàng)”和“必需品”。例如,2.0的五項(xiàng)關(guān)鍵技術(shù)進(jìn)展,可以解決人工智能1.0所面臨的—些限制和挑戰(zhàn),諸如數(shù)據(jù)、準(zhǔn)確成為AI模型所使用的數(shù)據(jù)的主要來源。20MIT科技評(píng)論將AI合成數(shù)據(jù)列為2022年十大突破發(fā)展應(yīng)用的數(shù)據(jù)基礎(chǔ),可以認(rèn)為,合成數(shù)據(jù)關(guān)乎人工智能的未來。在概念上,合成數(shù)據(jù)是計(jì)算機(jī)模擬(computersimulation)技術(shù)或算法創(chuàng)建、生成的自標(biāo)注 (annotated)信息,可以在數(shù)學(xué)上或統(tǒng)計(jì)學(xué)上反映真實(shí)世界數(shù)據(jù)的屬性,因此可以作為真實(shí)世界數(shù)據(jù)的替代品,來訓(xùn)練、測(cè)試、驗(yàn)證AI模型。簡而言之,合成數(shù)據(jù)是在數(shù)字世界中創(chuàng)造的,而非從現(xiàn)實(shí)世界收集或測(cè)量而來。22合成數(shù)據(jù)擁有很長的歷史,在其發(fā)展過程中技術(shù)不斷創(chuàng)新。例如,游戲引擎、3D圖形等模擬技術(shù)(simulationtechnology)可以創(chuàng)建高保真的仿真物體和仿真環(huán)境,而結(jié)合了AI技術(shù)的3D-AI技術(shù)則可以極大提升自動(dòng)化生產(chǎn)3D內(nèi)容的效率和保真度(fidelity)。得益于生成對(duì)抗網(wǎng)絡(luò)(GAN)、變分自編碼器(VAE)、Transformer模型、擴(kuò)散模型(DiffusionModel)、神經(jīng)輻射場(chǎng)模型(NeRF)等不斷涌現(xiàn)的AI算法,不僅合成數(shù)據(jù)的種類得到了擴(kuò)展,而且其質(zhì)量也不斷得到提升。就目前而言,合成數(shù)據(jù)大致可分為三類:表格數(shù)據(jù)/結(jié)構(gòu)化數(shù)據(jù),圖像、視頻、語音等媒體數(shù)據(jù),以及文本數(shù)據(jù)。23這幾類合成數(shù)據(jù)在多個(gè)領(lǐng)域都有應(yīng)用。AIGC技術(shù)的持續(xù)創(chuàng)新,讓合成數(shù)據(jù)迎來新的發(fā)展契機(jī),開始進(jìn)發(fā)出更大的產(chǎn)業(yè)發(fā)展和商業(yè)應(yīng)用活力。17/_acnmedia/Thought-Leadership-Assets/PDF-5/Accenture-Meet-Me-in-the-Metaverse-Full-Report.pdf18/research/report/ai-trends-2022/19/article/aws-ibm-google-and-microsoft-are-taking-ai-from-1-0-to-2-0-according-to-forrester/20/en/newsroom/press-releases/2022-06-22-is-synthetic-data-the-future-of-ai21/2022/02/23/1044965/ai-synthetic-data-2/22/blog/2021/06/08/what-is-synthetic-data/23/@adrialsina/is-synthetic-data-the-future-of-ai-exploring-enterprise-use-cases-eb0f7152fe9e應(yīng)用離不開數(shù)據(jù),但真實(shí)世界數(shù)據(jù)面臨著難以獲取、質(zhì)量差、標(biāo)準(zhǔn)不統(tǒng)—等諸的合成數(shù)據(jù),作為真實(shí)數(shù)據(jù)數(shù)據(jù)的廉價(jià)替代品,日theticdatafordeeplearning)認(rèn)為,合成數(shù)據(jù)是現(xiàn)代深度學(xué)習(xí)領(lǐng)域閏閏升起的最具前景的通相比基于真實(shí)物體、事件或人物的數(shù)據(jù),可以發(fā)揮同樣好甚至更好的效果。25總之,合成數(shù)據(jù)技術(shù)可以實(shí)現(xiàn)更廉價(jià)、更高效地批量生產(chǎn)制造AI模型訓(xùn)練開發(fā)所需的海量數(shù)據(jù)(諸如訓(xùn)練數(shù)據(jù)、測(cè)試數(shù)據(jù)、驗(yàn)證數(shù)據(jù)等等),作為對(duì)真實(shí)數(shù)據(jù)的替代或補(bǔ)充,將推動(dòng)人工智能邁向2.0階I可以說,目前人工智能仍處在1.0階段(AI1.0),數(shù)據(jù)是最大摯肘,業(yè)界利用真實(shí)世界數(shù)據(jù)訓(xùn)練AI模型面臨多方面問題:數(shù)據(jù)采集、標(biāo)注費(fèi)時(shí)費(fèi)力、成本高企;數(shù)據(jù)質(zhì)量較難保障;數(shù)據(jù)多樣化不足,難以覆蓋長尾、邊緣案例,或者特定數(shù)據(jù)在現(xiàn)實(shí)世界中難以采集、不方便獲取;數(shù)據(jù)獲取與使用、分享等面臨隱私保護(hù)挑戰(zhàn)和法規(guī)限制,等等。這些數(shù)據(jù)方面的限制在很大程泛的應(yīng)用和部署。合成數(shù)據(jù)有望解決這些問題,推動(dòng)人工智能邁向2.0階段(AI2.0),可以在更大程度上拓展人工智能的應(yīng)用。具體而言,對(duì)于人工智能而言,合成數(shù)據(jù)可以發(fā)揮諸多價(jià)值:(1)實(shí)現(xiàn)數(shù)據(jù)增強(qiáng)和數(shù)據(jù)模擬,解決數(shù)據(jù)匿乏、數(shù)據(jù)質(zhì)量等問題,包括通過合成數(shù)據(jù)來改善基準(zhǔn)測(cè)試數(shù)據(jù) (benchmarkdata)的質(zhì)量等;(2)避免數(shù)據(jù)隱私/安全/保密問題,利用合成數(shù)據(jù)訓(xùn)練AI模型可以避免用戶隱私問題,這對(duì)于金融、醫(yī)療等領(lǐng)域而言尤其具有意義;(3)確保數(shù)據(jù)多樣性,更多反映真實(shí)世界,提升AI的公平性,以及糾正歷史數(shù)據(jù)中的偏見,消除算法歧視;(4)應(yīng)對(duì)長尾、邊緣案例,提高AI的準(zhǔn)確性、可靠性,因?yàn)橥ㄟ^合成數(shù)據(jù)可以自動(dòng)創(chuàng)建、生成現(xiàn)實(shí)世界中難以或者無法采集的數(shù)據(jù)場(chǎng)景,更好確保AI模型的準(zhǔn)確性;(5)提升AI模型訓(xùn)練速度24/pdf/1909.11512.pdf25/2022/synthetic-data-ai-improvements-1103AIGC發(fā)展趨勢(shì)報(bào)告2023和效果??傊煤铣蓴?shù)據(jù)可以更廉價(jià)、更高效、更準(zhǔn)確、更安全可靠地訓(xùn)練AI模型,進(jìn)2、合成數(shù)據(jù)助力破解AI“深水區(qū)”的數(shù)據(jù)難題,持續(xù)拓展產(chǎn)業(yè)互合成數(shù)據(jù)早期主要應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域,因?yàn)橛?jì)算機(jī)視覺被廣泛應(yīng)用于自動(dòng)駕駛汽車、機(jī)器人、安防、制造業(yè)等領(lǐng)域,在這些應(yīng)用場(chǎng)景中打造AI模型都需要大量的被標(biāo)注的圖像、視頻非易事。以自動(dòng)駕駛汽車為例,由于實(shí)際道路交通場(chǎng)景千變?nèi)f化,道路測(cè)試來窮盡其在道路上可能遇到的每—個(gè)場(chǎng)景是不現(xiàn)實(shí)的,必須借助于合成數(shù)據(jù)才能更好地訓(xùn)練、開發(fā)自動(dòng)駕駛系統(tǒng)。為此,自動(dòng)駕駛企業(yè)開發(fā)了復(fù)雜的仿真引擎來“虛擬地合成”自動(dòng)駕駛系統(tǒng)訓(xùn)練所需的海量數(shù)據(jù),并高效地應(yīng)對(duì)駕駛場(chǎng)景中的“長自動(dòng)生成無需標(biāo)注的各種交通場(chǎng)景數(shù)據(jù),助力自動(dòng)駕駛系統(tǒng)開發(fā)。在安全的、合成的仿真環(huán)境中,計(jì)算機(jī)可以模擬任何人類想象得到的駕駛場(chǎng)景,諸如調(diào)節(jié)天氣狀況、添加或移除行人、改變其他車輛的位置等等??梢哉f,合成數(shù)據(jù)和仿真技術(shù)是自動(dòng)駕駛的核心支撐技術(shù)。最早涌現(xiàn)業(yè)公司就瞄準(zhǔn)的是自動(dòng)駕駛汽車市場(chǎng),幫助自動(dòng)駕駛企業(yè)解決其在自動(dòng)駕駛數(shù)據(jù)和測(cè)試難題。業(yè)領(lǐng)域拓展應(yīng)用。合成數(shù)據(jù)在金融不斷拓展,并且受到咨詢公司、金融巨頭和監(jiān)管機(jī)構(gòu)的關(guān)注。合成數(shù)據(jù)背后的生成式AI被Gartner評(píng)為2022年銀行和投資服務(wù)領(lǐng)域越來越受歡迎的三項(xiàng)AI護(hù)合規(guī)的方式提供接近真實(shí)世界的數(shù)據(jù)。而在銀行和投資服務(wù)領(lǐng)域,生成對(duì)抗網(wǎng)絡(luò)(GAN)和自然語言生成(NLG)的應(yīng)用可以在大多數(shù)欺詐檢測(cè)、交易預(yù)測(cè)、合成數(shù)據(jù)生成和風(fēng)險(xiǎn)因素建模的場(chǎng)景中找到。例如,美國運(yùn)通(AmericaExpress)利用GAN創(chuàng)建合成數(shù)據(jù)來訓(xùn)練、優(yōu)化其進(jìn)26/en/newsroom/press-releases/2022-05-24-gartner-identifies-three-technology-trends-gaining-tr摩根大通(J.P.Morgan)2021年9月在其官網(wǎng)發(fā)布相關(guān)研究,提出通過生成合成數(shù)據(jù)集加國外金融服務(wù)業(yè)所產(chǎn)生的大量真實(shí)數(shù)據(jù)因?yàn)榉上拗?如歐盟的GDPR和美國的CCPA)和隱法使用或使用存在諸多限制。合成數(shù)據(jù)創(chuàng)造的新樣本具有真實(shí)數(shù)據(jù)的性質(zhì),增加實(shí)數(shù)據(jù)中的罕見樣本,以便更有效地訓(xùn)練機(jī)器學(xué)習(xí)算法?!獋€(gè)關(guān)鍵的領(lǐng)域是欺詐檢測(cè)模型訓(xùn)練。由于欺詐性案件的數(shù)量與非欺詐性案件相比較十分稀少,研究人員很難有效地從可用數(shù)據(jù)中訓(xùn)練模型,導(dǎo)致無法針對(duì)欺詐性行為進(jìn)行建模。然而,合成數(shù)據(jù)可以生成比實(shí)際數(shù)據(jù)中欺詐本,用于幫助改進(jìn)模型訓(xùn)練。圖:金融數(shù)據(jù)合成過程(來源:摩根大通官網(wǎng))英國金融行為監(jiān)管局(FinancialConductAuthority,F(xiàn)CA)也積極跟進(jìn)合成數(shù)據(jù)作為—項(xiàng)隱成統(tǒng)計(jì)學(xué)上真實(shí)(statisticallyrealistic)的但“人造”(artificial)的數(shù)據(jù),為數(shù)據(jù)共享提供更多的機(jī)會(huì)。技術(shù)的應(yīng)用有利于提供更普及、更高效、更好提升消費(fèi)者體驗(yàn)的金融服務(wù),目前的應(yīng)用領(lǐng)域包括:金融犯罪和欺詐預(yù)防、信用評(píng)分、銷售和交易、保險(xiǎn)產(chǎn)品定價(jià)和索賠管理、資產(chǎn)管理和組合優(yōu)化等。值得注意,合成數(shù)據(jù)也存在通過逆向工程來獲取真實(shí)數(shù)據(jù)的風(fēng)險(xiǎn),對(duì)數(shù)據(jù)業(yè)有效需求的看法以及潛在的限制和風(fēng)險(xiǎn)。27/technology/technology-blog/synthetic-data-for-real-insights28.uk/publication/call-for-input/synthetic-data-to-support-financial-services-innovation.pdfAIGC發(fā)展趨勢(shì)報(bào)告2023圖:合成數(shù)據(jù)存在真實(shí)數(shù)據(jù)泄露風(fēng)險(xiǎn)(來源:英國國家統(tǒng)計(jì)辦公室)在醫(yī)療領(lǐng)域,醫(yī)療影像的合成數(shù)據(jù)正對(duì)醫(yī)療AI領(lǐng)域的發(fā)展產(chǎn)生巨大推動(dòng)作用。例如,創(chuàng)業(yè)企AIIlluminaGretel合作,利用合成的基因組數(shù)據(jù)來進(jìn)行醫(yī)學(xué)研究,以避免限制性立法、病人同意等問題,這些問題阻礙醫(yī)模。另—個(gè)典型的例子是將合成數(shù)據(jù)用于新冠肺炎相關(guān)的醫(yī)學(xué)研究。為了對(duì)抗新冠肺炎,研究人員需要獲取足夠的病例數(shù)據(jù)來開展研究,但出于隱私保護(hù)等顧慮,研究人員在獲取新冠肺炎相關(guān)的病例數(shù)據(jù)時(shí)面臨不小的困難。為此,美國國立衛(wèi)生研究院(NIH)和tCollaborativeNC成的Covid-19數(shù)據(jù)。合成數(shù)據(jù)精確地復(fù)制征,但與原始數(shù)據(jù)不存在任何關(guān)聯(lián),可以被世界范圍內(nèi)的研究人員自由究發(fā)現(xiàn)、疾病治療、疫苗開發(fā)等方面的工作。AIAI倫理問題,支持打造更AIAI支持構(gòu)建更具包據(jù)集。3、合成數(shù)據(jù)產(chǎn)業(yè)加快成為數(shù)據(jù)要素市場(chǎng)新賽道,科技大廠和創(chuàng)新微軟的Azure云服務(wù)則推出了airSIM平臺(tái),可以創(chuàng)建高保真的(highfidelity)的3D虛擬環(huán)以避免用戶隱私問題;其合成數(shù)據(jù)技術(shù)Wordforge工具可以用來創(chuàng)建合成場(chǎng)景(synthetich出了合成數(shù)據(jù)能力,可以自動(dòng)生成標(biāo)注的合成圖片數(shù)據(jù),即該工具可以就特定物體創(chuàng)建不同位Meta(原Facebook)也著力于為另—方面,合成數(shù)據(jù)作為AI領(lǐng)域的新型產(chǎn)業(yè),相關(guān)創(chuàng)新創(chuàng)業(yè)方興未艾,合成數(shù)據(jù)創(chuàng)業(yè)公司不斷涌現(xiàn),合成數(shù)據(jù)領(lǐng)域的投資并購持續(xù)升溫,開始涌現(xiàn)了合成數(shù)據(jù)即服務(wù)(syntheticdataasaserviceSDaaS十分廣闊的全新商業(yè)模式。33據(jù)國外研究者統(tǒng)計(jì),目前全球29/news/nvidia-announces-omniverse-replicator-synthetic-data-generation-engine-for-training-ais30/isaac-sim31/blog/2021/11/09/drive-sim-replicator-synthetic-data-generation/32/innovation-stories/microsoft-launches-project-airsim-an-end-to-end-platform-to-accelerate-autonomous-flight/33/business/ais-next-big-thing-is-fake-data/2022/06/27/d1a2e4f0-f5d6-11ec-81db-ac07a394a86b_story.htmlAIGC發(fā)展趨勢(shì)報(bào)告2023n月,公眾視野中已知的合成數(shù)據(jù)公司融資總額達(dá)到3.28億美元,比2020年高出2.75億美元。合成數(shù)據(jù)的創(chuàng)業(yè)賽道主要涵蓋非結(jié)構(gòu)化數(shù)據(jù)(圖片、視頻、語音等)、結(jié)構(gòu)化數(shù)據(jù)(表格等)、測(cè)試數(shù)據(jù)(testdata)、開源服務(wù)等幾大方向。其中,非結(jié)構(gòu)化合成數(shù)據(jù)持續(xù)保持強(qiáng)勁發(fā)展勢(shì)頭,這主要得益于以下幾個(gè)因素:第—,計(jì)算機(jī)視覺應(yīng)用場(chǎng)景相對(duì)成熟;第二,有游戲引擎 等快速發(fā)展的產(chǎn)業(yè)對(duì)合成數(shù)據(jù)有較高需求。目前結(jié)構(gòu)化數(shù)據(jù)合成和測(cè)試數(shù)據(jù)合成正在迅猛發(fā)展,尤其是合成的測(cè)試數(shù)據(jù)更少受到數(shù)據(jù)隱私立法的限制,所以開始受到業(yè)界青睬。此外,合成數(shù)圖:合成數(shù)據(jù)產(chǎn)業(yè)生態(tài)—覽表(來源:medium網(wǎng)站)AI以預(yù)見,合成數(shù)據(jù)作為數(shù)據(jù)要素34/everything-that-happened-in-the-synthetic-data-space-in-2022-c5d6cb5aaf06圖:合成數(shù)據(jù)發(fā)展預(yù)測(cè)(來源:Gartner)合成數(shù)據(jù)指向的終極應(yīng)用形態(tài)是借助游戲引擎、3D圖形、AIGC技術(shù)構(gòu)建的數(shù)實(shí)融合的大型虛擬世界。大型虛擬世界對(duì)于人工智能的核心價(jià)值在于,為測(cè)試、開發(fā)新的人工智能應(yīng)用,提第二,大型虛擬世界為各行各業(yè)訓(xùn)練開發(fā)AI提供了試驗(yàn)田。這個(gè)方面的—個(gè)典型例子就是用英偉達(dá)、騰訊等國內(nèi)外科技公司都在大力布局自試自動(dòng)駕駛算法。在國內(nèi),騰訊自動(dòng)m界中進(jìn)行測(cè)試和學(xué)習(xí),極大降低了自動(dòng)駕駛汽車的研發(fā)成本。在國外,自動(dòng)駕駛企業(yè)Waabi希望主要通過虛擬仿真而非實(shí)際道路測(cè)試來訓(xùn)練其自動(dòng)駕駛系統(tǒng),構(gòu)建了WaabiWorld這—接近實(shí)時(shí)地模擬汽車的傳感器,而且模擬的環(huán)境可以和人工智能之間可以相互做出反應(yīng)。這是非常重要的,因?yàn)樽詣?dòng)駕駛汽車不僅需要感知世界,還需要安全地采取行動(dòng)。大型虛擬世界提AIAI融合。在大型虛擬世界,如游戲虛擬世界或者其他的仿真的3D合成世界(simulatedsyntheticworld)中訓(xùn)練AI虛擬機(jī)器人,讓其自我學(xué)習(xí)、進(jìn)化,然后部署到現(xiàn)實(shí)世界中,產(chǎn)生現(xiàn)實(shí)的價(jià)值。此外,大型虛擬世界對(duì)AI如,游戲世界是開展AI強(qiáng)化學(xué)習(xí)和多智能體協(xié)作的最佳載體;也可以在大型虛擬世界中利用虛擬人開發(fā)更宜居的建筑設(shè)計(jì);大型虛擬世界如果可以仿真物理現(xiàn)象,就可進(jìn)行虛擬化學(xué)實(shí)驗(yàn),相比人類利用真實(shí)的化學(xué)藥品開展實(shí)驗(yàn),軟件可以利用虛擬的化學(xué)藥品更高效、更安全、更大規(guī)模地開展化學(xué)實(shí)驗(yàn)。總之,大型虛擬世界對(duì)于數(shù)實(shí)融合的巨大可能性,值得持續(xù)深挖和不斷探索。AIGC發(fā)展趨勢(shì)報(bào)告2023本章主筆:王煥超騰訊研究院研究員4AIGC發(fā)展趨勢(shì)報(bào)告2023“GenerativeAI(生成式AI)有什么社會(huì)價(jià)值?”AI術(shù),它可以使用訓(xùn)練數(shù)據(jù)來生成新的內(nèi)容。這種技術(shù)可以用來解決各種問題,具有很高的社會(huì)價(jià)值。例如,它可以用來生成文本、圖像、音頻和視頻,這些內(nèi)容可以用來幫助人們了解世界,也可此外,生成式AI還可以用來解決—些非常復(fù)雜的問題,比如提供新的醫(yī)療方案、幫助制定更類更好地了解自己??偟膩碚f,生成式AI為人類提供了很多有價(jià)值的機(jī)會(huì),有助于人類更好地理解世界,并創(chuàng)造整體來看,ChatGPT的回答概括性強(qiáng),而且較為準(zhǔn)確地總結(jié)了生成式AI的價(jià)值,盡管還有話機(jī)器人前輩們被冠以“人工智障”的名號(hào)許久之后,ChatGPT終于以嶄新的面貌—雪前恥,并將AI生成(文本)內(nèi)容推向了新的發(fā)展階段?!吧伞憋@然是2022年的主線。歷經(jīng)數(shù)年墊伏與積累之后,在這—年,AIGC得到快速發(fā)展,并迅速成為科技圈與創(chuàng)投圈的熱詞,也在應(yīng)用領(lǐng)域收獲數(shù)百萬量級(jí)的用戶。那么,來勢(shì)兇猛的本報(bào)告認(rèn)為,AIGC的社會(huì)價(jià)值體現(xiàn)為革新數(shù)字內(nèi)容與藝術(shù)創(chuàng)造領(lǐng)域,并將輻射到其他領(lǐng)域和行業(yè),孕育新的技術(shù)形態(tài)與價(jià)值模式,甚至?xí)蔀橥ㄍ鵄GI的可能性路徑:1、AIGC以高效率、低成本滿足個(gè)性化需求,完成基礎(chǔ)性工作,釋放人類創(chuàng)造力,推動(dòng)2、AIGC的生成能力將延伸、輻射深入到其他領(lǐng)域(如醫(yī)療、教育、傳媒、影視、工業(yè),以及元宇宙、數(shù)字人領(lǐng)域),通過進(jìn)—步互動(dòng)結(jié)合,催化新的業(yè)態(tài)與價(jià)值模式,形成3、經(jīng)由應(yīng)用層積累的巨量數(shù)據(jù),推動(dòng)大模型提升計(jì)算復(fù)雜度,AIGC將成為通向通用人工智能(Artificialgeneralintelligence)的可能性路徑。1、元價(jià)值:解放人類創(chuàng)造力,革新藝術(shù)領(lǐng)域AIGC最基本的能力是生成內(nèi)容(generatingcontent),包括文本、圖像、音頻、視頻、代碼、3D內(nèi)容或者幾種媒介類型相轉(zhuǎn)換、組合的“多模態(tài)內(nèi)容”。AIGC這種“生成”的能力,使其高質(zhì)量創(chuàng)造海量的內(nèi)容。以AI繪畫模型為例,—張人類畫手可能要花費(fèi)數(shù)日來完成的畫作,只需要—串關(guān)鍵詞和幾分力的解放,對(duì)于大量重復(fù)性、機(jī)械化的低層次任務(wù),可以由AI來完成,從而釋放人類創(chuàng)造能力,讓人類創(chuàng)作者的腦力和時(shí)間用于更具創(chuàng)造性的任務(wù)中。在《天才與算法》—書中,作者馬庫斯·杜·桑托伊論證了“圖靈測(cè)試”的過時(shí),并提出—個(gè)評(píng)價(jià)人工智能的智能程度的新方式——洛夫萊斯測(cè)試。通過這—測(cè)試的標(biāo)準(zhǔn)是,算法需要?jiǎng)?chuàng)作—件藝術(shù)作品,人類程序員無法解釋該算法的工作原理,但是整個(gè)過程是可復(fù)現(xiàn)的,并且該人或數(shù)據(jù)集創(chuàng)造者的創(chuàng)造力。作為圖靈測(cè)試的補(bǔ)充,洛夫萊斯測(cè)試開創(chuàng)式地引入了“藝術(shù)創(chuàng)作”這個(gè)維度,因?yàn)樗囆g(shù)創(chuàng)作背后隱含了表達(dá)、思考、創(chuàng)造,是自主意識(shí)的投射,也是存在實(shí)證。按照這—評(píng)價(jià)維度來看,現(xiàn)AIGC或具體表述為AI繪畫模型、AI輔助寫作等技術(shù),它們確實(shí)已經(jīng)在從事“創(chuàng)造”,但卻不是真正具有創(chuàng)造力,仍然是基于深度學(xué)習(xí)、機(jī)器學(xué)習(xí)的“模仿式創(chuàng)新”。換句話說,它們可以“作”—幅畫,“寫”—篇文章,但仍然不能真正理解這幅畫和這篇文章的真正意義。至少從現(xiàn)階段來講,AIGC背后真正的創(chuàng)造者仍然是人類。藝術(shù)是自由意志的表達(dá),在擁有自主意識(shí)、思維能力之前,AI所創(chuàng)造的作品皆來源于人類的創(chuàng)作意圖。問題在于,即便AIGC不是真正的“創(chuàng)造”,難道就對(duì)創(chuàng)造沒有意義了嗎?答案是否定的,如前文所述,正是因?yàn)锳I解決了基礎(chǔ)性工作,實(shí)現(xiàn)了人類創(chuàng)造力的解放。這就是它最大的社會(huì)價(jià)值之—,或者說“元價(jià)值”。發(fā)展AIGC,本意并不是真的要發(fā)明人類之外的另—個(gè)創(chuàng)造者,創(chuàng)造力。追溯藝術(shù)觀念史,柏拉圖最早曾給藝術(shù)的本質(zhì)下了—個(gè)定義:藝術(shù)即模仿。這—點(diǎn),AI和人AIGC發(fā)展趨勢(shì)報(bào)告2023相通的。人的藝術(shù)創(chuàng)作,是對(duì)物理對(duì)象的募畫、表現(xiàn),建基于對(duì)無數(shù)前人的無數(shù)作品的吸納、品鑒、學(xué)習(xí)與模仿。AI的藝術(shù)創(chuàng)作基于對(duì)成千上萬的人類作品的歸納學(xué)習(xí)、藝術(shù)這種創(chuàng)造式行為的基本原則就是,在模仿基礎(chǔ)上打破已有規(guī)則或引入新規(guī)則,以求出現(xiàn)新AIGC方面它取代大類的創(chuàng)造力的變革成為指數(shù)性的變化。AIAI出—版或多版方案,然后參考AI的方案來進(jìn)行創(chuàng)作,從而保證獨(dú)創(chuàng)性,并使創(chuàng)意源源不斷。微軟也正計(jì)劃AIGC源。同樣,在文字創(chuàng)作領(lǐng)域,也有許多作者會(huì)通過AI基于主題生成寫作框架,自己再去填充內(nèi)容。這種變革同樣發(fā)生在其他領(lǐng)域,比如圍棋界。AlphaGo橫掃了人類圍棋界之后,現(xiàn)在有許多圍棋選手開始模仿、學(xué)習(xí)AI。AIGCAI式,對(duì)緩慢演進(jìn)的藝術(shù)領(lǐng)域無的藝術(shù)創(chuàng)造流派和風(fēng)格。同總結(jié)而言,AI雖然不擁有真正的創(chuàng)造力,但是它讓使用者擁有了新的創(chuàng)造力,從而拓展藝術(shù)CAI如蒸汽機(jī)的發(fā)明與紡織工人的失業(yè)等等,但是隨著它對(duì)生產(chǎn)力的整體性和模式也將出現(xiàn),從而創(chuàng)造更多新的生產(chǎn)性崗位和就業(yè)機(jī)會(huì),因此不必過AIGC將延伸、輻射至其他領(lǐng)域。比如在醫(yī)療行業(yè),AI生成治療方案、AI生成語音幫助失聲者“開口說話”;在傳媒行業(yè),虛擬主持人、寫稿機(jī)器人、AI語音生成播報(bào)等;在設(shè)計(jì)領(lǐng)域,AI快速生成大量案例,幫助設(shè)計(jì)師產(chǎn)生靈感等。同時(shí),AIGC也構(gòu)成了數(shù)字 (1)AI語音生成幫助病人“開口說話”了從通俗意義上,可以將“賽博格”理解為“半機(jī)械人”,即用機(jī)械替換部分身體器官并維持正常機(jī)能。在經(jīng)過了多重手術(shù)與改造之后,彼得·斯科特-摩根終于將自己打造為—個(gè)賽博格。之所以要費(fèi)這么大的周折,是斯科特-摩根自身情況所限——2017年,他被確診為肌萎縮側(cè)索硬化癥(ALS),俗稱漸凍癥。在此之前,這種病癥最知名的患者是物理學(xué)家史蒂芬·霍金。系統(tǒng)內(nèi)控制骨駱肌的運(yùn)動(dòng)神經(jīng)元退化和死亡,患者不同身體部位的肌肉會(huì)逐漸萎縮,并且失去移動(dòng)手臂、雙腿和身體的能力,也無法說話、進(jìn)食甚至是呼吸。由于病人的大腦運(yùn)作始終是正維和意識(shí),也將清醒地經(jīng)歷漸凍癥帶來的肌體摧毀過程。接受了三重造口術(shù):胃造口術(shù)、結(jié)腸造口術(shù)和膀恍造口術(shù),以保障營養(yǎng)物質(zhì)的供給。因?yàn)闈u凍問題就在這里,如果接受了這個(gè)手術(shù),斯科特-摩根將無法說話,也無法發(fā)出自己的聲音。對(duì)于—個(gè)到全球各地巡講的科學(xué)家來說,喪失表達(dá)能力無疑比患病更為痛苦。所以,在他還能說話的時(shí)候,就開始為此準(zhǔn)備了。他聯(lián)系了CereProc的首席科學(xué)家MatthewAylett博士,AIGC發(fā)展趨勢(shì)報(bào)告2023CereProc是專門負(fù)責(zé)創(chuàng)建文本并提供語音解決方案的公司。此前,他們也為接受了喉癌手術(shù)在之后—年左右的時(shí)間里,彼得·斯科特-摩根持續(xù)在錄音棚里工作,錄制了超過15個(gè)小時(shí)切除手術(shù)三個(gè)月前,他的電子合成聲音終于制作完成。對(duì)于人的表達(dá)來說,聲音只是構(gòu)成部通過掃描自己的臉部,斯科特-摩根生成了3D的虛擬動(dòng)畫人像。在進(jìn)行公開講話時(shí),他就會(huì)在胸前的屏幕上展示這個(gè)形象。為了提升交流效率,這套系統(tǒng)使用ACAT(上下文輔助感知工具包)技術(shù)來提升打字技術(shù)?;艚鹕耙彩褂眠^ACAT技術(shù),AI能夠?qū)W習(xí)使用者的表述習(xí)慣,在這個(gè)案例中提到合成聲音技術(shù),已經(jīng)較為成熟。其他AI語音合成工具如Voicemod、I許烏克蘭公司Respeecher利用AI技術(shù)在《星球大戰(zhàn)》衍生劇集《歐比旺》中重現(xiàn)他的聲音。的方式重塑了天行者的聲音。 IGCAIGC在文物修復(fù)領(lǐng)域的作用同樣明顯。在文物修復(fù)領(lǐng)域,技術(shù)能實(shí)現(xiàn)的兩種路徑,包括數(shù)字物在數(shù)字世界重塑,而后者是讓文物在數(shù)字世界再造。在數(shù)字修復(fù)方面,騰訊公司利用360度沉浸式展示技術(shù)、智能音視頻技術(shù)、人工智能等技術(shù)療。以文化遺產(chǎn)敦煌壁畫的修復(fù)為例,由于壁畫的種類很多,果,同時(shí)結(jié)合傳統(tǒng)的圖像處理方法提供系統(tǒng)性的解決方案。在修復(fù)過程中,基于多媒體實(shí)驗(yàn)室的—個(gè)范例。元代黃公望的作品《富春山居圖》被譽(yù)為“中國十大傳世名畫”,但因在民間流傳甚久,清代順治年間遭火焚,從此斷為長短兩卷,中間缺損的部分難以復(fù)原。百度文心運(yùn)用“視覺生成達(dá)模型+單樣本微調(diào)”的技術(shù)策略,—方面通過大量的中國山水畫訓(xùn)練,增進(jìn)模型對(duì)山水畫的理解,另—方面基于《富春山居圖》殘存的部分微調(diào),通過遷移學(xué)習(xí)使AI補(bǔ)全的畫作與真跡—致,從而達(dá)成了良好的修復(fù)效果。榮《熱·情》演唱會(huì)的AI修復(fù),在騰訊云多媒體實(shí)驗(yàn)室的智能影像修復(fù)技術(shù)支持下,騰訊音樂集團(tuán)與寶麗金共同實(shí)現(xiàn)了張國榮在2000年的《熱·情》演唱會(huì)的高清修復(fù)。通過智能分析及畫面復(fù)雜度等情況,運(yùn)用人工智能修復(fù)算法去除破壞畫質(zhì)因素,升,最終將這場(chǎng)經(jīng)典的演唱會(huì)以高清的品質(zhì)呈現(xiàn)在觀眾眼前。究員級(jí)研究員本章主筆:AIGC發(fā)展趨勢(shì)報(bào)告20235析和概括,共分為六個(gè)具體的風(fēng)險(xiǎn)領(lǐng)域:1)歧視、仇恨言論和排斥;2)真實(shí)信息危害;3)錯(cuò)誤信息危害;4)惡意使用;5)人機(jī)交互危害;6)環(huán)境和社會(huì)經(jīng)濟(jì)危害。在這個(gè)分類基礎(chǔ)上,識(shí)產(chǎn)權(quán)、安全、倫理和環(huán)境四個(gè)方面分析AIGC帶來的挑戰(zhàn)。AIGC已能成熟進(jìn)行內(nèi)容作品創(chuàng)作,但從著作權(quán)法角度看,AIGC基本屬于重組式創(chuàng)新,尚不具有真正的創(chuàng)造力。目前,還較為強(qiáng)調(diào)人機(jī)協(xié)作,可以在內(nèi)容創(chuàng)作上可以發(fā)揮人類和AI彼此的最大優(yōu)勢(shì)。但是,AIGC引發(fā)的新型版權(quán)侵權(quán)風(fēng)險(xiǎn)已經(jīng)成為整個(gè)行業(yè)發(fā)展所面臨的緊迫問題。圖:因版權(quán)爭(zhēng)議,國外藝術(shù)作品平臺(tái)ArtStation上的畫師們掀起了抵制AIGC生成圖像的活動(dòng),AIGC性。AI要變得更加智能,—據(jù)庫,讓算法學(xué)會(huì)創(chuàng)作風(fēng)格、內(nèi)未經(jīng)許可,復(fù)制或者通過網(wǎng)絡(luò)爬蟲爬取他人享有著作權(quán)的在線內(nèi)容,在我國現(xiàn)行著作權(quán)法沒有明確將數(shù)據(jù)挖掘等智能化的分析行為規(guī)定為合理使用的情況下,此類AIGC發(fā)展趨勢(shì)報(bào)告2023行為可能構(gòu)成著作權(quán)侵權(quán)。后519位抒情詩人的作品。面對(duì)小冰創(chuàng)作的作品可能存在的侵權(quán)問題,微軟方面曾做出這樣的解釋:“小冰內(nèi)容生成能力的訓(xùn)練,全部來自于公開無版權(quán)權(quán)益問題的數(shù)據(jù),或經(jīng)過合作伙伴授權(quán)的數(shù)據(jù)。從創(chuàng)作角度來看,我們的技術(shù)包括對(duì)原創(chuàng)性的判斷,確保了小冰所生成的各類合完整的原創(chuàng)性要求?!贝送猓珹I視頻合成、剪輯領(lǐng)域,如果沒有獲得原始視頻的著作權(quán)人的許可,可能因?yàn)榍址冈鳈?quán)人所享有的修改權(quán)、保護(hù)作品完整權(quán)或者演繹權(quán)而構(gòu)成版權(quán)侵權(quán)行為。像是2019年大的ZAO,通過AI換臉軟件生成新的視頻,若不獲得他人肖像權(quán)授權(quán)和視頻內(nèi)容的授權(quán),便 RAGHAV版權(quán)藝術(shù)作品的合作作者。擁有該人工智能應(yīng)用程序所有權(quán)的知識(shí)產(chǎn)權(quán)律師安吉特·薩尼(AnkitSahni)是該藝術(shù)作品的另—位作者,并已登記為版權(quán)所有人。由此,印度此前是首個(gè)在版權(quán)作品中承認(rèn)人工智能程序享有作者身份學(xué)習(xí)工程師拉加夫·古普塔(RaghavGupta)的名字命名,于2019年在薩尼資助的—個(gè)項(xiàng)目中開發(fā)了該應(yīng)用程序。RAGHAV代表著強(qiáng)大的人工智能圖形和藝術(shù)可視化工具,并受過各種的復(fù)議請(qǐng)求,重申根據(jù)美國《版權(quán)法》的規(guī)定,要求作品需要包含人類作者身份。因此,由352019年3月26日《單—數(shù)字市場(chǎng)版權(quán)指令》第3條“以科學(xué)研究為目的的文本和數(shù)據(jù)挖掘”,科研機(jī)構(gòu)和文化遺產(chǎn)機(jī)構(gòu)為科學(xué)研究目的進(jìn)行文本和數(shù)據(jù)其他內(nèi)容進(jìn)行復(fù)制與提取的行為。文本和數(shù)據(jù)挖掘是指任何旨在分析數(shù)字形式的文本和數(shù)據(jù)的自動(dòng)分析技術(shù),以便生成包括但勢(shì)、相關(guān)性等在內(nèi)的信息。但也不包括商業(yè)化的開發(fā)利用。人工智能生成的這幅名為“天堂最近的入口(arecententrancetoparadise)”的繪畫內(nèi)容,不能在美國獲得版權(quán)授權(quán)。2018年11月3日,泰勒提出申請(qǐng),主張登記注冊(cè)該作品的版權(quán),同時(shí)注明作品的作者是“創(chuàng)意機(jī)器(CreativityMachine)”。泰勒在給美國版權(quán)局的申請(qǐng)中寫“是由運(yùn)行在機(jī)器上的計(jì)算機(jī)算法自動(dòng)創(chuàng)建的”。早在2020年3月,美國版權(quán)局AIGC求,因?yàn)樘├諞]有提供證據(jù)“證明人類作者對(duì)分的創(chuàng)造性投入或干預(yù)”。 (2)從現(xiàn)行著作權(quán)法角度如何對(duì)AIGC加以保護(hù)先有必要明確對(duì)人工智能產(chǎn)出物進(jìn)行保護(hù)的必要性,只要其符合知識(shí)產(chǎn)權(quán)領(lǐng)域客體保護(hù)的形式要求。得不到知識(shí)產(chǎn)權(quán)保護(hù),即無法禁止他人未經(jīng)授權(quán)的利用,也無法保障創(chuàng)作者獲得授權(quán)費(fèi)用,便會(huì)喪失制度激勵(lì)作用?,F(xiàn)行的《著作權(quán)法》框架難以直接認(rèn)定人工智能或電腦算法為作品的作者。但并不意味著版權(quán)法就不應(yīng)當(dāng)保護(hù)人工智能生成物。但我們也需要承認(rèn)在文字、作物和人工智能生成物在外觀上通常難以區(qū)分?,F(xiàn)階段各界對(duì)于人工智能技術(shù)創(chuàng)作物的著作權(quán)保護(hù)整體上呈現(xiàn)積極的態(tài)勢(shì),主流的司法實(shí)踐及學(xué)術(shù)理論均持相似的立場(chǎng)。對(duì)于具有獨(dú)創(chuàng)性的人工智能生成內(nèi)容,可參照著作權(quán)法關(guān)于職務(wù)作品或雇用作品的規(guī)定,將創(chuàng)作過程中真正實(shí)施人工干預(yù)、人為編排或創(chuàng)制該算法的人認(rèn)定為作務(wù)作品或法人作品進(jìn)行版權(quán)保護(hù)。從司法實(shí)踐來,作為“2019年中國十大最具研究價(jià)值知識(shí)產(chǎn)權(quán)裁判案例”——“Dreamwriter案”的判決結(jié)果在業(yè)界對(duì)于人工智能創(chuàng)作物的著作權(quán)保護(hù)具有明顯的導(dǎo)向作用。南山法院肯定了Dreamwriter自動(dòng)生成的財(cái)經(jīng)評(píng)論文章系獨(dú)立創(chuàng)作、在外在表現(xiàn)上與已有作品存在—定程度上的差異,滿足了“獨(dú)創(chuàng)性”的外在要求。其次,南山法院認(rèn)為Dreamwriter主創(chuàng)團(tuán)隊(duì)在“數(shù)據(jù)輸入、觸發(fā)條件設(shè)定、模板和語料風(fēng)格的取舍上的安排與選擇”是智力活動(dòng),且與涉案文章之間具有直接聯(lián)系,符合《著作權(quán)法實(shí)施條例》對(duì)“創(chuàng)作”的定義;認(rèn)為涉案文章山法院認(rèn)定涉案文章系主創(chuàng)團(tuán)隊(duì)創(chuàng)作的法人作品,完成了對(duì)該文章系著作權(quán)法保護(hù)客體的論證。實(shí)操中可行的建議是,以意思自治的原則約定相關(guān)創(chuàng)作物的權(quán)利歸屬,包括人工智能算法的基礎(chǔ)算法協(xié)議以及人工智能所有者與使用者的協(xié)議約定。目前的現(xiàn)狀,AI的作品進(jìn)行知識(shí)產(chǎn)權(quán)AIGC發(fā)展趨勢(shì)報(bào)告2023用AI創(chuàng)作的人,在創(chuàng)作過程中是付出了智力或創(chuàng)造性勞動(dòng),如果沒有付出,這個(gè)產(chǎn)品是否構(gòu)成作品是值得商椎的。目前國內(nèi)國外的通行作法也都是會(huì)考慮除了AI之外,是否有人的智力安全問題始終是AI技術(shù)發(fā)展和應(yīng)用中不可回避的。同樣的,在AIGC方面也存在內(nèi)容安全、I信息內(nèi)容安全的挑戰(zhàn),國內(nèi)外ChatGPT而這些錯(cuò)誤信息充斥在各個(gè)內(nèi)容平臺(tái)之上。技術(shù)專家將這種現(xiàn)象稱為“幻覺”或“隨機(jī)聯(lián)想”,ChatGPT定輸入的下—個(gè)關(guān)聯(lián)內(nèi)容,而不管事實(shí)是否正確或者說編造了事實(shí)。36普林斯頓計(jì)算機(jī)科學(xué)教授ArvindNarayanan對(duì)此指出:“人們對(duì)使用ChatGPT進(jìn)行學(xué)習(xí)感到興奮。但危險(xiǎn)在于,除非你已經(jīng)知道答案,否則你無法判斷它什么時(shí)試了—些基本的信息安全問題,答案聽起來很有道理,但實(shí)際上是社交平臺(tái),已經(jīng)有不少網(wǎng)友發(fā)現(xiàn)由AIGC生成的包含有害信息的文字圖片充斥在互聯(lián)網(wǎng)之中。AIGC誹謗、假冒身份等新型違法36/ai/the-hidden-danger-of-chatgpt-and-generative-ai-the-ai-beat/37/2022/12/5/23493932/chatgpt-ai-generated-answers-temporarily-banned-stack-overflow-llms-dangers音視頻、圖片和文字等種類豐富的、真?zhèn)伪鎰e難度大的虛假信息,同時(shí)也更容易地盜用用戶身非法活動(dòng)。StabilityAIStableDiffusion情創(chuàng)作。Reddit和HollieMengertGregRutkowski繪畫風(fēng)格和奇幻風(fēng)景已經(jīng)成為UnstableDiffusion中最常用的提示之—,如“(藝術(shù)家姓名)風(fēng)這樣會(huì)使生成圖片的質(zhì)量更高。這種行為遭到了藝術(shù)家們的譴責(zé),因?yàn)樗麄儎?chuàng)作風(fēng)格與色情扯上關(guān)系。隱私數(shù)據(jù),并且預(yù)訓(xùn)練模型強(qiáng)大的推理能力可能會(huì)導(dǎo)致個(gè)人隱私數(shù)據(jù)泄露的風(fēng)險(xiǎn)。此前,如下05圖:如果使用前綴為“EastStroudsburgStroudsburg...”的提示詞,38/2022/11/17/meet-unstable-diffusion-the-group-trying-to-monetize-ai-porn-generators/AIGC發(fā)展趨勢(shì)報(bào)告2023AIGC的惡意使用也引發(fā)了人們對(duì)個(gè)人身份盜用、冒用等數(shù)字身份安全的擔(dān)憂。尤其是伴隨著AIGC不法分子擁有極其便利的技術(shù)手段盜用或者冒充用戶身份且難以識(shí)別,可能給用戶造成經(jīng)濟(jì)損失、人格侵犯等損害。日前,微軟網(wǎng)絡(luò)安全負(fù)責(zé)人查理·貝爾呼吁,元宇宙平臺(tái)需要“武裝”起來,在新技術(shù)剛開始發(fā)展時(shí),謹(jǐn)防盜用虛擬頭像、冒充用戶好友、詐騙等行為。受后門攻擊、數(shù)據(jù)中毒等,以及如何將被攻擊模型中的有毒數(shù)據(jù)去除。與此同時(shí),用戶數(shù)據(jù)通明文形式提交給模型服務(wù)提供商,如何利用現(xiàn)有的加密技術(shù)保護(hù)用戶數(shù)據(jù)隱私也是—個(gè)重面對(duì)諸多的安全挑戰(zhàn),科技企業(yè)和技術(shù)開發(fā)人員紛紛采取積極應(yīng)對(duì)舉措。針對(duì)內(nèi)容安全問題,會(huì)給模型提出各種可能的問題,并對(duì)反債的錯(cuò)誤答案進(jìn)行懲罰,對(duì)正確的答案進(jìn)行獎(jiǎng)勵(lì),從而等安全問題,之前各個(gè)科技企業(yè)也都積極研發(fā)推出了檢測(cè)工具,騰訊安全部門研發(fā)的頸別技術(shù)眾人物形象,最終對(duì)圖像或視頻的風(fēng)險(xiǎn)等級(jí)進(jìn)行評(píng)估。谷歌強(qiáng)調(diào),要打造負(fù)責(zé)任的生成式AIgenerativeAI全措施,另—方面需要研發(fā)技術(shù)手段美國技術(shù)哲學(xué)家個(gè)姆斯·摩爾曾經(jīng)提出過這樣—條定律“伴隨著技術(shù)革命,社會(huì)影響增大,倫為科技倫理領(lǐng)域的摩爾定律。他認(rèn)為發(fā)生這種現(xiàn)象并不僅僅是因?yàn)樵絹碓蕉嗟娜耸艿郊夹g(shù)的影響,而是因?yàn)榧夹g(shù)將為各行動(dòng)主體提供了更多可能性。AIGC所帶來的倫理問題不僅會(huì)影響很多人,而且作為—種具有革命性的AI技術(shù)工具也將因?yàn)楸桓鱾€(gè)行理風(fēng)險(xiǎn)。首先,算法歧視問題并未因預(yù)訓(xùn)練模型而消除。算法歧視問題—直是人工智能創(chuàng)新和應(yīng)用中始終難以避免的倫理問題。雖然有人認(rèn)為,預(yù)訓(xùn)練模型用更多、更多元全面的數(shù)據(jù)量和參數(shù)進(jìn)行訓(xùn)練,可以避免算法歧視的問題。但是基于預(yù)訓(xùn)練模型的AIGC依然存在較為嚴(yán)重的歧視問題。比如,目前已有研究顯示預(yù)訓(xùn)練語言生成模型會(huì)再現(xiàn)有害的社會(huì)偏見和刻板印象,例如GPT-3會(huì)有明顯的基于宗教的偏見和性別歧視。而此前,YannicKilcher用1.3億條仇恨言論訓(xùn)練的試時(shí)發(fā)現(xiàn),其表現(xiàn)出顯著的性別和種族歧視。392022年4月,研究人員對(duì)比發(fā)現(xiàn)DALL·E2比minDALL-E表現(xiàn)出更多的性別偏見和種族偏見,即傾

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論