2023年人工智能行業(yè)深度報(bào)告 人工智能發(fā)展步入新階段-AIGC創(chuàng)造新機(jī)遇_第1頁(yè)
2023年人工智能行業(yè)深度報(bào)告 人工智能發(fā)展步入新階段-AIGC創(chuàng)造新機(jī)遇_第2頁(yè)
2023年人工智能行業(yè)深度報(bào)告 人工智能發(fā)展步入新階段-AIGC創(chuàng)造新機(jī)遇_第3頁(yè)
2023年人工智能行業(yè)深度報(bào)告 人工智能發(fā)展步入新階段-AIGC創(chuàng)造新機(jī)遇_第4頁(yè)
2023年人工智能行業(yè)深度報(bào)告 人工智能發(fā)展步入新階段-AIGC創(chuàng)造新機(jī)遇_第5頁(yè)
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2023年人工智能行業(yè)深度報(bào)告人工智能發(fā)展步入新階段_AIGC創(chuàng)造新機(jī)遇一、行業(yè)篇:人工智能發(fā)展步入新階段,AIGC創(chuàng)造新機(jī)遇內(nèi)容創(chuàng)作模式對(duì)比:AIGC實(shí)現(xiàn)內(nèi)容創(chuàng)作呈高質(zhì)量、大數(shù)量、低成本趨勢(shì)傳統(tǒng)的PGC與UGC模式受到規(guī)模、質(zhì)量和成本的制約,而AIGC則能夠有效地彌補(bǔ)PGC與UGC模式的不足,具有生成內(nèi)容規(guī)模大、質(zhì)量高、單位成本低的優(yōu)勢(shì),將會(huì)成為元宇宙場(chǎng)景下的主要內(nèi)容生成模式,從而為元宇宙建設(shè)提供內(nèi)容支撐。AIGC演進(jìn)趨勢(shì):輔助生產(chǎn)→自動(dòng)化獨(dú)立創(chuàng)作隨著人工智能算法的進(jìn)步和算力的提升,AIGC將逐步擺脫對(duì)PGC和UGC的依賴,從輔助內(nèi)容生成轉(zhuǎn)變完全獨(dú)立創(chuàng)作,充分釋放創(chuàng)作潛力,持續(xù)輸出高質(zhì)量、多樣化、高自由內(nèi)容,滿足未來(lái)消費(fèi)者對(duì)內(nèi)容數(shù)量及質(zhì)量的雙重剛性需求。二、技術(shù)篇:算力是支撐,數(shù)據(jù)是核心,算法逐步迎來(lái)突破機(jī)器學(xué)習(xí):機(jī)器學(xué)習(xí)分為訓(xùn)練和推理,數(shù)據(jù)決定上限,算法逼近上限機(jī)器學(xué)習(xí)可以分為訓(xùn)練和推理兩個(gè)階段,訓(xùn)練是指使用已知數(shù)據(jù)集訓(xùn)練機(jī)器學(xué)習(xí)模型;推理是指使用已訓(xùn)練好的模型對(duì)新的數(shù)據(jù)進(jìn)行預(yù)測(cè)、分類(lèi)等任務(wù)。數(shù)據(jù)和特征決定了機(jī)器學(xué)習(xí)的上限,模型和算法逼近上限。數(shù)據(jù):機(jī)器學(xué)習(xí)的核心,也是機(jī)器學(xué)習(xí)的瓶頸數(shù)據(jù)決定了機(jī)器學(xué)習(xí)算法的性能、泛化能力、應(yīng)用效果;數(shù)據(jù)獲取、標(biāo)注、清洗、存儲(chǔ)也是機(jī)器學(xué)習(xí)瓶頸之一。NLP算法:Transformer開(kāi)辟NLP新路徑,架構(gòu)優(yōu)化促成衍生模型Transformer模型——特征提取器。2017年6月,Google發(fā)布論文《Attentionisallyouneed》,提出了解決seq2seq(sequencetosequence)問(wèn)題的Transformer模型。該模型引入自注意力機(jī)制(Self-Attention)代替了長(zhǎng)短期記憶網(wǎng)絡(luò)模型(LSTM),拋棄了之前在Encoder-Decoder模式下必須結(jié)合CNN或RNN的傳統(tǒng)模式。ChatGPT-算法:當(dāng)模型規(guī)模達(dá)到某個(gè)閾值時(shí),模型出現(xiàn)涌現(xiàn)能力2020年1月,OpenAl發(fā)表論文《ScalingLawsforNeuralLanguageModels》,探討模型效果與模型規(guī)模之間的關(guān)系。結(jié)論是:模型的表現(xiàn)與模型的規(guī)模之間服從PowerLaw,即隨著模型規(guī)模指數(shù)級(jí)上升,模型性能實(shí)現(xiàn)線性增長(zhǎng)。而在2022年8月,Google發(fā)表論文《EmergentAbilitiesofLargeLanguageModels》,重新探討了模型效果與模型規(guī)模之間的關(guān)系。結(jié)論是:當(dāng)模型規(guī)模達(dá)到某個(gè)閾值時(shí),模型對(duì)某些問(wèn)題的處理性能突然呈現(xiàn)快速增長(zhǎng)。作者將這種現(xiàn)象稱為EmergentAbilities,即涌現(xiàn)能力。ChatGPT-算法:采用RLHF學(xué)習(xí)機(jī)制,效果優(yōu)于GPT-3的無(wú)監(jiān)督學(xué)習(xí)GPT-3采用無(wú)監(jiān)督學(xué)習(xí)機(jī)制,優(yōu)點(diǎn)在于無(wú)需人工進(jìn)行數(shù)據(jù)標(biāo)注,可以節(jié)省模型訓(xùn)練成本,模型泛化能力更強(qiáng)。而ChatGPT采用RLHF學(xué)習(xí)機(jī)制,即人工反饋的強(qiáng)化學(xué)習(xí),屬于強(qiáng)化學(xué)習(xí)。不同于傳統(tǒng)的相比于傳統(tǒng)的有監(jiān)督學(xué)習(xí)機(jī)制,ChatGPT無(wú)需提前對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行標(biāo)注,而只需要對(duì)人工對(duì)模型輸出的結(jié)果進(jìn)行評(píng)分,從而可以節(jié)省人力。雖然相比于GPT-3,ChatGPT需要消耗一定的人力,但是模型結(jié)果會(huì)更加符合人類(lèi)偏好。ChatGPT-反思:站在巨人的肩膀之上,開(kāi)源開(kāi)放期待更多可能和變革ChatGPT推出的意義不僅僅是技術(shù)上的突破,更多的是預(yù)示著,人工智能將越來(lái)越多的走出實(shí)驗(yàn)室,擁抱人類(lèi)。只要人工智能技術(shù)領(lǐng)域,學(xué)術(shù)與產(chǎn)業(yè)界一直保持開(kāi)源、開(kāi)放的生態(tài),人工智能還會(huì)迎來(lái)更多的技術(shù)突破,競(jìng)爭(zhēng)格局變革的更多可能。而行業(yè)的奠基者,也一定因其長(zhǎng)久的技術(shù)積累存在較大的先發(fā)優(yōu)勢(shì),持續(xù)的投入也會(huì)迎來(lái)更多的突破和可能。三、應(yīng)用篇:技術(shù)突破實(shí)現(xiàn)應(yīng)用創(chuàng)新,已在多領(lǐng)域落地AIGC何時(shí)突破工業(yè)紅線:重點(diǎn)關(guān)注數(shù)據(jù)、算法的突破和商業(yè)模式的發(fā)展技術(shù)成本(前期訓(xùn)練成本、數(shù)據(jù)成本、人才成本,后期使用的推理成本),與帶來(lái)的增量或給企業(yè)實(shí)現(xiàn)降本增效相比,還不足以驅(qū)動(dòng)企業(yè)投入AI。商業(yè)價(jià)值閉環(huán):技術(shù)突破、AI企業(yè)深耕垂直細(xì)分行業(yè)(know-how、先發(fā)優(yōu)勢(shì))、規(guī)模效應(yīng)+飛輪效應(yīng)雙輪驅(qū)動(dòng)。四、商業(yè)模式:商業(yè)化初啟,期待產(chǎn)業(yè)生態(tài)、技術(shù)與產(chǎn)品發(fā)展完善成本測(cè)算-訓(xùn)練成本:總成本持續(xù)提升,但同級(jí)別參數(shù)消耗量將顯著下降隨著參數(shù)量快速膨脹,算力成本會(huì)持續(xù)上升;但隨著模型壓縮、蒸餾等,同參數(shù)量級(jí)別的模型算力消耗量會(huì)顯著下降。數(shù)據(jù)獲?。弘S著應(yīng)用較快數(shù)據(jù)反哺,數(shù)據(jù)獲取邊際成本將下降;數(shù)據(jù)標(biāo)注:有兩個(gè)方向,一是無(wú)監(jiān)督學(xué)習(xí)流行、標(biāo)注自動(dòng)化提升

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論