




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN標(biāo)配AI大模型競(jìng)賽方興未艾,OpenAI與行行電子電子 2.海外科技股2024Q4業(yè)績(jī)持續(xù)回暖,DeepSeek大模型引燃AI云與端塊長(zhǎng)期受益——半導(dǎo)體行業(yè)深度報(bào)告(十)能的技術(shù),按照智能程度劃分,主要分為狹義人工智能、通用人工智能和超級(jí)自2020年起,全球AI市場(chǎng)規(guī)模以高于20%的同比增速呈現(xiàn)迅猛增長(zhǎng)的態(tài)勢(shì),從2019年的1.91萬億美元有望擴(kuò)張至2024年的6.16萬億美元,同比增速逐年上升,整體市場(chǎng)有望在小對(duì)于模型性能提高的重要性。大模型的商業(yè)化落地形式主要包括通過API調(diào)用收費(fèi)以及都將逐步收斂至頭部廠商,部分規(guī)模較小的模型廠商GPT與OpenAIo1系列模型分別驗(yàn)證了算力投入在訓(xùn)練側(cè)和推理側(cè)的重要性,而DeepSeek通過創(chuàng)新性的訓(xùn)練方法和架構(gòu)實(shí)現(xiàn)了較低的模型訓(xùn)練成本,在未來大模創(chuàng)始人OpenAI自成立起先后發(fā)布了GPT系列模型和以O(shè)penAIo1、o3為代表的深度推理在后訓(xùn)練階段大規(guī)模使用了強(qiáng)化學(xué)習(xí)技術(shù)而不依賴監(jiān)督微調(diào),性能對(duì)齊OpenAI-o1正式證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN2/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說鑫科技、中科藍(lán)訊、晶晨股份、瑞芯微、全志科技、炬芯科技、國(guó)科微等3)存儲(chǔ)板塊北京君正等4)光模塊、光器件、光芯片板塊關(guān)注中際旭創(chuàng)、天孚通信、新易盛、光迅石科技、光迅科技、川環(huán)科技、國(guó)芯科技等7)電源板塊關(guān)注麥格米特、光寶科技、中風(fēng)險(xiǎn)提示1)AI需求不及預(yù)期風(fēng)險(xiǎn)2)行業(yè)競(jìng)爭(zhēng)過度風(fēng)險(xiǎn)3)國(guó)際貿(mào)易政策的變化證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN3/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說 6 6 8 3.大模型創(chuàng)新迭代,性能提升與成本下行 3.3.AI大模型產(chǎn)業(yè)鏈半導(dǎo)體相關(guān)重點(diǎn)廠商 4.投資建議與風(fēng)險(xiǎn)提示 證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN4/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說圖1人工智能發(fā)展歷程 6圖2按智能程度劃分的三類人工智能 7圖3GenAI的工作原理 7圖4GenAI在各領(lǐng)域的應(yīng)用效果 7圖5AI的三大要素 8圖6AI算力的相關(guān)常用名詞及其含義 8圖7AI產(chǎn)業(yè)鏈 8圖8全球AI市場(chǎng)規(guī)模(十億美元)及同比增速 9圖9頭部主要廠商大模型迭代時(shí)間軸 圖10MLLM的架構(gòu)示意圖 圖11訓(xùn)練與推理示意圖 圖12模型性能與計(jì)算量、數(shù)據(jù)大小、參數(shù)量的關(guān)系 圖13大模型的涌現(xiàn)現(xiàn)象 圖14GPT系列模型迭代參數(shù)規(guī)模的變化 圖15海外云廠商2024Q1-Q4資本開支(億美元) 圖162020-2029E全球大模型市場(chǎng)規(guī)模(億美元)及增速 圖17大模型商業(yè)化模式 圖18模型推理部署四種主要形式的優(yōu)劣 圖192024年國(guó)內(nèi)各行業(yè)大模型公開披露的落地項(xiàng)目數(shù)量(單位:個(gè)) 圖202024年國(guó)內(nèi)各行業(yè)大模型公開披露的落地項(xiàng)目金額(單位:億元) 圖21字節(jié)跳動(dòng)Coze智能體創(chuàng)建界面 圖22大模型區(qū)別于互聯(lián)網(wǎng)時(shí)代的競(jìng)爭(zhēng)特點(diǎn) 圖23海外主流AI大模型基準(zhǔn)評(píng)分差距逐步縮小 圖24海外模型廠商競(jìng)爭(zhēng)格局 20圖25大模型區(qū)別于互聯(lián)網(wǎng)時(shí)代的競(jìng)爭(zhēng)特點(diǎn) 21圖262020-2024年阿里云業(yè)務(wù)營(yíng)收占比 21圖27國(guó)內(nèi)模型廠商競(jìng)爭(zhēng)格局 22圖28OpenAI發(fā)展歷程以及重要模型發(fā)布節(jié)點(diǎn) 23圖29OpenAIGPT系列模型迭代相關(guān)性能參數(shù) 24圖30以GPT-4為例的GPT系列模型路徑 24圖31OpenAIo1與其他頭部模型評(píng)分對(duì)比 25圖32OpenAIo1在訓(xùn)練和推理階段算力資源的投入與模型性能的關(guān)系 25圖33o1模型相比GPT-4o在推理密集型任務(wù)上的改進(jìn) 26圖34未來GPT系列與o1系列模型或?qū)⑹諗咳诤?26圖35DeepSeek發(fā)展歷程以及重要模型發(fā)布節(jié)點(diǎn) 26圖36DeepSeek用戶增長(zhǎng)速度 27圖37海內(nèi)外接入DeepSeek的廠商 27圖38DeepSeek-V3多項(xiàng)評(píng)測(cè)能力與海內(nèi)外頭部模型對(duì)比 28圖39DeepSeek模型性能與價(jià)格比處于最優(yōu)范圍內(nèi) 28圖40DeepSeek-V3訓(xùn)練成本 28圖41DeepSeek-V3的MLA和DeepSeekMoE架構(gòu) 29圖42DeepSeek-R1在數(shù)學(xué)、代碼、自然語言推理等任務(wù)上的性能表現(xiàn) 30圖43DeepSeek-R1-Zero在訓(xùn)練過程中的AIME準(zhǔn)確性不斷上升 31圖44蒸餾后的小型模型在數(shù)學(xué)、代碼、自然語言推理等任務(wù)上的性能表現(xiàn) 32圖45AI服務(wù)器產(chǎn)業(yè)鏈 33圖46寒武紀(jì)2020-2024年總營(yíng)收和歸母凈利潤(rùn)與各自同比增速 33證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN5/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說圖47海光信息2020-2024年總營(yíng)收和歸母凈利潤(rùn)與各自同比增速 33圖48恒玄科技2020-2024年總營(yíng)收和歸母凈利潤(rùn)與各自同比增速 34圖49樂鑫科技2020-2024年總營(yíng)收和歸母凈利潤(rùn)與各自同比增速 34圖50兆易創(chuàng)新2020年-2024Q1-Q3總營(yíng)收和歸母凈利潤(rùn)與各自同比增速 34圖51瀾起科技2020-2024年總營(yíng)收和歸母凈利潤(rùn)與各自同比增速 34圖52中際旭創(chuàng)2020-2024年總營(yíng)收和歸母凈利潤(rùn)與各自同比增速 35圖53天孚通信2020年-2024Q1-Q3總營(yíng)收和歸母凈利潤(rùn)與各自同比增速 35圖54鵬鼎控股2020-2024年總營(yíng)收和歸母凈利潤(rùn)與各自同比增速 35圖55勝宏科技2020-2024年總營(yíng)收和歸母凈利潤(rùn)與各自同比增速 35圖56浪潮信息2020年-2024Q1-Q3總營(yíng)收和歸母凈利潤(rùn)與各自同比增速 36圖57工業(yè)富聯(lián)2020-2024年總營(yíng)收和歸母凈利潤(rùn)與各自同比增速 36圖58麥格米特2020年-2024Q1-Q3總營(yíng)收和歸母凈利潤(rùn)與各自同比增速 36圖59歐陸通2020年-2024Q1-Q3總營(yíng)收和歸母凈利潤(rùn)與各自同比增速 36表1Transformer架構(gòu)和MoE架構(gòu)的對(duì)比 表2模型API服務(wù)的構(gòu)成、重要性和主要指標(biāo) 表3海內(nèi)外代表大模型Token定價(jià) 證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN6/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說(1)人工智能(ArtificialIntelligence,AI)是一種模擬人類智能的技術(shù),旨在使機(jī)器能夠像人類一樣思考、學(xué)習(xí)和解決問題。AI涵蓋了多種技術(shù)和方法,包括深度學(xué)習(xí)、機(jī)器學(xué)習(xí)、計(jì)算機(jī)視覺和自然語言處理等。自1956年達(dá)特茅斯會(huì)議首次提出AI概念之后,AI經(jīng)歷了早期的萌芽式發(fā)展,20世紀(jì)70年代出現(xiàn)的專家系統(tǒng)實(shí)現(xiàn)了AI從理論研究走向?qū)嶋H應(yīng)用、從一般推理策略探討轉(zhuǎn)向運(yùn)用專門知識(shí)的重大突破,但后續(xù)AI因?yàn)橐幌盗袉栴}陷入發(fā)展瓶頸,進(jìn)入21世紀(jì),隨著網(wǎng)絡(luò)技術(shù)的發(fā)展,數(shù)據(jù)的獲取變得更加容易,云計(jì)算的興起提供了強(qiáng)大的計(jì)算能力,為深度學(xué)習(xí)的應(yīng)用提供了土壤,2010年起,以深度神經(jīng)網(wǎng)絡(luò)為代表的AI技術(shù)蓬勃發(fā)展,應(yīng)用落地場(chǎng)景多點(diǎn)開花,尤其在近幾年,大規(guī)模預(yù)訓(xùn)練模型時(shí)代開啟,海內(nèi)外以ChatGPT、DeepSeek等為代表的AI模型競(jìng)賽如火如荼,標(biāo)志著AI進(jìn)入了一個(gè)新的紀(jì)元。圖1人工智能發(fā)展歷程(2)按照智能程度劃分,AI主要分為狹義人工智能(ANI)、通用人工智能(AGI)和超級(jí)人工智能(ASI目前AGI和ASI尚處于理論和探索階段。ANI(ArtificialNarrowIntelligence)又稱弱人工智能指專注于特定任務(wù)的人工智能系統(tǒng),能夠高效執(zhí)行特定功能,但其能力局限于預(yù)設(shè)任務(wù),不具備通用智能。AGI(ArtificialGeneralIntelligence)指具備與人類相當(dāng)?shù)木C合智能,能夠理解、學(xué)習(xí)和執(zhí)行任何智力任務(wù),具備自主學(xué)習(xí)和推理能力。ASI(ArtificialSuperIntelligence)指在幾乎所有領(lǐng)域超越人類智能的人工智能,具備自我改進(jìn)能力,可能在科學(xué)、藝術(shù)等領(lǐng)域遠(yuǎn)超人類。目前,ANI已廣泛應(yīng)用于圖像和語音識(shí)別、自動(dòng)駕駛等場(chǎng)景,AGI尚未有實(shí)際應(yīng)用,仍處于理論階段,但Sora的問世無疑使我們離AGI更進(jìn)了一步。證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN7/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說圖2按智能程度劃分的三類人工智能(3)生成式人工智能(GenerativeArtificialIntelligence,GenAI)是AI領(lǐng)域的重要分支,不同于傳統(tǒng)的AI僅對(duì)輸入數(shù)據(jù)進(jìn)行處理和分析,GenAI能夠?qū)W習(xí)并生成具有邏輯的新內(nèi)容。GenAI可以學(xué)習(xí)并模擬事物的內(nèi)在規(guī)律,是一種基于算法和模型生成具有邏輯性和連貫性的文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)。早期GenAI主要針對(duì)單一模態(tài),如GPT系列生成文本、StyleGAN生成圖像。隨著技術(shù)進(jìn)步,GenAI開始結(jié)合多模態(tài)模型,依賴于復(fù)雜的機(jī)器學(xué)習(xí)模型,實(shí)現(xiàn)異構(gòu)數(shù)據(jù)的生成式輸出,創(chuàng)建跨模態(tài)原創(chuàng)內(nèi)容(例如文本、圖像、視頻、音頻或軟件代碼)以響應(yīng)用戶的提示或請(qǐng)求。在應(yīng)用層面,GenAI可顯著提升生產(chǎn)效率,根據(jù)貝恩,GenAI可在營(yíng)銷方面縮減30%-50%內(nèi)容創(chuàng)造所需的時(shí)間消耗,在軟件開發(fā)方面縮短15%的代碼編寫時(shí)間。圖3GenAI的工作原理圖4GenAI在各領(lǐng)域的應(yīng)用效果(4)AI具有算力、算法、數(shù)據(jù)三大要素,其中基礎(chǔ)層提供算力支持,通用技術(shù)平臺(tái)解決算法問題,場(chǎng)景化應(yīng)用挖掘數(shù)據(jù)價(jià)值。數(shù)據(jù)是AI學(xué)習(xí)和成長(zhǎng)的基石,決定了算法是否能得到有效的訓(xùn)練和優(yōu)化,數(shù)據(jù)的質(zhì)量和數(shù)量也直接影響到AI模型的準(zhǔn)確性和效率;算法是AI的靈魂,決定了AI如何處理數(shù)據(jù)和解決問題,其設(shè)計(jì)和選擇直接關(guān)系到AI的性能和應(yīng)用效果;算力是AI運(yùn)行的動(dòng)力,算力提供了執(zhí)行算法和處理數(shù)據(jù)所需的計(jì)算資源,強(qiáng)大的算力可以支持復(fù)雜和大規(guī)模的AI應(yīng)用。其中算力指計(jì)算設(shè)備在單位時(shí)間內(nèi)處理數(shù)據(jù)的能力,證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN8/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說AI算力是專門針對(duì)AI任務(wù)(如矩陣運(yùn)算、神經(jīng)網(wǎng)絡(luò)訓(xùn)練)優(yōu)化的計(jì)算能力,需支持高并行性和大規(guī)模數(shù)據(jù)處理,通常用浮點(diǎn)運(yùn)算次數(shù)(FLOPS)衡量,衍生的還有TFLOPS(萬億次/秒)、PFLOPS(千萬億次/秒)等常見單位,算力的核心硬件包括GPU、ASIC、FPGA等。圖5AI的三大要素圖6AI算力的相關(guān)常用名詞及其含義(1)AI產(chǎn)業(yè)鏈可大致分為基礎(chǔ)設(shè)施層、模型層、平臺(tái)層、應(yīng)用層及服務(wù)層,其中基礎(chǔ)設(shè)施層包含芯片、存儲(chǔ)、網(wǎng)絡(luò)等,模型層包含通用模型、行業(yè)模型等。上游基礎(chǔ)設(shè)施層是AI產(chǎn)業(yè)鏈的基礎(chǔ),主要涉及數(shù)據(jù)、算力等基礎(chǔ)軟硬件,包括AI芯片,代表廠商寒武紀(jì)、英偉達(dá)等;計(jì)算、存儲(chǔ)、網(wǎng)絡(luò)方面,代表廠商亞馬遜、微軟、阿里、三星電子等。模型層是AI產(chǎn)業(yè)鏈的核心部分,包括通用大模型和行業(yè)大模型等。平臺(tái)層和模型層深度綁定,使大模型更便于使用和普及。隨著AI大模型的發(fā)展,平臺(tái)中多種模型選擇、如何將大模型高效且可靠地部署于生產(chǎn)環(huán)境是當(dāng)前的核心問題。應(yīng)用層是AI產(chǎn)業(yè)鏈的終端環(huán)節(jié),主要涉及AI在各個(gè)領(lǐng)域的應(yīng)用和落地,而大模型的不斷更新升級(jí)有助于加速應(yīng)用場(chǎng)景的創(chuàng)新及商業(yè)化落地。圖7AI產(chǎn)業(yè)鏈證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN9/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說(2)2024年全球AI市場(chǎng)規(guī)模有望達(dá)到6.16萬億美元,同比增長(zhǎng)30.1%。根據(jù)Frost&Sullivan,自2020年起,全球AI市場(chǎng)規(guī)模以高于20%的同比增速呈現(xiàn)迅猛增長(zhǎng)的態(tài)勢(shì),從2019年的1.91萬億美元有望擴(kuò)張至2024年的6.16萬億美元,同比增速逐年上升,2025年開始雖然預(yù)計(jì)增速同比放緩,但整體市場(chǎng)有望在2027年擴(kuò)張至11.64萬億美元,體現(xiàn)出全球AI行業(yè)井噴式的發(fā)展速度。圖8全球AI市場(chǎng)規(guī)模(十億美元)及同比增速04732.7201920202021202220232024全球AI市場(chǎng)規(guī)模(十億美元)yoy(右軸)資料來源:Frost&Sulliv證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN10/38(1)AI大模型指使用大規(guī)模數(shù)據(jù)和強(qiáng)大的計(jì)算能力訓(xùn)練出來的“大參數(shù)”模型,通常具有高度的通用性和泛化能力,可以應(yīng)用于自然語言處理、圖像識(shí)別、語音識(shí)別等領(lǐng)域。2022年11月30日,伴隨著ChatGPT的推出,其亮眼的語言生成能力掀起了全球范圍內(nèi)的AI大模型熱潮,Gemini、Llama、文心一言、SORA、DeepSeek等各類大模型如雨后春筍般涌現(xiàn)。大模型作為AI產(chǎn)業(yè)鏈中的核心環(huán)節(jié),推動(dòng)了自然語言處理、計(jì)算機(jī)視覺等領(lǐng)域的突破,顯著提升了AI的理解和生成能力,并且在醫(yī)療、金融、教育、自動(dòng)駕駛等多個(gè)行業(yè)中得到廣泛應(yīng)用,有望引領(lǐng)人類步入第四次工業(yè)革命。圖9頭部主要廠商大模型迭代時(shí)間軸(2)按照輸入數(shù)據(jù)類型的不同,大模型可分為大語言模型、視覺大模型、多模態(tài)大模型三大類;從訓(xùn)練范式看,大模型也可分為基座模型、推理模型和多模態(tài)模型。1)從輸入數(shù)據(jù)類型看,大語言模型(LLM,LargeLanguageModel)是指在自然語言處理(NaturalLanguageProcessing,NLP)領(lǐng)域中的一類大模型,通常用于處理文本數(shù)據(jù)和理解自然語言,它們?cè)诖笠?guī)模語料庫上進(jìn)行了訓(xùn)練,以學(xué)習(xí)自然語言的各種語法、語義和語境規(guī)則;視覺大模型是指在計(jì)算機(jī)視覺(ComputerVision,CV)領(lǐng)域中使用的大模型,通常用于圖像處理和分析,這類模型通過在大規(guī)模圖像數(shù)據(jù)上進(jìn)行訓(xùn)練以實(shí)現(xiàn)各種視覺任務(wù),如圖像分類、目標(biāo)檢測(cè)、人臉識(shí)別等;多模態(tài)大模型(MLLM,MultimodalLLM)是指能夠處理多種不同類型數(shù)據(jù)的大模型,例如文本、圖像、音頻等多模態(tài)數(shù)據(jù),這類模型結(jié)合了NLP和CV的能力,以實(shí)現(xiàn)對(duì)多模態(tài)信息的綜合理解和分析,能更全面地理解和處理復(fù)雜的數(shù)據(jù)。2)從訓(xùn)練范式看,除去上文提到的多模態(tài)模型,基座模型(FoundationModels)是一種大規(guī)模的預(yù)訓(xùn)練模型,通常用于提供基礎(chǔ)的語言理解和生成能力,特點(diǎn)是參數(shù)數(shù)量龐大,能夠處理復(fù)雜的語言任務(wù);推理模型(InferenceModels)是在基座模型的基礎(chǔ)上進(jìn)行進(jìn)一步訓(xùn)練和證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN11/38優(yōu)化的模型,它專注于提升模型的推理能力,通常通過強(qiáng)化學(xué)習(xí)等技術(shù)來增強(qiáng)模型的性能,能夠處理更復(fù)雜的任務(wù),具備自主規(guī)劃和決策的能力。圖10MLLM的架構(gòu)示意圖(3)深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)中的重要分支,也是大模型提供了強(qiáng)力的技術(shù)支撐,深度學(xué)習(xí)涵蓋訓(xùn)練和推理兩個(gè)階段,其中訓(xùn)練又分為預(yù)訓(xùn)練、后訓(xùn)練兩個(gè)步驟。訓(xùn)練(Training)是指通過給定的訓(xùn)練數(shù)據(jù)集,利用深度學(xué)習(xí)算法來不斷地調(diào)整和優(yōu)化神經(jīng)網(wǎng)絡(luò)模型的參數(shù),使其能夠從數(shù)據(jù)集中學(xué)習(xí)并形成對(duì)未知數(shù)據(jù)的預(yù)測(cè)能力。其中預(yù)訓(xùn)練(Pre-training)通常發(fā)生在模型開發(fā)的早期階段,目的是在大規(guī)模數(shù)據(jù)集上學(xué)習(xí)通用特征,為后續(xù)任務(wù)奠定基礎(chǔ),預(yù)訓(xùn)練不針對(duì)特定任務(wù),而是追求廣泛的適用性。后訓(xùn)練(Post-Training)發(fā)生在預(yù)訓(xùn)練之后,模型部署前或部署初期,后訓(xùn)練針對(duì)特定的任務(wù)或數(shù)據(jù)集進(jìn)行額外訓(xùn)練,以優(yōu)化模型性能,包括SupervisedFine-tuning(SFT,監(jiān)督微調(diào))和ReinforcementLearningfromHumanFeedback(RLHF,人類反饋的強(qiáng)化學(xué)習(xí))等環(huán)節(jié)。推理(Inference)是指在經(jīng)過訓(xùn)練后,將已經(jīng)訓(xùn)練好的模型應(yīng)用到真實(shí)的數(shù)據(jù)上,讓模型對(duì)真實(shí)的數(shù)據(jù)進(jìn)行預(yù)測(cè)或分類。圖11訓(xùn)練與推理示意圖(4)ScalingLaw作為大模型預(yù)訓(xùn)練第一性原理,仍是驅(qū)動(dòng)模型進(jìn)步的重要定律。規(guī)模定律(ScalingLaw)也稱尺度定律、縮放定律等,在AI領(lǐng)域中被業(yè)界認(rèn)為是大模型預(yù)訓(xùn)練第一性原理,描述了在機(jī)器學(xué)習(xí)領(lǐng)域,特別是對(duì)于大語言模型而言,模型性能(L,模型在測(cè)試集上的交叉熵?fù)p失)與模型的參數(shù)量大?。∟)、訓(xùn)練模型的數(shù)據(jù)大小(D)以及訓(xùn)練模型使用的計(jì)算量(C)之間存在一種可預(yù)測(cè)的關(guān)系。這種關(guān)系通常表現(xiàn)為隨著這些因素的證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN12/38增長(zhǎng),模型性能會(huì)按照一定的冪律進(jìn)行改善。預(yù)訓(xùn)練階段的ScalingLaw依然是目前GPT范式中成本最高的訓(xùn)練階段,99%的計(jì)算在預(yù)訓(xùn)練階段中。圖12模型性能與計(jì)算量、數(shù)據(jù)大小、參數(shù)量的關(guān)系Chess,Child,&etal.(202(5)大模型中存在一種“涌現(xiàn)”現(xiàn)象,進(jìn)一步證明模型參數(shù)量等屬性大小的重要性?!坝楷F(xiàn)”在物理學(xué)中的解釋是指系統(tǒng)的量變引起行為的質(zhì)變,在AI領(lǐng)域中,涌現(xiàn)能力(EmergentAbilities)在較小的模型中不出現(xiàn),通常只在大模型中出現(xiàn),尤其是大語言模型。下圖顯示了對(duì)于GPT-3等模型針對(duì)涵蓋數(shù)學(xué)、歷史、法律等等一系列主題的基準(zhǔn)測(cè)試,結(jié)果顯示,對(duì)于GPT-3、Gopher和Chinchilla,小于等于10B參數(shù)時(shí),準(zhǔn)確率等表現(xiàn)結(jié)果并沒有超過隨機(jī)太多,但一旦參數(shù)量達(dá)到70B-280B時(shí),性能大大超越了隨機(jī)效果,這個(gè)結(jié)果或意味著跨越某個(gè)閾值,模型解決大量以知識(shí)為基礎(chǔ)的、涵蓋多個(gè)領(lǐng)域的問題的表現(xiàn)會(huì)出現(xiàn)質(zhì)的飛躍(對(duì)于沒有檢索或訪問外部?jī)?nèi)存的稠密語言模型來說進(jìn)一步體現(xiàn)模型參數(shù)量、數(shù)據(jù)量等大小的重要性。圖13大模型的涌現(xiàn)現(xiàn)象證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN13/38(6)盡管硬件層面限制等因素致使當(dāng)前大模型參數(shù)規(guī)模的提升速度已經(jīng)有所放緩,但各大頭部廠商仍在持續(xù)投入數(shù)據(jù)中心建設(shè)。以GPT系列模型為例,GPT-3的參數(shù)規(guī)模是GPT-2的100倍左右,而GPT-4相比GPT-3僅僅翻了10倍左右,下一代模型在參數(shù)規(guī)模上可能增加3-5倍。目前模型規(guī)模增加的主要限制因素在硬件層面,模型參數(shù)過大對(duì)于GPU訓(xùn)練集群的內(nèi)存要求和通信要求極高,但目前物理基礎(chǔ)設(shè)施能力的提升比軟件更慢,盡管如此,各大頭部云服務(wù)廠商仍在不斷加碼AI基礎(chǔ)設(shè)施投入,為未來更大規(guī)模的大模型作準(zhǔn)備。圖14GPT系列模型迭代參數(shù)規(guī)模的變化圖15海外云廠商2024Q1-Q4資本開支(億美元)0(7)除了訓(xùn)練與推理環(huán)節(jié)的投入之外,模型架構(gòu)的創(chuàng)新也在不斷引領(lǐng)模型進(jìn)步,目前主流的兩種模型架構(gòu)分別為Transformer和MoE架構(gòu)。1)Transformer是一種基于自注意力機(jī)制(self-attentionmechanism)的神經(jīng)網(wǎng)絡(luò)架構(gòu),通過并行處理整個(gè)輸入序列。自注意力機(jī)制讓模型在處理每個(gè)單詞時(shí),都能計(jì)算該單詞與其他所有單詞的關(guān)聯(lián)程度,給不同單詞分配不同的“注意力權(quán)重”,從而捕捉到文本中詞匯之間豐富的語義關(guān)系,理解上下文,提升了長(zhǎng)序列的處理能力。標(biāo)準(zhǔn)的Transformer由多層堆疊的編碼器(Encoder)/解碼器(Decoder)組成,捕捉輸入序列的長(zhǎng)距離依賴關(guān)系,但每個(gè)輸入樣本會(huì)經(jīng)過所有層和所有參數(shù)的計(jì)算,屬于一種稠密(Dense)架構(gòu),計(jì)算量隨著序列長(zhǎng)度的增加而顯著增加,需要大量的計(jì)算資源和內(nèi)存來存儲(chǔ)中間結(jié)果。采用Transformer架構(gòu)的大模型包括GPT-1、GPT-2、GPT-3等。2)MoE(MixtureofExperts,混合專家模型)通過組合多個(gè)專家網(wǎng)絡(luò)處理輸入數(shù)據(jù),每個(gè)專家是一個(gè)獨(dú)立的神經(jīng)網(wǎng)絡(luò),專注于處理特定類型的輸入,由門控機(jī)制(gatingmechanism)根據(jù)輸入數(shù)據(jù)動(dòng)態(tài)選擇最合適的專家,并將它們的輸出加權(quán)組合。區(qū)別于Transformer會(huì)激活所有參數(shù),MoE只激活部分專家網(wǎng)絡(luò),計(jì)算是稀疏(Sparse)的,可顯著降低計(jì)算成本,在模型規(guī)模擴(kuò)展方面,MOE架構(gòu)具有很強(qiáng)的靈活性。通過增加專家網(wǎng)絡(luò)的數(shù)量,就能輕松擴(kuò)展模型的規(guī)模,提升模型的能力,而不需要對(duì)模型結(jié)構(gòu)進(jìn)行大規(guī)模改動(dòng)。采用MoE架構(gòu)的大模型如DeepSeek-V3。表1Transformer架構(gòu)和MoE架構(gòu)的對(duì)比(尤其是Sparsely-GatedMoE)證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN14/38(1)未來五年全球大模型行業(yè)市場(chǎng)規(guī)模的CAGR有望達(dá)到36.23%。隨著AI技術(shù)的不斷進(jìn)步和應(yīng)用場(chǎng)景的日益豐富,大模型的市場(chǎng)規(guī)模日益擴(kuò)展,2021年,全球大模型市場(chǎng)規(guī)模同比增長(zhǎng)132%,2020年至2024年,全球大模型市場(chǎng)規(guī)模有望從25億美元飛速擴(kuò)張至280億美元,增長(zhǎng)十倍以上,2025年或?qū)U(kuò)張至366億美元,同比增長(zhǎng)30.71%,雖然增速有所放緩,但未來五年,全球大模型行業(yè)市場(chǎng)規(guī)模有望以36.23%的年復(fù)合增長(zhǎng)率擴(kuò)張至2029年的1314億美元。圖162020-2029E全球大模型市場(chǎng)規(guī)模(億美元)及增速86.21%33.33%36621020202021202220232024E(2)目前,大模型的主要盈利模式是基于用量的一種商業(yè)模式,核心理念是通過API調(diào)用收費(fèi),此外還有廣告、模型推理部署方向的業(yè)務(wù)模式?;谟昧康氖召M(fèi)模數(shù)主要按照Tokens、調(diào)用次數(shù)、時(shí)間區(qū)間等維度來收費(fèi),也是當(dāng)前主流的盈利方式。除此之外,模型在云端或者本地部署也是模型盈利的重要形式,還有一些AI大模型相關(guān)的app因?yàn)橄螺d量巨大,吸引到部分商家投放廣告,進(jìn)而形成了廣告收入。證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN15/38圖17大模型商業(yè)化模式(3)模型API本質(zhì)是一種MaaS(Modelasaservice)模式,是海外大模型的核心商業(yè)模式,國(guó)內(nèi)市場(chǎng)由于差異化程度較低,規(guī)模相對(duì)較小,低價(jià)競(jìng)爭(zhēng)策略或?qū)㈤L(zhǎng)期持續(xù)。API(ApplicationProgrammingInterface,應(yīng)用程序編程接口)是一些預(yù)先定義的函數(shù),目的是提供應(yīng)用程序與開發(fā)人員基于某軟件或硬件得以訪問一組例程的能力,而又無需訪問源碼,或理解內(nèi)部工作機(jī)制的細(xì)節(jié),在大模型層面,開發(fā)者通過API這一標(biāo)準(zhǔn)化接口調(diào)用大模型功能,而無需從頭訓(xùn)練模型,只需發(fā)送請(qǐng)求即可獲得模型的輸出。通過API調(diào)用從而盈利的特點(diǎn)是簡(jiǎn)單易用、復(fù)雜性低和定制化程度低,模型能力是唯一的差異化之處,這本質(zhì)是一種基于底層模型用量的模式,再增加一部分產(chǎn)品層的溢價(jià)構(gòu)成定價(jià)。API行業(yè)需求方較為碎片化,來自各個(gè)行業(yè),從供給層面看,模型API是海外大模型的核心商業(yè)模式,從國(guó)內(nèi)市場(chǎng)看,由于國(guó)內(nèi)模型能力缺乏差異化,行業(yè)低價(jià)競(jìng)爭(zhēng)趨勢(shì)等因素,整體市場(chǎng)規(guī)模較小,難以成為模型廠商的主要收入來源。表2模型API服務(wù)的構(gòu)成、重要性和主要指標(biāo)構(gòu)成重要程度(1-4星)含義及主要指標(biāo)模型庫★包括模型廠商的自研模型和第三方開源模型(主要適用于云廠商,會(huì)提供MaaS服務(wù))模型能力★★★★調(diào)用量由真實(shí)的市場(chǎng)需求產(chǎn)生(1)推理能力:核心指標(biāo),包括指令遵從、內(nèi)容合規(guī)、用戶意圖理解等(2)上下文長(zhǎng)度(ContextWindow支持的上下文窗口大小,決定模型可以處理的任務(wù)復(fù)雜度上限(3)多模態(tài)能力:文字、圖像、音視頻等模態(tài)的理解、生成、交互表現(xiàn)價(jià)格★★★和調(diào)用量、調(diào)用方式有關(guān),總體上呈快速下降趨勢(shì)包括輸入價(jià)格(InputTokens)和輸出(OutputTokens)價(jià)格,以及更便宜的BatchAPIAPI性能★★★(1)延遲:FTL(FirstTokenlatency,從發(fā)出請(qǐng)求到收到第一個(gè)Token的時(shí)間,也稱TimetofirstToken)(2)吞吐量:RPM(Requestperminute,每分鐘請(qǐng)TPM(Tokensperminute,一分鐘輸出Token量)(3)輸出速度:Tokenspersecond(每秒輸出Token量)(4)穩(wěn)定性:各項(xiàng)指標(biāo)穩(wěn)定性、波動(dòng)水平、故障頻率安全合規(guī)★★用戶的數(shù)據(jù)隱私保護(hù)、內(nèi)容安全合規(guī)性證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN16/38(4)按照Token計(jì)價(jià)是大部分大模型API的收費(fèi)方式,國(guó)內(nèi)外大模型對(duì)于Token的標(biāo)準(zhǔn)并不統(tǒng)一,定價(jià)也差別較大,其余還有按照時(shí)間區(qū)間計(jì)價(jià)、調(diào)用次數(shù)等計(jì)價(jià)模式。Token在大模型中的含義是最小文本單元,可以直觀地理解為字或詞,但目前Token和單個(gè)漢字、英文字母之間的關(guān)系并沒有統(tǒng)一的計(jì)量標(biāo)準(zhǔn),各大模型也各不相同,但總體來說1個(gè)token≈1-1.8個(gè)漢字,在英文文本中,1個(gè)token≈3-4個(gè)字母。定價(jià)方面,不僅對(duì)于不同大模型收費(fèi)標(biāo)準(zhǔn)不同,對(duì)于一些大模型來說,在不同時(shí)間段使用的定價(jià)也不同。此外,按照時(shí)間區(qū)間計(jì)價(jià)主要是針對(duì)個(gè)人用戶的訂閱制收費(fèi)模式,可按照年、月、周等維度購買服務(wù)(如ChatGPT按照調(diào)用次數(shù)的計(jì)價(jià)模式則方便用戶按需購買。表3海內(nèi)外代表大模型Token定價(jià)大模型名稱輸入價(jià)格/百萬Tokens(緩存命中/cachehit)輸入價(jià)格/百萬Tokens(緩存未命中/cachemiss)輸出價(jià)格/百萬Tokens海外GPT-4.537.5美元75美元150美元GPT-4o1.25美元2.5美元10美元Gemini2.0Flash(Google)0.025美元0.1美元0.4美元Claude3.7Sonnet(Anthropic)3美元15美元國(guó)內(nèi)DeepSeekR1(DeepSeek)0.14美元0.55美元2.19美元qwen-max(阿里)2.4元9.6元qwen2.5-72B(阿里)4元Kimi-latest-128k(月之暗面)60元SenseChat-Vision(商湯)60元hunyuan-TurboS(騰訊)0.8元2元doubao-1.5-pro-32k(字節(jié))0.8元2元(5)定制化服務(wù)主要是指模型推理部署,包含云端、本地、邊緣及混合部署,是國(guó)內(nèi)大模型市場(chǎng)的核心業(yè)務(wù)模式,貢獻(xiàn)了大部分營(yíng)收,其中云端部署是目前最為普遍的大模型部署方式。1)云端部署是當(dāng)前模型推理部署的主流方式,分為私有云部署和公有云部署,私有云部署是企業(yè)將模型部署在自己管理的云基礎(chǔ)設(shè)施上,結(jié)合了本地部署的控制權(quán)和云的靈活性,公有云部署則是企業(yè)將模型和數(shù)據(jù)托管在云服務(wù)商提供的基礎(chǔ)設(shè)施上;2)本地部署需要企業(yè)有完善的IT基礎(chǔ)設(shè)施,是將大模型部署在企業(yè)自己的物理服務(wù)器上,適用于需要極高數(shù)據(jù)隱私或?qū)ν獠恳蕾囉袊?yán)格要求的場(chǎng)景;3)邊緣部署是指將原本運(yùn)行在云端或大型服務(wù)器上的大模型通過優(yōu)化和壓縮后,部署在靠近數(shù)據(jù)產(chǎn)生源頭或應(yīng)用場(chǎng)景的“邊緣設(shè)備”(如手機(jī)、傳感器、本地服務(wù)器、IoT設(shè)備等)上運(yùn)行的技術(shù)方案,核心目標(biāo)是通過本地化處理,減少對(duì)云端服務(wù)器的依賴,從而提升響應(yīng)速度、保護(hù)數(shù)據(jù)隱私,并適應(yīng)網(wǎng)絡(luò)不穩(wěn)定的環(huán)境;4)混合部署是將私有云和公有云結(jié)合使用,將一些關(guān)鍵任務(wù)(如訓(xùn)練、大規(guī)模數(shù)據(jù)處理)放在私有云中,而將推理任務(wù)或其他非機(jī)密任務(wù)放在公有云中。證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN17/38圖18模型推理部署四種主要形式的優(yōu)劣(6)從國(guó)內(nèi)大模型項(xiàng)目落地的應(yīng)用領(lǐng)域看,2024年落地項(xiàng)目數(shù)量排在前三位的分別為通信、教科和政務(wù),落地項(xiàng)目金額前三位分別是政務(wù)、教科和能源。從2024年國(guó)內(nèi)公開披露的大模型落地項(xiàng)目看,在教科、通信、能源、政務(wù)、金融等行業(yè)數(shù)量和金額都相對(duì)較多。能源(11.18%)和金融(8.75%從金額維度看,排名前五的行業(yè)分別為政務(wù)(34.64%)、單個(gè)項(xiàng)目涉及金額較大,其次為能源。圖192024年國(guó)內(nèi)各行業(yè)大模型公開披露的落地項(xiàng)目數(shù)量(單位:個(gè))0圖202024年國(guó)內(nèi)各行業(yè)大模型公開披露的落地項(xiàng)目金額(單位:億元)50資料來源:智能超參數(shù),東海證券研究所資料來源:智能超參數(shù),東海證券研究所(7)隨著模型能力不斷提升,業(yè)務(wù)不斷成熟,未來以AIAgent為代表的基于結(jié)果和價(jià)值創(chuàng)造的商業(yè)模式有望逐步落地。大模型的三種應(yīng)用模式分別為Embedding、Copilot和Agent,在Embedding模式中,大模型被集成到現(xiàn)有的應(yīng)用程序或服務(wù)中;Copilot模式中,大模型充當(dāng)助手的角色,為用戶提供實(shí)時(shí)的建議和支持;Agent模式中,大模型被賦予了一定程度的自主權(quán)。近日,Manus作為“全球首款通用AIAgent”問世,引發(fā)市場(chǎng)熱情。AI證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN18/38Agent以大模型為核心引擎,但是區(qū)別于用戶基于提示詞(prompt)與AI模型交互,AIAgent具備通過獨(dú)立思考、調(diào)用工具逐步完成用戶給定的目標(biāo)的能力,主打“直接完成工作”,本質(zhì)是一個(gè)控制大模型來解決問題的代理系統(tǒng)。與上文模型API不同,這種基于結(jié)果和價(jià)值創(chuàng)造的商業(yè)模式更加復(fù)雜,且需要可衡量的結(jié)果和交付價(jià)值,目前模型廠商的產(chǎn)品形態(tài)還幾乎不支持對(duì)直接基于模型產(chǎn)生的實(shí)際效益去定價(jià),但這種模式能更好地滿足客戶需求。目前,Copilot類產(chǎn)品首先實(shí)現(xiàn)商業(yè)落地,AIAgent或首先從垂直場(chǎng)景開始逐步探索,未來在模型能力不斷上升、產(chǎn)品模式更加成熟后,有望成為新的下游應(yīng)用增量點(diǎn)。圖21字節(jié)跳動(dòng)Coze智能體創(chuàng)建界面2.3.大模型競(jìng)爭(zhēng)日趨白熱,未來玩家格局或?qū)⒅穑?)大模型的能力日新月異,護(hù)城河不明確,規(guī)模效應(yīng)尚未顯現(xiàn),廠商需要持續(xù)大量投入?yún)⑴c市場(chǎng)競(jìng)爭(zhēng)?;ヂ?lián)網(wǎng)時(shí)代,廠商可以根據(jù)用戶畫像進(jìn)行相關(guān)推薦,形成了較強(qiáng)的用戶關(guān)系網(wǎng)絡(luò),規(guī)模效應(yīng)能夠顯著降低成本,且部分APP的遷移成本較高,頭部廠家都形成了自己清晰的護(hù)城河,能夠維持穩(wěn)定較好的利潤(rùn)水平。區(qū)別于互聯(lián)網(wǎng),大模型目前產(chǎn)品較為同質(zhì)化,遷移成本較低,用戶關(guān)心的是模型的智能程度和成本,且目前行業(yè)仍處于前期大規(guī)模資本投入階段,大模型能力不斷突破上限,規(guī)模效應(yīng)尚未顯現(xiàn),因此廠商仍需要長(zhǎng)期大量投入從而參與市場(chǎng)競(jìng)爭(zhēng),維持領(lǐng)先地位。證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN19/38圖22大模型區(qū)別于互聯(lián)網(wǎng)時(shí)代的競(jìng)爭(zhēng)特點(diǎn)(2)從海外大模型廠商來看,整體競(jìng)爭(zhēng)格局日益白熱化,盡管GPT擁有先發(fā)優(yōu)勢(shì),但是以Claude、Gemini等為代表的大模型正在迅速追趕縮小性能差距??傮w來說,模型能力決定市場(chǎng)份額,OpenAI在2023年初發(fā)布GPT-4時(shí)由于領(lǐng)先的模型能力在市場(chǎng)有較強(qiáng)的競(jìng)爭(zhēng)力,但后續(xù)Anthropic、Google相繼迭代旗下的大模型,目前Claude、Gemini的最新旗艦版大模型已經(jīng)在性能上逐步趕上或在某些領(lǐng)域超越GPT系列模型,模型差距相比2023年顯著縮小。圖23海外主流AI大模型基準(zhǔn)評(píng)分差距逐步縮?。?)目前,OpenAI、Anthropic、DeepMind形成了海外大模型的第一梯隊(duì)玩家,第二梯隊(duì)包括xAI、Meta等,第三梯隊(duì)玩家逐步被頭部廠商吸收,小模型廠商在激烈的市場(chǎng)競(jìng)爭(zhēng)下被淘汰出清,未來競(jìng)爭(zhēng)格局將逐步收斂至頭部5家廠商。1)OpenAI目前和微軟深度綁定,目前營(yíng)收仍處于領(lǐng)先地位,主要來自于GPT的訂閱服務(wù)。2)Anthropic營(yíng)收構(gòu)成與證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN20/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說OpenAI差別較大,主要為API服務(wù),目前和亞馬遜綁定,近一年來市場(chǎng)份額快速增長(zhǎng)。3)DeepMind背靠谷歌,與谷歌工作流進(jìn)行整合,發(fā)力針對(duì)中小企業(yè)的API市場(chǎng)。4)馬斯克帶領(lǐng)的xAI目前正在迅速發(fā)展,近期發(fā)布的Grok3宣稱在基準(zhǔn)測(cè)試中擊敗GPT-4o,潛力巨大。5)區(qū)別于其他廠商,Meta選擇了開源路線,目前尚未通過模型進(jìn)行商業(yè)化,構(gòu)造圍繞Llama的開源生態(tài)。6)由于目前海外基礎(chǔ)模型需要數(shù)百億美元的持續(xù)投入,需要廠商本身較強(qiáng)的資本支撐和與巨頭的深度合作帶來資源支持,第三梯隊(duì)的模型廠商已經(jīng)進(jìn)入出清時(shí)期,部分被頭部模型廠商吸收合并,整體競(jìng)爭(zhēng)格局已收斂。圖24海外模型廠商競(jìng)爭(zhēng)格局(4)國(guó)內(nèi)大模型廠商主要分為四類,分別為互聯(lián)網(wǎng)云廠商、大模型創(chuàng)業(yè)公司、模型推理平臺(tái)及技術(shù)類廠商,其中互聯(lián)網(wǎng)云廠商在模型、生態(tài)和渠道優(yōu)勢(shì)各方面更為全面,具備較強(qiáng)的競(jìng)爭(zhēng)力。對(duì)于大模型廠商來說,模型能力最為重要,其次是生態(tài)能力和渠道能力,國(guó)內(nèi)互聯(lián)網(wǎng)云廠商和大模型創(chuàng)業(yè)公司均具備較高的模型能力,云廠商的生態(tài)能力和渠道能力同樣亮眼,優(yōu)勢(shì)更為全面,代表廠商包括阿里、字節(jié)、百度、騰訊等。大模型創(chuàng)業(yè)公司也擁有優(yōu)秀的模型能力,但是生態(tài)能力和渠道能力弱于互聯(lián)網(wǎng)云廠商,代表廠商包括DeepSeek、月之暗面、智譜AI等。模型推理平臺(tái)通常不自己研發(fā)模型,而是整合開源模型生態(tài),通過API盈利,如硅基流動(dòng)、無問芯穹等。傳統(tǒng)的技術(shù)類廠商擁有積累的較強(qiáng)的渠道能力,模型和生態(tài)能力也較強(qiáng),代表廠商如商湯科技、科大訊飛、昆侖萬維等。證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN21/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說圖25大模型區(qū)別于互聯(lián)網(wǎng)時(shí)代的競(jìng)爭(zhēng)特點(diǎn)(5)以阿里為例,其云業(yè)務(wù)相關(guān)營(yíng)收占比總體營(yíng)收在逐年提升,體現(xiàn)頭部模型廠商在持續(xù)投入資源后,云業(yè)務(wù)或?qū)⒊蔀槠湫碌脑鲩L(zhǎng)點(diǎn)。2020年,阿里云營(yíng)收僅為555.76億元,到2024年,其云業(yè)務(wù)營(yíng)收翻倍,達(dá)到1134.96億元,在總營(yíng)收中的占比也從8.63%上升至11.56%,未來三年,阿里巴巴在云和AI基礎(chǔ)設(shè)施上的資本開支將達(dá)3800億元,體現(xiàn)了頭部云廠商對(duì)AI相關(guān)基礎(chǔ)建設(shè)的投入信心,AI業(yè)務(wù)有望成為頭部互聯(lián)網(wǎng)云廠商營(yíng)收增長(zhǎng)的重要支撐。圖262020-2024年阿里云業(yè)務(wù)營(yíng)收占比8364.0586456442.088.65%555.76723.58775.92994.19 云業(yè)務(wù)營(yíng)收占比(右軸)(6)由于通用基礎(chǔ)模型領(lǐng)域競(jìng)爭(zhēng)較為激烈,一方面,國(guó)內(nèi)頭部大廠將持續(xù)投入通用類產(chǎn)品,結(jié)合渠道實(shí)力打造生態(tài)壁壘,另一方面,部分模型廠商或?qū)㈤_始聚焦商業(yè)化層面,轉(zhuǎn)型至相對(duì)垂直的細(xì)分場(chǎng)景進(jìn)行服務(wù),增強(qiáng)差異化競(jìng)爭(zhēng)力。國(guó)內(nèi)第一梯隊(duì)的大模型廠商多數(shù)綜合布局,能夠承受大量投資和長(zhǎng)期虧損的預(yù)期,且擁有豐富的消費(fèi)端場(chǎng)景和自身現(xiàn)有業(yè)務(wù)產(chǎn)品背書,因此未來國(guó)內(nèi)通用模型競(jìng)爭(zhēng)格局同樣將收斂至第一梯隊(duì)的少數(shù)玩家。在這樣的行業(yè)背景下,模型創(chuàng)業(yè)公司或針對(duì)B端模型客戶將聚焦于更加垂直、細(xì)分的商業(yè)化場(chǎng)景。對(duì)于傳統(tǒng)的技術(shù)類廠商來說,目前多數(shù)在自身已有的渠道中服務(wù),如部分政府和行業(yè)大客戶,未來或?qū)L試將重心轉(zhuǎn)型至大模型。證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN22/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說圖27國(guó)內(nèi)模型廠商競(jìng)爭(zhēng)格局證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN23/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說3.大模型創(chuàng)新迭代,性能提升與成本下行或成為兩(1)OpenAI是一家致力于推動(dòng)通用人工智能惠及人類的企業(yè)。OpenAI創(chuàng)立于2015年,最早為非營(yíng)利組織,創(chuàng)始人包括薩姆·奧爾特曼(SamAltman)、彼得·蒂爾(PeterThiel)、里德·霍夫曼(ReidHoffman)和埃隆·馬斯克(ElonMusk)等,其中大多都有豐富的技術(shù)和商業(yè)背景,2016年,OpenAI發(fā)布首個(gè)產(chǎn)品OpenAIGym和Universe,2018年,GPT系列模型首次亮相,采用Transformer架構(gòu),參數(shù)規(guī)模達(dá)到1.17億,后續(xù)該系列模型不斷迭代,參數(shù)規(guī)模、訓(xùn)練數(shù)據(jù)、上下文窗口大小呈指數(shù)級(jí)增長(zhǎng),模型性能相應(yīng)也有顯著提升,此外,GPT系列模型也從最初單一的文本模態(tài)迭代成為GPT-4系列的多模態(tài)大模型,2025年,OpenAI將推出GPT-4.5大模型。除GPT系列外,OpenAI還推出了深度推理模型OpenAIo1、o3模型,以及文生視頻模型Sora等。圖28OpenAI發(fā)展歷程以及重要模型發(fā)布節(jié)點(diǎn)(2)基于GPT-3.5的ChatGPT的發(fā)布推動(dòng)了AI技術(shù)的普及和AI產(chǎn)業(yè)的變革,是人工智能的重要里程碑之一。2022年11月30日,OpenAI正式發(fā)布聊天機(jī)器人ChatGPT,基于GPT-3.5架構(gòu),能夠回答問題、創(chuàng)作文章、編程,甚至可以模仿人類的對(duì)話風(fēng)格,顛覆了人們對(duì)于通用大語言模型的認(rèn)知。ChatGPT發(fā)布后,僅僅用了2個(gè)月用戶數(shù)量便達(dá)到億級(jí),增速超越了TikTok、Instagram等全球頭部消費(fèi)級(jí)應(yīng)用。ChatGPT的發(fā)布標(biāo)志著自然語言處理(NLP)技術(shù)的重大進(jìn)步,改善了人機(jī)交互體驗(yàn),顯著提高了生產(chǎn)力,推動(dòng)了AI行業(yè)變革。證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN24/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說圖29OpenAIGPT系列模型迭代相關(guān)性能參數(shù)(3)GPT系列模型著重于預(yù)訓(xùn)練階段的Scalinglaw,在預(yù)訓(xùn)練階段投入了大部分算力資源,在后訓(xùn)練階段采用SFT、RFHL等形式,整體來說更適合解決通識(shí)類知識(shí)。以GPT-4為例,其整體參數(shù)規(guī)模約為GPT-3的10倍,根據(jù)Semianalyst的《GPT-4Architecture,Infrastructure,TrainingDataset,Costs,Vision,MoE》文章中透露,GPT4在預(yù)訓(xùn)練階段使用了25000張40G的英偉達(dá)A100訓(xùn)練了90天以上,總耗費(fèi)約6300萬美元,而模型能力也因此基本來自預(yù)訓(xùn)練階段學(xué)習(xí)理解的大量多模態(tài)信息和知識(shí),所以GPT系列模型針對(duì)問題能夠迅速反應(yīng)并給出答案,擅長(zhǎng)處理的也基本是通識(shí)類的知識(shí)。在后訓(xùn)練階段,GPT采用SFT、RFHL(人類提供偏好反饋數(shù)據(jù)從而訓(xùn)練強(qiáng)化學(xué)習(xí)的獎(jiǎng)勵(lì)模型)方式,提升模型的實(shí)際應(yīng)用效果。圖30以GPT-4為例的GPT系列模型路徑(4)OpenAI于2024年9月發(fā)布OpenAIo1模型,可以執(zhí)行復(fù)雜的推理任務(wù),MMLU評(píng)分超越一眾大模型。o1模型在回答問題之前會(huì)形成一條內(nèi)部思維鏈(ChainofThought模擬人類的思考過程,其在物理、化學(xué)和生物學(xué)這些具有挑戰(zhàn)性的基準(zhǔn)任務(wù)上的表現(xiàn)與博士生相似,在數(shù)學(xué)和編碼方面表現(xiàn)同樣出色。他的MMLU(知識(shí)問答,評(píng)估LLM的知識(shí)和推理能力)評(píng)分、Math(含代數(shù)、微積分、幾何、概率等多個(gè)領(lǐng)域)評(píng)分、GPQADiamond(全面的框架,測(cè)試模型在多種推理場(chǎng)景下的能力)評(píng)分均超過了當(dāng)時(shí)的主流大模型,如Gemini2.0ProExperimental、Hunyuan-TurboS、Claude3.5Sonnet等,對(duì)比GPT-4o也有顯著提升。證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN25/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說圖31OpenAIo1與其他頭部模型評(píng)分對(duì)比(5)o1模型的發(fā)布證明了推理側(cè)的算力資源投入同樣重要,“ScalingLaw”在推理階段或同樣適用。o1模型引入的思維鏈類似人類在回答困難問題之前的長(zhǎng)時(shí)間思考,通過訓(xùn)練時(shí)的強(qiáng)化學(xué)習(xí),o1能夠鍛煉其思維鏈并改進(jìn)其使用的策略,它還能夠識(shí)別并改正錯(cuò)誤,將棘手的問題拆分成更簡(jiǎn)單的步驟,如果目前的方式不奏效,o1還會(huì)嘗試不同的解決方式。上述思維鏈讓o1的推理能力大幅增強(qiáng)。從下圖可知,當(dāng)推理側(cè)的算力資源增加時(shí),模型處理問題的準(zhǔn)確度顯著提升,代表著類似于預(yù)訓(xùn)練階段的“ScalingLaw”在推理階段也同樣兌現(xiàn)了。圖32OpenAIo1在訓(xùn)練和推理階段算力資源的投入與模型性能的關(guān)系(6)未來,GPT系列與o1為代表的深度推理系列模型或?qū)⒒ハ嘌a(bǔ)充。相比GPT-4o,o1在具有挑戰(zhàn)性的推理密集型任務(wù)中都有更為出色的表現(xiàn),GPT系列類似于思維中的淺層、快速反應(yīng)系統(tǒng),能迅速處理日常生活中的直覺性反應(yīng)和基礎(chǔ)認(rèn)知任務(wù),有更好的多模態(tài)交互能力,更大的參數(shù)規(guī)模、更優(yōu)質(zhì)的訓(xùn)練數(shù)據(jù)、優(yōu)化后的模型架構(gòu)是GPT系列模型的發(fā)展方向。而對(duì)于以o1為代表的深度推理系列模型來說,類似于思維中的邏輯性系統(tǒng),更擅長(zhǎng)復(fù)雜的分析和經(jīng)過深思熟慮后的決策提供,需要更多的推理時(shí)間和大量的思維鏈分析過程,后證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN26/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說續(xù)發(fā)展更注重后訓(xùn)練階段的“思考模式”優(yōu)化,以及推理階段更多的算力資源投入。這兩類模型相互補(bǔ)充,GPT類模型可以作為o1類模型的基礎(chǔ)模型增強(qiáng)通識(shí),o1類模型可以為GPT類模型生成高質(zhì)量的推理數(shù)據(jù),未來兩類模型或共同發(fā)展,相互促進(jìn)。圖33o1模型相比GPT-4o在推理密集型任務(wù)上的改進(jìn)圖34未來GPT系列與o1系列模型或?qū)⑹諗咳诤希?)DeepSeek大模型的發(fā)布進(jìn)一步帶動(dòng)AI大模型熱潮。DeepSeek,全稱杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司,由量化私募管理機(jī)構(gòu)幻方量化成立,專注于開發(fā)先進(jìn)的大語言模型和相關(guān)技術(shù)。DeepSeek創(chuàng)始人為梁文峰,有豐富的電子信息和人工智能相關(guān)背景。2024年12月26日,DeepSeek-V3發(fā)布,訓(xùn)練成本約為GPT-4o的1/10,同時(shí)性能比肩頂尖閉源模型,DeepSeek-R1于2024年1月發(fā)布,性能對(duì)標(biāo)OpenAI-o1正式版。DeepSeek的發(fā)布挑戰(zhàn)了純算力路徑,發(fā)布后海內(nèi)外各大廠商爭(zhēng)相本地部署DeepSeek,云服務(wù)商也相繼入局,掀起AI云與端熱潮,算力芯片、服務(wù)器、算力云等產(chǎn)業(yè)鏈有望長(zhǎng)期收?qǐng)D35DeepSeek發(fā)展歷程以及重要模型發(fā)布節(jié)點(diǎn)(2)DeepSeek大模型發(fā)布后僅用七天用戶增長(zhǎng)一億,海內(nèi)外頭部廠商紛紛入場(chǎng)布局。相比ChatGPT先前兩個(gè)月的記錄,DeepSeek在DeepSeek-R1發(fā)布后,僅用七天就實(shí)現(xiàn)了用戶增長(zhǎng)一億的成績(jī),遠(yuǎn)超各大頭部APP。其卓越的性能表現(xiàn)和開源特性,吸引了全球AI開發(fā)者和海內(nèi)外頭部廠商布局,華為云與硅基流動(dòng)聯(lián)合首發(fā)并上線基于華為云昇騰云服務(wù)的證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN27/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說DeepSeekR1/V3推理服務(wù),騰訊云則將R1大模型一鍵部署至高性能應(yīng)用服務(wù)HAI上,開發(fā)者僅需3分鐘就能接入調(diào)用;海外AI芯片頭部廠商英偉達(dá)宣布DeepSeek-R1模型登陸NVIDIANIM,AMD宣布已將新的DeepSeek-V3模型集成到InstinctMI300XGPU上,針對(duì)AI推理進(jìn)行了優(yōu)化,云服務(wù)龍頭亞馬遜和微軟也紛紛接入DeepSeek-R1,共同推動(dòng)AI技術(shù)的迅速發(fā)展和應(yīng)用普及。圖36DeepSeek用戶增長(zhǎng)速度圖37海內(nèi)外接入DeepSeek的廠商(3)DeepSeek-V3性能對(duì)齊海外領(lǐng)軍閉源模型,訓(xùn)練成本和定價(jià)卻遠(yuǎn)低于后者。DeepSeek-V3于2024年12月底發(fā)布,為開源自研MoE模型,共671B參數(shù),激活37B,在14.8Ttoken上進(jìn)行了預(yù)訓(xùn)練。根據(jù)測(cè)試,DeepSeek-V3的多項(xiàng)評(píng)測(cè)成績(jī)超越了Qwen2.5-72B和Llama-3.1-405B等其他開源模型,并在性能上和世界頂尖的閉源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。從API定價(jià)看,DeepSeek-V3每百萬輸入tokens0.5元(緩存命中)/2元(緩存未命中每百萬輸出tokens8元,遠(yuǎn)低于其他廠商的頭部大模型。從訓(xùn)練成本看,根據(jù)官方的《DeepSeek-V3TechnicalReport》,在預(yù)訓(xùn)練階段,在每萬億個(gè)token上訓(xùn)練DeepSeek-V3只需要18萬個(gè)H800GPU小時(shí),即在擁有2048個(gè)H800GPU的集群上需要3.7天。因此,預(yù)訓(xùn)練階段是在不到兩個(gè)月的時(shí)間內(nèi)完成的,成本為266.4萬個(gè)GPU小時(shí)。再加上11.9萬個(gè)GPU小時(shí)用于擴(kuò)展上下文長(zhǎng)度和5000個(gè)GPU小時(shí)的后訓(xùn)練,DeepSeek-V3的總訓(xùn)練成本僅為278.8萬個(gè)GPU小時(shí)。假設(shè)H800GPU的租賃價(jià)格為2美元/每GPU小時(shí),那總訓(xùn)練成本僅為557.6萬美元(上述成本僅包括DeepSeek-V3的官方訓(xùn)練,不包括與先前研究、架構(gòu)、算法、數(shù)據(jù)和消融實(shí)驗(yàn)相關(guān)的成本)。與GPT-4相比,上述成本不到其1/10,DeepSeek-V3的發(fā)布驗(yàn)證了AI大模型低成本訓(xùn)練的商業(yè)可行性。證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN28/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說圖38DeepSeek-V3多項(xiàng)評(píng)測(cè)能力與海內(nèi)外頭部模型對(duì)比資料來源:DeepSeek,東海證券研究所(注:加粗字體為最高分)圖39DeepSeek模型性能與價(jià)格比處于最優(yōu)范圍內(nèi)圖40DeepSeek-V3訓(xùn)練成本(4)DeepSeek-V3創(chuàng)新性的架構(gòu)特點(diǎn)是通過引入MLA實(shí)現(xiàn)高效推理,通過DeepSeekMoE實(shí)現(xiàn)成本更低的訓(xùn)練。1)多頭潛在注意力機(jī)制(Multi-HeadLatentAttention,MLA)區(qū)別于Transformer架構(gòu)的多頭注意力(Multi-HeadAttention,MHA)機(jī)制,顯著減少了鍵-值緩存的內(nèi)存占用。MHA通過計(jì)算查詢(Query)、鍵(Key)和值(Value)矩陣之間的關(guān)系,使模型能夠關(guān)注輸入序列中的不同部分。然而,在自回歸生成過程中,為了避免重復(fù)計(jì)算,需要維護(hù)一個(gè)鍵-值(KV)緩存,該緩存存儲(chǔ)了所有先前生成令牌的鍵和值矩陣,同時(shí)帶來了顯著的內(nèi)存挑戰(zhàn),制約了模型的實(shí)用性。為了解決該類問題,MLA不直接存儲(chǔ)完整的鍵值矩陣,而是存儲(chǔ)一個(gè)維度更小的壓縮向量。在需要進(jìn)行注意力計(jì)算時(shí),再通過解壓縮重構(gòu)出所需的鍵和證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN29/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說值。這種壓縮-解壓縮機(jī)制使得模型可以在顯著減少內(nèi)存占用的同時(shí),保持甚至提升性能。DeepSeek-V2的技術(shù)報(bào)告顯示,MLA使KV緩存減少了93.3%,訓(xùn)練成本節(jié)省了42.5%,生成吞吐量提高了5.76倍。2)DeepSeekMoE的基本架構(gòu)建立在Transformer框架之上,在前饋網(wǎng)絡(luò)(FFN)層引入了創(chuàng)新的MoE機(jī)制。與傳統(tǒng)MoE使用較粗粒度的專家劃分不同,DeepSeekMoE采用了更細(xì)粒度的專家劃分方式,使每個(gè)專家能夠負(fù)責(zé)更具體的任務(wù),從而提高模型的靈活性和表達(dá)能力。具體來說,DeepSeekMoE的每個(gè)MoE層由1個(gè)共享專家和256個(gè)路由專家組成,每個(gè)token會(huì)激活8個(gè)路由專家。這種設(shè)計(jì)使得模型能夠在保持高性能的同時(shí),顯著減少計(jì)算資源的消耗。不同于傳統(tǒng)MoE中專家都是獨(dú)立的設(shè)計(jì),DeepSeekMoE的共享專家負(fù)責(zé)處理所有token的通用特征,而路由專家則根據(jù)token的具體特征進(jìn)行動(dòng)態(tài)分配。這種分工不僅減少了模型的冗余、提高了計(jì)算效率,還使得模型能夠更好地處理不同領(lǐng)域的任務(wù)。圖41DeepSeek-V3的MLA和DeepSeekMoE架構(gòu)(5)DeepSeek-R1性能對(duì)齊OpenAI-o1正式版。DeepSeek-R1于2025年1月20日發(fā)布,共671B參數(shù),激活參數(shù)37B,在DeepSeek-V3-Base基礎(chǔ)上訓(xùn)練而來。DeepSeek-R1在后訓(xùn)練階段大規(guī)模使用了強(qiáng)化學(xué)習(xí)技術(shù),在僅有極少標(biāo)注數(shù)據(jù)的情況下,極大提升了模型推理能力。在數(shù)學(xué)、代碼、自然語言推理等任務(wù)上,性能比肩OpenAIo1正式版。證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN30/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說圖42DeepSeek-R1在數(shù)學(xué)、代碼、自然語言推理等任務(wù)上的性能表現(xiàn)(6)DeepSeek-R1表明通過強(qiáng)化學(xué)習(xí)可以直接提升推理能力,能夠在不依賴監(jiān)督微調(diào)的情況下實(shí)現(xiàn)強(qiáng)大的推理表現(xiàn),同時(shí)蒸餾技術(shù)也能夠?qū)⒋竽P偷耐评砟芰D(zhuǎn)移到更小的模型上,提升它們的表現(xiàn)。1)DeepSeek-R1-Zero通過強(qiáng)化學(xué)習(xí)訓(xùn)練,展現(xiàn)了“自我驗(yàn)證、自我反思”和“生成長(zhǎng)鏈推理”的能力,DeepSeek-R1在此基礎(chǔ)上做了改進(jìn),加入了冷啟動(dòng)數(shù)據(jù)和多階段訓(xùn)練流程,從而進(jìn)一步提升了推理能力并改善了可讀性。過去的大多數(shù)模型依靠大量的監(jiān)督數(shù)據(jù)來提升模型性能,但監(jiān)督數(shù)據(jù)的搜集耗時(shí)耗力,而DeepSeek-R1-Zero僅從基礎(chǔ)模型開始,在后訓(xùn)練中通過純粹的強(qiáng)化學(xué)習(xí)(RL)過程進(jìn)行自我進(jìn)化。為了節(jié)省RL的訓(xùn)練成本,R1-Zero采用了組相對(duì)策略優(yōu)化(GroupRelativePolicyOptimization,GPRO)方法,讓模型針對(duì)每個(gè)問題生成多個(gè)輸出,通過比較這些輸出的相對(duì)表現(xiàn)來調(diào)整策略。而在訓(xùn)練時(shí),獎(jiǎng)勵(lì)模型(RewardModeling)決定了模型優(yōu)化的方向。R1-Zero采用了包括準(zhǔn)確性獎(jiǎng)勵(lì)和格式獎(jiǎng)勵(lì)的基于規(guī)則的獎(jiǎng)勵(lì)系統(tǒng),而沒有采用基于神經(jīng)網(wǎng)絡(luò)的獎(jiǎng)勵(lì)模型,為了避免出現(xiàn)獎(jiǎng)勵(lì)欺騙的情況。在自我進(jìn)化的過程中,隨著推理運(yùn)算時(shí)間的增加,模型解決復(fù)雜推理任務(wù)的能力也在不斷增強(qiáng),此外還涌現(xiàn)出了“反思”等復(fù)雜行為,模型會(huì)重新審視和評(píng)估自己先前的步驟,還會(huì)自發(fā)地探索解決問題的其他方法。R1-Zero雖然推理能力強(qiáng),但存在推理過程可讀性差、語言混雜等問題,因此DeepSeek-R1在R1-Zero的基礎(chǔ)上引入了“冷啟動(dòng)”策略和多階段訓(xùn)練,冷啟動(dòng)是指先用少量高質(zhì)量的CoT數(shù)據(jù)對(duì)模型進(jìn)行初步訓(xùn)練,相當(dāng)于給模型一個(gè)“熱身”,目標(biāo)是讓模型既能保持強(qiáng)大的推理能力,又能生成清晰、用戶友好的回答。證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN31/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說圖43DeepSeek-R1-Zero在訓(xùn)練過程中的AIME準(zhǔn)確性不斷上升2)模型蒸餾技術(shù)是一種將知識(shí)從復(fù)雜的大型模型(教師模型)轉(zhuǎn)移到更小、更高效的模型(學(xué)生模型)的方法,旨在保持性能的同時(shí)減少計(jì)算資源和存儲(chǔ)需求。DeepSeek-R1證明了較大模型的推理模式可以被蒸餾到較小的模型中,比在小模型上通過RL訓(xùn)練的推理模式表現(xiàn)更好。DeepSeek利用DeepSeek-R1生成的推理數(shù)據(jù),對(duì)多個(gè)稠密模型進(jìn)行了微調(diào),結(jié)果表明,蒸餾后的小型稠密模型在基準(zhǔn)測(cè)試中表現(xiàn)非常出色,其中32B和70B模型在多項(xiàng)性能上比肩OpenAIo1-mini。證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN32/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說圖44蒸餾后的小型模型在數(shù)學(xué)、代碼、自然語言推理等任務(wù)上的性能表現(xiàn)(1)根據(jù)大模型產(chǎn)業(yè)鏈上游涉及到的半導(dǎo)體相關(guān)環(huán)節(jié),我們將其主要?jiǎng)澐譃锳I芯片(云端與端側(cè))、存儲(chǔ)、光模塊、PCB、服務(wù)器、電源等幾個(gè)板塊。如下圖所示,AI產(chǎn)業(yè)高速發(fā)展離不開AI服務(wù)器的基礎(chǔ)功能,AI服務(wù)器產(chǎn)業(yè)鏈整體包括上中下游,上游硬件部分是AI產(chǎn)業(yè)構(gòu)建的基礎(chǔ),核心是AI服務(wù)器展開的相關(guān)零組件,隨著AI產(chǎn)業(yè)的高速發(fā)展,上游電子零部件板塊或?qū)⒁哺咚僭鲩L(zhǎng)。證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN33/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說圖45AI服務(wù)器產(chǎn)業(yè)鏈(2)云端AI芯片指面向AI應(yīng)用,針對(duì)AI算法(如深度學(xué)習(xí)等)進(jìn)行特殊加速設(shè)計(jì)的芯片。AI芯片是大模型的“大腦”,提供算力支持,主要包括GPU、FPGA、ASIC等。國(guó)內(nèi)相關(guān)廠商包括寒武紀(jì)、海光信息、龍芯中科等。圖46寒武紀(jì)2020-2024年總營(yíng)收和歸母凈利潤(rùn)與各自同比增速資料來源:Wind,東海證券研究所(注:2024年為業(yè)績(jī)快報(bào))圖47海光信息2020-2024年總營(yíng)收和歸母凈利潤(rùn)與各自同比增速(3)端側(cè)AI芯片是指應(yīng)用于AI應(yīng)用,如智能手機(jī)、筆記本電腦、智能攝像頭等各種終端設(shè)備的芯片,核心特點(diǎn)包括低功耗、高算力、低延遲和高集成度等。端側(cè)AI芯片能夠在設(shè)備本地完成復(fù)雜的AI任務(wù),減少數(shù)據(jù)傳輸和云端計(jì)算的依賴,從而提升設(shè)備的智能化水平和用戶體驗(yàn),國(guó)內(nèi)相關(guān)重點(diǎn)廠商包括恒玄科技、樂鑫科技、中科藍(lán)訊、晶晨股份、瑞芯微、全志科技、炬芯科技、國(guó)科微等。證券研究報(bào)告HTTP://WWW.LONGONE.COM.CN34/38請(qǐng)務(wù)必仔細(xì)閱讀正文后的所有說圖48恒玄科技2020-2024年總營(yíng)收和歸母凈利潤(rùn)與各自同比增速資料來源:Wind,東海證券研究所(注:2024年為業(yè)績(jī)快報(bào))圖49樂鑫科技2020-2024年總營(yíng)收和歸母凈利潤(rùn)與各自同比增速(4)存儲(chǔ)包括存儲(chǔ)模組和存儲(chǔ)芯片,包括DRAM、NANDFLASH、HBM等。AI的發(fā)展由海量數(shù)據(jù)支撐,對(duì)數(shù)據(jù)處理提出了極高的要求,因而需要更大的內(nèi)存去存儲(chǔ)更多的數(shù)據(jù),國(guó)內(nèi)相關(guān)重點(diǎn)廠商包括兆易創(chuàng)新、江波龍、佰維存儲(chǔ)、德明利、瀾起科技
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 陵園墓地代理合作協(xié)議范本
- 家庭護(hù)理員居間服務(wù)合同
- 【小學(xué) 三年級(jí)數(shù)學(xué)】三年級(jí)下冊(cè)數(shù)學(xué)口算試題
- 舞臺(tái)布景設(shè)計(jì)與制作合同樣本
- 2024泰安市工程職業(yè)中等專業(yè)學(xué)校工作人員招聘考試及答案
- 2024泌陽縣中等職業(yè)技術(shù)學(xué)校工作人員招聘考試及答案
- 2024湖南省郴州市第一職業(yè)中等專業(yè)學(xué)校工作人員招聘考試及答案
- 2024河北省唐縣職業(yè)技術(shù)教育中心工作人員招聘考試及答案
- 大型倉儲(chǔ)設(shè)施消防工程合同書
- 物業(yè)服務(wù)公司員工安全合同責(zé)任書模板
- 2025年浙江紡織服裝職業(yè)技術(shù)學(xué)院?jiǎn)握新殬I(yè)適應(yīng)性測(cè)試題庫新版
- 《園林微景觀設(shè)計(jì)與制作》課件-項(xiàng)目四 微景觀展示
- 2025年河南省安陽市安陽縣九年級(jí)中考一模數(shù)學(xué)試題(原卷版+解析版)
- 2025年貴州省交通廳及公路局事業(yè)單位歷年高頻重點(diǎn)模擬試卷提升(共500題附帶答案詳解)
- 2024年河北省普通高中學(xué)業(yè)水平選擇性考試物理試題含答案
- 大班爬山安全
- 海棠河外來植物防治與紅樹林濕地恢復(fù)項(xiàng)目環(huán)評(píng)報(bào)告書
- 生態(tài)農(nóng)業(yè)面源污染治理-深度研究
- 二零二五年度工業(yè)電機(jī)維修、安裝、調(diào)試全方位服務(wù)合同2篇
- 《某化纖廠總配變電所及高壓配電系統(tǒng)設(shè)計(jì)》7200字
- 2025年中國(guó)高鐵餐飲市場(chǎng)供需現(xiàn)狀及投資規(guī)劃建議報(bào)告
評(píng)論
0/150
提交評(píng)論