電子行業(yè)深度報告:AI新范式:云廠商引領(lǐng)+內(nèi)需為王_第1頁
電子行業(yè)深度報告:AI新范式:云廠商引領(lǐng)+內(nèi)需為王_第2頁
電子行業(yè)深度報告:AI新范式:云廠商引領(lǐng)+內(nèi)需為王_第3頁
電子行業(yè)深度報告:AI新范式:云廠商引領(lǐng)+內(nèi)需為王_第4頁
電子行業(yè)深度報告:AI新范式:云廠商引領(lǐng)+內(nèi)需為王_第5頁
已閱讀5頁,還剩65頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告1AI新范式:云廠商引領(lǐng)+內(nèi)需為王2024年12月29日相關(guān)研究產(chǎn)替代打破壟斷格局-2024/12/25端布局-2024/12/18相關(guān)研究產(chǎn)替代打破壟斷格局-2024/12/25端布局-2024/12/18掌握私域數(shù)據(jù)的CSP廠商將在大模型廠商的下一輪競賽中更具優(yōu)勢。CSP異軍突起,百舸爭流的算力競爭時代開啟。當(dāng)下AI大模型日益增長的算力需求對CSP廠商資本開支提出更高要求,考慮到成本優(yōu)勢以及更好的靈活性,CSP自研加速卡將成為未來AI芯片增量最核心的來源,英偉達(dá)在加速卡領(lǐng)域的市占率有望逐步被CSP廠商替代。與此同時,CSP自研算力也帶來了算力產(chǎn)業(yè)鏈的全新變革,全新的AEC、PCB、散熱、電源產(chǎn)業(yè)鏈冉冉升起,CSP合作伙伴將在算力的下一個環(huán)節(jié)中更為受益。端側(cè):豆包出圈,互聯(lián)網(wǎng)巨頭入局AI終端。AI終端的發(fā)展經(jīng)歷了由云到端、由ToB到ToC的5個階段,當(dāng)前我們處于以字節(jié)豆包為代表的互聯(lián)網(wǎng)巨頭引領(lǐng)的第五階段。早期AI終端更多是品牌廠商引領(lǐng),而當(dāng)前互聯(lián)網(wǎng)巨頭親自下場開發(fā)硬件,有望在AI終端產(chǎn)業(yè)鏈中發(fā)揮更加重要的作用。我們看好AI+智能終端的趨勢,AI將重構(gòu)電子產(chǎn)業(yè)的成長,加速硬件的智能化、伴侶化趨勢。無論是手機(jī)、PC、AIOT、可穿戴設(shè)備、汽車電子,都有重估的潛力。投資建議:我們認(rèn)為,伴隨著公開數(shù)據(jù)預(yù)訓(xùn)練scalinglaw的結(jié)束,AI產(chǎn)業(yè)敘事開始向云廠商合作伙伴轉(zhuǎn)移。從數(shù)據(jù)到模型,從訓(xùn)練到推理,從云到端,CSP廠商全面布局,形成了完美的商業(yè)閉環(huán)。當(dāng)下,無論是海外的谷歌、亞馬遜,還是國內(nèi)的字節(jié)、騰訊,云廠商巨頭們開始接力,引領(lǐng)AI產(chǎn)業(yè)的下一棒。具體到投資方向,PCB、銅纜、溫控、電源等產(chǎn)業(yè)鏈,是國內(nèi)企業(yè)深耕多年,具備優(yōu)勢的環(huán)節(jié)。伴隨著本土云廠商的大力擴(kuò)產(chǎn),內(nèi)需為王的時代也將來臨。相比過去,25年的AI產(chǎn)業(yè)投資將更重視合作建立、訂單落地以及業(yè)績兌現(xiàn),投資回報也會更為穩(wěn)健。建議關(guān)注:1、云端算力:1)ASIC:寒武紀(jì)、海光信息、中興通訊;2)服務(wù)器:浪潮信息、工業(yè)富聯(lián)、華勤技術(shù)、聯(lián)想集團(tuán);3)AEC:新易盛、博創(chuàng)科技、瑞可達(dá)、兆龍互聯(lián)、立訊精密;4)銅連接:沃爾核材、精達(dá)股份;5)PCB:生益電子、廣合科技、深南電路、威爾高;6)散熱:申菱環(huán)境、英維克、高瀾股份;7)電源:麥格米特、歐陸通、泰嘉股份。2、端側(cè)硬件:1)品牌:小米集團(tuán)、漫步者、億道信息等;2)代工:國光電器、歌爾股份、天鍵股份、佳禾智能等;3)數(shù)字芯片:樂鑫科技、恒玄科技、星宸科技、富瀚微、中科藍(lán)訊、炬芯科技、全志科技等;4)存儲芯片:兆易創(chuàng)新、普冉股份;5)渠道配鏡:博士眼鏡、明月鏡片等。風(fēng)險提示:大模型發(fā)展不及預(yù)期,CSP自研算力不及預(yù)期,AI終端銷量不重點(diǎn)公司盈利預(yù)測、估值與評級 300499.SZ高瀾股份22.160.100.270.43 002130.SZ沃爾核材29.220.730.951.14 600577.SH精達(dá)股份8.020.260.34資料來源:Wind,民生證券研究院預(yù)測;(注:股價為2024年12月27日收盤價;未覆蓋公司數(shù)據(jù)采用wind一致預(yù)期)行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告21ScalingLaw2.0,CSP的私域數(shù)據(jù)成為關(guān)鍵 31.1關(guān)于ScalingLaw的爭議,從數(shù)據(jù)規(guī)模到數(shù)據(jù)精度 31.2CSP的三大利器:私域數(shù)據(jù)、推理需求、從云到端 2CSP異軍突起,百舸爭流的算力競爭時代開啟 92.1從外采到自研,CSP的算力升級之路 92.2CSP算力供應(yīng)鏈新變革 163端側(cè):豆包出圈,互聯(lián)網(wǎng)巨頭入局AI終端 283.1字節(jié)豆包先行,加速端側(cè)落地 283.2AI終端空間廣闊,SoC是影響體驗(yàn)的核心硬件 324投資建議 4.1行業(yè)投資建議 364.2相關(guān)公司梳理 365風(fēng)險提示 40插圖目錄 41表格目錄 41行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告31ScalingLaw2.0,CSP的私域數(shù)據(jù)成為關(guān)鍵ScalingLaw是AI產(chǎn)業(yè)發(fā)展的通用規(guī)律,在ScalingLaw下,大模型對算力的需求以每年10倍左右的速度增長,甚至超過了摩爾定律下半導(dǎo)體晶體管密度的增長速度。AI大模型的算力需求在過去幾年呈現(xiàn)快速增長的態(tài)勢,Transformer算力需求在2年內(nèi)增長750倍,平均每年以接近10倍的速度增長。以O(shè)penAI的GPT為例,GPT1在2018年推出,參數(shù)量級為1億個,OpenAI下一代推出的GPT5參數(shù)量級預(yù)計(jì)達(dá)到10萬億。圖1:AI大模型對算力的需求超過摩爾定律大模型的ScalingLaw表明,計(jì)算量、數(shù)據(jù)量、參數(shù)規(guī)模三個因素的增長能夠不斷提升大模型的性能。在任意其他兩個指標(biāo)不受限制的情況下,大模型的性能和另一個因素都呈現(xiàn)冪律關(guān)系,在大模型過去的發(fā)展過程中,算力、數(shù)據(jù)量、參數(shù)規(guī)模三個指標(biāo)均沒有達(dá)到上限,ScalingLaw仍然在發(fā)揮作用,大模型的性能也在持續(xù)改善。本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告4圖2:ScalingLaw的三要素:算力、數(shù)據(jù)量、參數(shù)規(guī)模然而公開數(shù)據(jù)量的有限性制約了ScalingLaw進(jìn)一步發(fā)揮作用。據(jù)IDC,2018年全球數(shù)據(jù)總量為39.9ZB,預(yù)計(jì)到2028年,全球數(shù)據(jù)總量將達(dá)到393.8ZB,CAGR增速為25.7%,該增速遠(yuǎn)遠(yuǎn)低于ScalingLaw下大模型參數(shù)和算力需求每年10倍左右的增長速度。PabloVillalobos等人的研究表明,在2028年左右,大模型能夠獲得的數(shù)據(jù)量級將達(dá)到上限,受限于數(shù)據(jù)量,ScalingLaw將會放緩。實(shí)際上,由于大模型自2022年底以來的加速發(fā)展,數(shù)據(jù)量可能在2028年以前就會達(dá)到天花板,從而限制ScalingLaw發(fā)揮作用。圖3:2018-2028年全球數(shù)據(jù)量資料來源:IDC,民生證券研究院圖4:大模型ScalingLaw將在2028年左右開始顯著放緩human-generateddata》Pa當(dāng)下傳統(tǒng)的ScalingLaw受限于數(shù)據(jù)量,私域高精度數(shù)據(jù)或成為ScalingLaw2.0的核心要素。12月15日,在NeurIPS大會上,OpenAI前首席科學(xué)家Ilya在公開演講中提到,由于目前“我們已經(jīng)達(dá)到了數(shù)據(jù)的峰值,未來不會再有更多的數(shù)據(jù)”,當(dāng)前AI模型的預(yù)訓(xùn)練方式可能走向終結(jié)。Ilya的發(fā)言認(rèn)為當(dāng)前傳統(tǒng)的ScalingLaw即將失效,新的ScalingLaw,即在特定領(lǐng)域的強(qiáng)化學(xué)習(xí)將發(fā)揮更本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告5重要的作用。想要在特定領(lǐng)域訓(xùn)練出垂直化的“專家大模型”,數(shù)據(jù)的數(shù)量不再成為衡量數(shù)據(jù)好壞的唯一標(biāo)準(zhǔn),數(shù)據(jù)的精度、準(zhǔn)確度等指標(biāo)更為重要,私域數(shù)據(jù)、人工標(biāo)注的數(shù)據(jù)可能成為下一階段大模型發(fā)展過程中的核心競爭力。圖5:低精度的訓(xùn)練數(shù)據(jù)增多可能反而對模型性能造成損害圖6:使用更高精度的數(shù)據(jù)將減小因數(shù)據(jù)質(zhì)量不佳而對模型性能造成的損害私域數(shù)據(jù)成為延續(xù)ScalingLaw的關(guān)鍵。隨著大模型規(guī)模及訓(xùn)練集的擴(kuò)大,可用于訓(xùn)練的互聯(lián)網(wǎng)公開數(shù)據(jù)逐漸稀少,基于公開數(shù)據(jù)的ScalingLaw逐步走到盡頭;擁有龐大用戶群體的互聯(lián)網(wǎng)巨頭,海外以AWS、Meta、谷歌、微軟代表,國內(nèi)以字節(jié)、阿里、騰訊、百度等為代表,掌握了用戶在使用過程中產(chǎn)生的大量私域數(shù)據(jù),如AWS依托其購物平臺,積攢了大量用戶偏好及使用習(xí)慣數(shù)據(jù),以及大量的商品文字/圖片數(shù)據(jù);字節(jié)依托頭條及抖音平臺,積累了海量的資訊數(shù)據(jù)及視頻數(shù)據(jù),可以為模型的訓(xùn)練提供優(yōu)質(zhì)的語料,有力解決高質(zhì)量數(shù)據(jù)匱乏導(dǎo)致的“ScalingLaw失效“問題。本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告6圖7:豆包大模型使用量快速增長資料來源:字節(jié)跳動發(fā)布會,民生證券研究院算力需求會加速從訓(xùn)練側(cè)向推理側(cè)傾斜,推理有望接力訓(xùn)練,成為下一階段算力需求的主要驅(qū)動力?;ヂ?lián)網(wǎng)巨頭旗下亦擁有高活躍應(yīng)用可以幫助引流,可以依托自身平臺流量推廣自家大模型,從而獲取客戶、積累數(shù)據(jù);可以將大模型進(jìn)一步綁定手中熱門應(yīng)用,如可以讓自家大模型成為自家短視頻平臺輔助剪輯、修圖的工具。CSP優(yōu)質(zhì)的流量接口可賦能推理側(cè),實(shí)現(xiàn)從訓(xùn)練模型到用戶使用大模型進(jìn)行推理的正向循環(huán),加速模型商業(yè)化落地。隨著端側(cè)AI的放量及AI應(yīng)用的落地,豆包、ChatGPT等AI應(yīng)用快速發(fā)展,AI推理計(jì)算需求將快速提升,巴克萊的報告預(yù)計(jì)AI推理計(jì)算需求將占通用人工智能總計(jì)算需求的70%以上,推理計(jì)算的需求甚至可以超過訓(xùn)練計(jì)算需求,達(dá)到后者的4.5倍。OpenAI上線的o1模型也更加側(cè)重于推理測能力。o1新模型除預(yù)訓(xùn)練階段外,還通過大量計(jì)算反復(fù)強(qiáng)化學(xué)習(xí),并且在推理階段增加思考時間,獲得能力的提升,未來模型通過大量強(qiáng)化學(xué)習(xí)或者延長思考時間以獲得更準(zhǔn)確的答案或成為可能。英偉達(dá)高級科學(xué)家JimFan認(rèn)為o1模型的推出意味著模型開始呈現(xiàn)出推理側(cè)的Scalinglaw,雙曲線的共同增長,有望突破大模型能力的提升瓶頸。開發(fā)者訪問o1的成本更高,百萬token輸入/輸出收費(fèi)為GPT-4o的3/4倍;復(fù)雜推理明顯拉動推理側(cè)算力需求。本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告7圖8:推理對模型重要性提升鑒于推理所需的芯片算力顯著低于訓(xùn)練,盡管AWS、谷歌為代表的CSP自研ASIC起步較晚,整體性能低于英偉達(dá)的GPU,但由于其較高的性價比,以及定制化的開發(fā)更加匹配自家模型的推理,云廠商可以通過ASIC降低推理成本,擴(kuò)大自身優(yōu)勢。博通于業(yè)績會透露,目前正在與三個非常大型的客戶開發(fā)AI芯片,預(yù)計(jì)明年公司AI芯片的市場規(guī)模為150億-200億美元。英偉達(dá)GPU目前在推理市場中市占率約80%,但隨著大型科技公司定制化ASIC芯片不斷涌現(xiàn),這一比例有望在2028年下降至50%左右。圖9:谷歌TPU資料來源:谷歌,集微網(wǎng),民生證券研究院硬件為大模型落地最重要的載體,從云到端為大模型落地的必經(jīng)之路。復(fù)盤本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告8AI發(fā)展之路,從大模型推出以來,AIPC、AI+MR、AI手機(jī)、AI眼鏡等終端陸續(xù)落地。我們認(rèn)為AI終端的定價=硬件成本+AI體驗(yàn),大模型體驗(yàn)的優(yōu)劣決定了用戶的付費(fèi)意愿,而互聯(lián)網(wǎng)巨頭和第三方科技公司深度參與模型的開發(fā),部分模型能力較強(qiáng)的廠商如字節(jié)、百度甚至親自下場開發(fā)硬件,因此我們認(rèn)為互聯(lián)網(wǎng)巨頭有望在AI終端產(chǎn)業(yè)鏈中發(fā)揮更重要的作用。圖10:AI發(fā)展歷程復(fù)盤資料來源:聯(lián)想、蘋果、OpenAI官網(wǎng)等我們認(rèn)為,隨著公開數(shù)據(jù)ScalingLaw的逐步終結(jié),掌握私域數(shù)據(jù)的云廠商更有希望延續(xù)大模型訓(xùn)練的ScalingLaw;隨著AI應(yīng)用的逐步落地,AI將由訓(xùn)練端逐步轉(zhuǎn)向推理端,云廠商自研ASIC將比通用GPU更具性價比,且自身具備優(yōu)質(zhì)的流量接口可賦能推理側(cè);硬件是大模型落地最重要的硬件載體,而CSP將作為大模型重要提供方,將全面賦能AIPC、AI手機(jī)、AI眼鏡、機(jī)器人等,CSP+電子品牌(蘋果、華為、聯(lián)想等)的商業(yè)模式將更為清晰。從公開數(shù)據(jù)到私域數(shù)據(jù),從訓(xùn)練到推理,從云到端,三大利器全部掌握在CSP手中,形成訓(xùn)練-推理-商業(yè)化落地的完美閉環(huán),我們認(rèn)為未來CSP的話語權(quán)將進(jìn)一步加重,AI發(fā)展的話語權(quán)將由以英偉達(dá)為代表的算力公司,以及以O(shè)penAI為代表的大模型公司,交棒至各大CSP巨頭。行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告92CSP異軍突起,百舸爭流的算力競爭時代開啟云商算力需求仍維持高增,持續(xù)增長的資本開支成為北美云商算力的主要支撐。CY3Q24北美四大云商CY3Q24合計(jì)資本開支為598.14億美元,同比增長61.7%,環(huán)比增長13.2%;Bloomberg一致預(yù)期CY2024北美四大云商資本開支合計(jì)為2226億美元,同比增長51.0%。其中:1)微軟:CY3Q24資本開支149.23億美元,qoq+7.6%,yoy+50.5%,此前公司指引Q3資本開支環(huán)比增加,實(shí)際數(shù)據(jù)基本符合預(yù)期,公司指引下一季度資本開支環(huán)比增長,但伴隨需求增長,資本開支增速將放緩;2)Meta:CY3Q24資本開支92.10億美元,qoq+12.7%,yoy+40.8%,公司將全年資本開支預(yù)期范圍從上一季度的370-400億美元上修至380-400億美元,符合391億美元的Bloomberg一致預(yù)期,關(guān)于2025年,公司預(yù)計(jì)2025年資本支出將繼續(xù)大幅增長;3)谷歌:CY3Q24資本開支130.61億美元,qoq-0.9%,yoy+62.10%,此前公司指引Q3資本開支保持或高于120億美元,實(shí)際數(shù)據(jù)略超預(yù)期,據(jù)公司指引我們測算公司2024年資本開支預(yù)計(jì)500億美元以上,2025年保持適度增長,與此前指引一致;4)亞馬遜:CY3Q24資本開支226.20億美元,qoq+28.4%,yoy+81.3%,顯著超Bloomberg一致預(yù)期,公司對2024年資本開支計(jì)劃為750億美元,預(yù)計(jì)2025年將進(jìn)一步提升。我們認(rèn)為,當(dāng)前海外算力產(chǎn)業(yè)鏈的核心矛盾為云商資本開支和算力需求的增長。從北美四大云廠商對資本開支最新的反饋來看,算力需求依舊旺盛。另一方面,云商正在通過:1)AI帶來Opex方面的降本增效;2)延長云基礎(chǔ)設(shè)施的折舊年限等方式提升資本開支潛在空間,算力需求有望持續(xù)高增。行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告10圖11:1Q20-4Q24北美云商資本開支(億美元)0圖12:2021-2024E北美云商資本開支(億美元)0云商云業(yè)務(wù)收入持續(xù)高增,為算力基礎(chǔ)設(shè)施擴(kuò)張?zhí)峁┲饕獎恿?。北美云商方面,CY1Q23-CY3Q24亞馬遜、微軟和谷歌三大云商合計(jì)云業(yè)務(wù)收入分別為508.89/541.64/514.83/592.76/613.19/651.43/628.97億美元,同比增長17.5%/15.4%/7.9%/18.1%/20.5%/20.3%/22.2%,生成式AI的發(fā)展使得用戶對云的需求持續(xù)高漲;國內(nèi)云商方面,CY1Q23-CY3Q24阿里和百度兩大云商合計(jì)云業(yè)務(wù)收入分別為289.42/296.23/319.48/337.66/302.95/316.49/345.10億元,同比增長19.4%/4.6%/1.6%/3.7%/4.7%/6.8%/8.0%,增速有所放緩,但國內(nèi)云行業(yè)正向AI計(jì)算加速轉(zhuǎn)變,未來上升趨勢依然可觀。圖13:北美云商云業(yè)務(wù)收入(億美元)及同比增速Amazon微軟谷歌0圖14:國內(nèi)云商云業(yè)務(wù)收入(億美元)及同比增速0目前英偉達(dá)在AI加速卡領(lǐng)域仍然占據(jù)主要供應(yīng)商的低位,但其他商業(yè)公司以及云商自研的比例正在逐步提升。AI加速卡的競爭格局中主要有三類“玩家”:1)全球龍頭英偉達(dá);2)其他商業(yè)AI加速卡公司,如AMD、Intel、昇騰等;3)云廠商自研加速卡。據(jù)Trendforce統(tǒng)計(jì),2022年全球AI芯片市占率來看,英偉本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告11達(dá)獨(dú)占67.6%,預(yù)計(jì)到2024年英偉達(dá)市占率將下降到63.6%,而AMD以及其他云商自研加速卡比例有望提升。我們認(rèn)為,云廠商自研加速卡將成為未來AI芯片增量最核心的來源。一方面,云商自研加速卡在成本方面顯著優(yōu)于向英偉達(dá)等商業(yè)公司外采,3Q24英偉達(dá)毛利率已達(dá)到74.4%,采用自研加速卡的方式,將幫助云商在有限的資本開支下獲得更多的AI算力。另一方面,云商自研ASIC更加靈活,云廠商可以根據(jù)自身的模型訓(xùn)練和推理需求,進(jìn)行AI芯片和服務(wù)器架構(gòu)的設(shè)計(jì),從而實(shí)現(xiàn)更好的訓(xùn)練和推理效果。伴隨著云廠商自研ASIC產(chǎn)品的逐步成熟,未來云商在AI算力的布局中自研的比例有望逐步提升。圖15:2022-2024年全球AI芯片競爭格局100.0%80.0%60.0%40.0%20.0%0.0%IntelOthersNVDIA口AMDIntelOthers67.6%67.6%65.5202220232024F谷歌采取自研加速卡為主,同時采購部分英偉達(dá)加速卡的策略。谷歌研發(fā)TPU的時間始于2013年,相較于其他云廠商有近10年的時間優(yōu)勢。由于谷歌在加速卡領(lǐng)域布局早,產(chǎn)品完善度高,谷歌或?yàn)?024年北美四大云廠商中采購英偉達(dá)加速卡最少的廠商。2023年12月,谷歌推出面向云端的AI加速卡TPUv5p,相較于TPUV4,TPUv5p提供了二倍的浮點(diǎn)運(yùn)算能力和三倍內(nèi)存帶寬提升;集群方面,TPUv5ppod由8960顆芯片組成,使用最高帶寬的芯片間連接(每芯片4,800Gbps)進(jìn)行互連;從訓(xùn)練效果來看,相較于上一代產(chǎn)品,TPUv5p訓(xùn)練大型LLM的速度提升了2.8倍。Meta自2021年以來便將企業(yè)發(fā)展的重點(diǎn)放在元宇宙和AI領(lǐng)域,并且修改了公司名稱。2023年,Meta宣布自研MTIAv1芯片。2024年4月,Meta發(fā)布最新版本MTIAv2加速卡,新一代MTIA加速卡在算力、內(nèi)存容量、內(nèi)存帶寬等方面更加平衡,采用臺積電5nm工藝制造,Int8稀疏算力可以達(dá)到708TOPS,HBM內(nèi)存容量達(dá)到128GB。目前Meta仍主要采購英偉達(dá)等廠商的加速卡用于Llama等模型的訓(xùn)練,后續(xù)Meta有望采用自研加速卡對大語言模型進(jìn)行訓(xùn)練。微軟Azure的企業(yè)數(shù)量已經(jīng)達(dá)到25萬家,是目前采購英偉達(dá)加速卡最為激進(jìn)的云廠商,但考慮到采購英偉達(dá)加速卡的高昂成本,微軟也宣布了自研加速卡的計(jì)劃。微軟的Maia100在2023年推出,專為Azure云服務(wù)設(shè)計(jì)。Maia100采行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告12用臺積電5nm工藝,單芯片擁有1050億個晶體管,F(xiàn)P8算力可以達(dá)到1600TFLOPS,同時支持FP4運(yùn)算,算力達(dá)到3200TFLOPS,是目前廠商自研加速卡中算力最強(qiáng)大的產(chǎn)品。除了微軟自身以外,OpenAI也在嘗試采用微軟的加速卡,強(qiáng)大的下游客戶支持有望為微軟自研加速卡的進(jìn)步帶來重要動力。亞馬遜同樣在自研加速卡方面加大投入,并且已經(jīng)完善了訓(xùn)練和推理的兩方面布局。2023年,亞馬遜推出了用于訓(xùn)練的Trainium2加速卡,以及用于推理的Graviton4加速卡,補(bǔ)全了亞馬遜在訓(xùn)練和推理領(lǐng)域加速卡的布局。亞馬遜的Trainium2加速卡Int8算力達(dá)到861TOPS,相較上一代產(chǎn)品性能提升4倍,在云廠商自研加速卡中表現(xiàn)優(yōu)秀。同時公司的產(chǎn)品可以在新一代EC2UltraClusters中擴(kuò)展多達(dá)10萬顆Trainium2加速卡,與AmazonEFAPB級網(wǎng)絡(luò)互聯(lián),提供高達(dá)65EFlops算力,為云端大模型的訓(xùn)練和推理提供強(qiáng)大的算力保障。表1:英偉達(dá)客戶在加速卡領(lǐng)域的布局情況----5--5-4--------7--資料來源:各公司官網(wǎng),Semianalysis等,民注:未標(biāo)注的數(shù)據(jù)為沒有在公開渠道披露的信息Trainium2芯片由少量大型NeuronCore組成,與GPU大量小張量核心不同,該設(shè)計(jì)更適合生成式AI任務(wù)。以NeuronCore為基礎(chǔ)計(jì)算單元,在每個NeuronCore內(nèi)配備張量、矢量、標(biāo)量及GPSIMD引擎,分別承擔(dān)矩陣乘法運(yùn)算、向量操作、元素級操作及自定義操作,各引擎協(xié)同工作提升計(jì)算效率。行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告13圖16:Trainium2芯片圖17:Trainium2內(nèi)部組件資料來源:SemiAnalysis,民生證券研Trainium2由兩個計(jì)算芯片組和四個HBM3e內(nèi)存堆棧封裝而成,每個計(jì)算芯片經(jīng)由CoWoS-S/R封裝與其兩個相鄰的HBM3e進(jìn)行通信,芯片的兩個部分通過ABF基板互連。單芯片具備650TFLOP/s的密集BF16性能,1300TFLOPS/s的密集FP8性能,搭載96GByte的HBM3e內(nèi)存容量,單芯片功耗約500W。表2:Trainum2芯片參數(shù) 資料來源:SemiAnalysis,民生證券研亞馬遜的下一代Trainum3產(chǎn)品有望實(shí)現(xiàn)性能翻倍,預(yù)計(jì)將在25年底問世。亞馬遜于12月3日的re:Invent2024大會透露,首批基于Trainium3的實(shí)例預(yù)計(jì)將于2025年底上市,將助力AWS及其合作伙伴在AI前沿領(lǐng)域取得突破,滿足各行業(yè)對AI計(jì)算力增長需求,推動自然語言處理、圖像識別、藥物研發(fā)等領(lǐng)域創(chuàng)新發(fā)展。Trainium3將成為首款采用3nm工藝節(jié)點(diǎn)制造的AWS芯片,在性能、能效和密度上樹立了新標(biāo)桿。更小制程工藝使晶體管尺寸縮小、集成度提高,降低功耗同時提升運(yùn)行頻率與處理能力,減少芯片發(fā)熱,提升穩(wěn)定性與可靠性,為大規(guī)模AI行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告14計(jì)算集群節(jié)能增效。Trainium3芯片能效有望提高40%、性能有望翻倍提升。更高能效比讓單位功耗下計(jì)算性能大幅提升,翻倍性能增長使芯片處理能力更強(qiáng),加速模型訓(xùn)練與推理,支持更大規(guī)模復(fù)雜模型訓(xùn)練,縮短研發(fā)周期、提升迭代效率,增強(qiáng)AWS在AI芯片領(lǐng)域競爭力。搭載Trainium3的UltraServer性能預(yù)計(jì)將比Trn2UltraServer高出4倍。這一性能提升將使得設(shè)備在處理復(fù)雜AI任務(wù)時更加高效。對于需要實(shí)時處理大量數(shù)據(jù)的應(yīng)用場景,如實(shí)時語音識別、圖像生成等,性能的提升也將帶來更流暢的用相比英偉達(dá)的GPGPU,ASIC在特定任務(wù)場景下,具有高性能、低功耗、成本效益、高保密性和安全性的優(yōu)勢,成為了云廠商提高計(jì)算效率,節(jié)省算力成本的重要手段。隨著CSP的話語權(quán)不斷加強(qiáng),諸如AWS、谷歌等對算力的需求不斷增長,催生了定制AI芯片的需求;博通、Marvell、AIchip等可提供先進(jìn)的AI芯片定制化設(shè)計(jì)服務(wù),成為CSP最重要的合作伙伴。據(jù)Marvell預(yù)測,2023年ASIC占數(shù)據(jù)中心加速計(jì)算芯片的16%,規(guī)模約為66億美元;隨著AI計(jì)算需求的增長,ASIC占比有望提升至25%,預(yù)計(jì)2028年數(shù)據(jù)中心ASIC市場規(guī)模將提升至429億美元,CAGR為45.4%;博通占據(jù)55%以上的市場份額,Marvell市場份額亦接近15%,成為兩個最重要的“玩家“。博通:谷歌自研AI芯片TPU的主要供應(yīng)商,與谷歌TPU項(xiàng)目合作約10年,客戶關(guān)系及設(shè)計(jì)能力積累深厚。公司已與谷歌合作完成其第六代TPU(Trillium)設(shè)計(jì),目前正在推進(jìn)第七代設(shè)計(jì),預(yù)計(jì)將于26/27年推出。受益于AI的高速發(fā)展,23年谷歌向博通支付的TPU費(fèi)用達(dá)20億美金,24年有望增長至70億美金。除谷歌外,博通亦為Meta的AI芯片MTIA提供設(shè)計(jì)服務(wù),亦與蘋果、字節(jié)跳動、OpenAI等巨頭合作開發(fā)芯片。博通CEOHockTan指出,到2027年,博通的客戶將在AI芯片的集群中部署多達(dá)100萬個芯片,博通的AI芯片可能會為公司帶來數(shù)百億美元的年收入增長。行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告15圖18:博通兩大核心客戶AI芯片戰(zhàn)略規(guī)劃Marvell:亞馬遜自研AI芯片Trainium的主要供應(yīng)商,公司與AWS簽訂5年合作協(xié)議,幫助亞馬遜設(shè)計(jì)AI芯片;2025年第三財季Marvell面向數(shù)據(jù)中心的銷售額同比增長了近一倍,達(dá)到11億美元,公司預(yù)計(jì)本財年數(shù)據(jù)中心部門將占總收入的72%,同比增長32pts。除AWS外,Marvell亦為微軟提供定制的AI芯設(shè)計(jì)服務(wù)。Marvell估計(jì)至28年,其計(jì)算、高速網(wǎng)絡(luò)、以太網(wǎng)和存儲產(chǎn)品組合將帶來750億美元的市場機(jī)會,核心增長動力來自定制計(jì)算(45%年復(fù)合增長率)和高速數(shù)據(jù)中心互連(27%年復(fù)合增長率)。圖19:博通兩大核心客戶AI芯片戰(zhàn)略規(guī)劃4020040200行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告16PCB(印刷電路板,PrintedCircuitBoard)承擔(dān)了各電子元器件之間信號互聯(lián)的功能;AI服務(wù)器中,由于AI算力芯片計(jì)算速度快、數(shù)據(jù)吞吐量大,對信號傳輸有著更高的要求,PCB的用量、材質(zhì)及等級亦有提升,價值量相比普通服務(wù)器明顯提升。傳統(tǒng)的AI訓(xùn)練服務(wù)器以8卡機(jī)的形式為主,以英偉達(dá)上一代DGXH100服務(wù)器為例,由于采用了CPU+GPU的異架構(gòu),除了傳統(tǒng)服務(wù)器中的主板、網(wǎng)卡板之外,主要新增兩種類型的高價質(zhì)量PCB板:承載GPU的OAM(OCPAcceleratorModule,加速卡模組)及實(shí)現(xiàn)GPU多卡互聯(lián)的UBB(UniversalBaseboard,通用基板)。每顆H100芯片需要配備一張OAM,共計(jì)8張OAM搭載至1張UBB之上,形成8卡互聯(lián)。圖20:傳統(tǒng)服務(wù)器PCB應(yīng)用圖21:DGXH100AI服務(wù)器中OAM和UBB(綠色)資料來源:廣合科技招股說明書,民生證券研究院資料來源:英偉達(dá),民生證券研究院GB200服務(wù)器整體架構(gòu)與DGXH100相比發(fā)生顯著變化。DGXH100中每顆GPU芯片需要承載至一張OAM加速卡上,而CPU單獨(dú)搭載至主板。而GB200中1顆GraceCPU及2顆BlackwellGPU直接搭載至1張Superchip板上,每個Computetray中包含兩張Superchip板,即4顆GPU及2顆C板實(shí)現(xiàn)了CPU與GPU間的信號傳輸及芯片供電等功能,實(shí)際上替代了DGXH100中OAM+CPU主板的功能。因此與H100相比,GB200取消了主板,并且用一張大面積的Superchip板取代之前單顆GPU的OAM。與DGXH100相比,GB200由于取消了單臺服務(wù)器內(nèi)8顆GPU互聯(lián)的設(shè)計(jì),因此不再需要UBB板,一臺NVL36/72機(jī)柜中,36/72顆芯片的互聯(lián)通過Switchtray+銅纜實(shí)現(xiàn),Switchtray取代UBB承擔(dān)了部分互聯(lián)的功能。行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告17圖22:GB200服務(wù)器PCB方案發(fā)生變化資料來源:英偉達(dá),太平洋科技,民生證券研究院當(dāng)前谷歌、微軟、亞馬遜、Meta四大海外云廠商中,谷歌TPU及亞馬遜Trainium2已形成大規(guī)模出貨。與英偉達(dá)設(shè)計(jì)方案不同,谷歌及亞馬遜的AI服務(wù)器既沒有采取類似H100的八卡架構(gòu),也沒有采取像類似GB200將CPU與GPU集成在一張PCB板的方案。如谷歌最新一代(第六代)的TPU芯片Trillium,將每四顆TPU搭載至一張PCB上,組成ComputeTray;CPU單獨(dú)搭載至另一張PCB中,放置于另一個Tray。載有CPU及TPU的PCB分別放置在不同的Tray中,組合全新機(jī)架系統(tǒng)TPUv6Pod,每個TPUv6Pod由512個Trillium芯片組成,提供高達(dá)1.5ExaFlops的峰值性能,較上一代提升83%。圖23:搭載有谷歌第六代TPU芯片Trillium的PCB資料來源:Google,半導(dǎo)體行業(yè)觀察,民生證券研究院亞馬遜同樣采取了將CPU及GPU分離的設(shè)計(jì)方案,兩顆Trainium2芯片搭行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告18載至一張PCB上,組成ComputeTray,而兩顆CPU單獨(dú)搭載至另一張PCB上,組成HeadTray。此外,柜內(nèi)交換機(jī)為支持柜間信號互聯(lián)的關(guān)鍵,搭載交換機(jī)芯片的PCB亦具有較高價值量。圖24:亞馬遜Trainium2ComputeTray傳統(tǒng)AI服務(wù)器主要是八卡架構(gòu),谷歌等廠商的TPU服務(wù)器會采用四卡架構(gòu),但是整體單個服務(wù)器內(nèi)的GPU數(shù)量不會太多。以英偉達(dá)的DGXH100服務(wù)器為例,服務(wù)器主要由GPUTray、Motherboard、電源等部件組成,其中八張GPU內(nèi)置在GPUTray中,通過UBB板上的NVSwitch芯片互聯(lián),GPU和Switch安裝在同一個Tray中;Motherboard上放置CPU、內(nèi)存、網(wǎng)卡等;Motherboard和GPUTray通過軟板互聯(lián)。GPUTray內(nèi)部的八張GPU之間通過NVLink通信,服務(wù)器和服務(wù)器之間通過光模塊進(jìn)行通信。圖25:英偉達(dá)DGXH100服務(wù)器架構(gòu)資料來源:HPCSystems,英偉達(dá),圖26:英偉達(dá)DGXH100GPUTray資料來源:HPCSystems,英偉達(dá),本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告19英偉達(dá)推出的GB200NVL72機(jī)柜架構(gòu)全面改變了傳統(tǒng)的AI服務(wù)器形態(tài)。在一臺NVL72中,機(jī)架最上層安放交換機(jī),用于Rack之間的通信;機(jī)架次頂部和底部各安放3個(合計(jì)6個)33KW的PowerShelf,用于交流電到直流電的轉(zhuǎn)換;機(jī)架中間部分是18個ComputeTray和9個SwitchTray,分別用戶安放GB200加速卡和NVSwitch芯片,如果采用NVL36的方案,則ComputeTray的數(shù)量將減少到9個。圖27:英偉達(dá)GB200NVL72機(jī)柜架構(gòu)高速銅纜是實(shí)現(xiàn)GB200機(jī)柜式服務(wù)器36卡或72卡之間通信的主要手段。在GB200NVL72的Rack內(nèi)部,GPUTray到SwitchTray的互聯(lián)采用高速銅纜,主要的優(yōu)勢在于,在傳輸距離較短的情況下,高速銅纜可以用更低的成本獲得更高的互聯(lián)帶寬。而其他的優(yōu)勢還包括:1)功耗低:采用銅互聯(lián)方案可以節(jié)省光電轉(zhuǎn)換產(chǎn)生的能量損耗,單只1.6T光模塊的功耗在20W左右,同時也降低了散熱問題;2)故障率低:光模塊每年有2%-5%的損壞率,而銅連接更加穩(wěn)定。本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告20圖28:GB200NVL72架構(gòu)的通信解決方案資料來源:Semianalysis,民生證券研究院銅纜在GB200機(jī)柜中的主要使用場景包含Rack內(nèi)部以及Rack之間兩個部分。其中Rack內(nèi)部的銅互聯(lián)主要負(fù)責(zé)36或72張加速卡之間的通信,最長的信號傳輸距離一般在1米以內(nèi)。在8臺機(jī)架之間的通信,英偉達(dá)提供了兩種解決方案:1)傳統(tǒng)的光模塊解決方案,在目前主流的方案下,通信速率一般為1.8TB/s的NVLink帶寬的1/4.5;2)銅互聯(lián)解決方案,可以以1.8TB/s的互聯(lián)帶寬進(jìn)行通信,即將576張加速卡用銅互聯(lián)的方案進(jìn)行連接。目前機(jī)柜間采用銅互聯(lián)方案的滲透率仍較低,但考慮到機(jī)柜式AI服務(wù)器在性能和成本端的優(yōu)勢,預(yù)計(jì)未來主流的AI算力廠商也將推出機(jī)柜式服務(wù)器,高速銅纜在AI服務(wù)器內(nèi)的滲透率有望逐步提升。圖29:Rack內(nèi)部銅互聯(lián)解決方案圖30:Rack之間的銅互聯(lián)解決方案高速銅纜方案主要包括DAC(無源銅纜)、ACC(有緣銅纜)、AEC(有源本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告21電纜)。過去機(jī)柜中主要采用DAC方案進(jìn)行AI芯片間的互聯(lián),但目前AI芯片的互聯(lián)帶寬升級速度較快(以英偉達(dá)為例,公司每兩年推出一代產(chǎn)品,每一代產(chǎn)品的互聯(lián)帶寬升級一倍),僅僅依靠DAC本身的升級無法滿足AI芯片快速提升的互聯(lián)帶寬要求,通過AEC進(jìn)行信號的重新定時和補(bǔ)償,可以有效降低干擾,提升傳輸距離,減小線徑。據(jù)Lightcounting,2023年至2028年DAC和AEC的市場空間CAGR增速分別為25%和45%,AEC的市場空間增速顯著更高。1)DAC:其由鍍銀銅導(dǎo)線和泡沫絕源芯片制成的高速電纜組成,因其不包含光電轉(zhuǎn)化模塊而具有較低的成本;2)ACC:其作為有源銅線,本質(zhì)上是作為一根有源電纜來放大模擬信號。其利用Redriver芯片架構(gòu),并采用CTLE均衡來調(diào)整Rx端的增益;3)AEC:其代表了有源銅線電纜的一種更具創(chuàng)新性的方法。它在兩頭引入了具有時鐘數(shù)據(jù)恢復(fù)功能的retimer芯片,對電信號重新定時和驅(qū)動,補(bǔ)償銅纜的損耗,一般用于7米以內(nèi)的傳輸距離;4)AOC:其由兩端的兩個模塊組成,中間由一段光纖相連。光學(xué)模塊和光纜都是集成的,兩端的光學(xué)模塊都需要激光組件。圖31:全球DAC、AEC、AOC市場規(guī)模(十億美元)具體而言,在短距離3m)、相對較低速率的傳輸場景下,DAC的優(yōu)勢明顯。主要原因是DAC兩端無需增加redriver和retimer芯片,成本優(yōu)勢明顯。然而隨著速度和帶寬的增加,DAC的傳輸距離受到了一定的限制,有源電纜AEC在性能上的優(yōu)勢逐漸顯現(xiàn)出來。在從400G到800G的過渡過程中,銅纜的損耗增大且互連長度無法滿足需求,DAC傳輸距離從3米縮短到2米。而AEC在保持低功耗和可負(fù)擔(dān)性的同時得以滿足中短距離傳輸需求,為短鏈路提供了一種經(jīng)濟(jì)高效的方式。本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告22表3:DAC、AEC、AOC性能對比400G傳輸距離<3m 800G傳輸距離<2m功耗低低高 費(fèi)用傳輸速度快快慢資料來源:Asterfuison,民生證券研究院DAC、ACC、AEC和AOC在AI服務(wù)器中均有采用,而AEC有望伴隨云廠商自研AI芯片的市占率提升加速滲透。目前市場主流的機(jī)柜式AI服務(wù)器中,英偉達(dá)的GB200根據(jù)不同的距離和帶寬需求,在機(jī)柜內(nèi)部和機(jī)柜間采用DAC和ACC進(jìn)行互聯(lián),服務(wù)器和交換機(jī)之間則主要采用AOC進(jìn)行互聯(lián)。而在微軟和亞馬遜的自研AI服務(wù)器中,AEC則替代了DAC,成為機(jī)柜內(nèi)互聯(lián)AI芯片的主要產(chǎn)品。不同廠商采用不同解決方案的主要衡量因素是性能、成本、互聯(lián)帶寬等。圖32:DAC、AEC、AOC功耗對比圖33:DAC、AEC、AOC成本對比類似英偉達(dá)使用NVLink擴(kuò)展網(wǎng)絡(luò)實(shí)現(xiàn)芯片互聯(lián),Trainium2采用NeuronLink超速高帶寬、低延遲的芯片間互聯(lián)技術(shù)實(shí)現(xiàn)芯片與芯片之間的高速互連,支持更多的芯片連接和更高的數(shù)據(jù)傳輸速率,為大規(guī)模集群訓(xùn)練和推理提供了強(qiáng)大的擴(kuò)展性。Trainium2提供兩種產(chǎn)品規(guī)格,分別采用了2DTorus和3DTorus的網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu),可將16個(4×4)或64個(4×4×4)Trainium2芯片連接在一起,形成不同規(guī)模的計(jì)算集群,以適應(yīng)不同的計(jì)算需求。在兩種服務(wù)器架構(gòu)中,PCB連接同一個ComputeTray內(nèi)部的2顆加速卡,其他加速卡之間的互聯(lián),以及機(jī)柜和機(jī)柜間的互聯(lián)則采用AEC。1)16卡服務(wù)器:AWS基于Trainium2打造了AI服務(wù)器,每個Trainium2服務(wù)器占用18個機(jī)架單元(18U),由1個2U的CPUHeadTray和8個與之相連的2UTrainum2ComputeTray組成。每個ComputeTray搭載兩個Trainium2芯片,與英偉達(dá)GB200的架構(gòu)不同,其ComputeTray中未搭載CPU,行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告23需要依托HeadTray運(yùn)行;兩個CPU單獨(dú)搭載至一個HeadTray中,通過外部PCIe5.0x16DAC無源銅纜與8個ComputeTray相連。每臺Trainium2服務(wù)器整合了16顆Trainium2芯片,具備20.8PFLOPS的算力,適合數(shù)十億參數(shù)大語言模型的訓(xùn)練與部署;2)64卡服務(wù)器:AWS還基于Trainium2進(jìn)一步打造了Trainium2Ultra機(jī)架方案,其集成64顆Trainium2芯片,將4臺Trn2服務(wù)器連接成1臺巨型服務(wù)器,可提供相比當(dāng)前EC2AI服務(wù)器多達(dá)5倍的算力和10倍的內(nèi)存,F(xiàn)P8峰值算力可達(dá)83.2PFLOPS,能夠支撐萬億參數(shù)AI模型的實(shí)時推理性能。圖34:Trainium2Rack資料來源:SemiAnalysis,民生證券研圖35:Trainium2-UltraRack資料來源:SemiAnalysis,民生證券研傳統(tǒng)風(fēng)冷是以空氣為熱量傳輸媒介,液冷技術(shù)是將高比熱容的液體作為熱量傳輸媒介,直接或間接接觸發(fā)熱器件,縮短送風(fēng)距離,傳熱路徑短,換熱效率高。AI算力芯片計(jì)算力能強(qiáng)、功耗大,產(chǎn)生熱量較多,若不能及時進(jìn)行散熱以實(shí)現(xiàn)芯片的降溫,輕則影響芯片性能,重則將使芯片使用壽命減少乃至損傷、報廢。傳統(tǒng)數(shù)據(jù)中心中,由于以CPU云計(jì)算為主,芯片功耗較低,因此一般采取風(fēng)冷散熱。然而隨著AI算力芯片功耗密度大幅提高,傳統(tǒng)風(fēng)冷散熱技術(shù)已難以滿足當(dāng)前的高密度計(jì)算散熱需求,諸如英偉達(dá)GB200NVL72、谷歌TPU等需要采取散熱效果更好的液冷輔助散熱,數(shù)據(jù)中心液冷時代已至。根據(jù)IDC數(shù)據(jù),中國液冷服務(wù)器市場2024上半年同比大幅增長98.3%,市場規(guī)模達(dá)到12.6億美元,出貨量同比增長81.8%,預(yù)計(jì)2023-2028年,中國液冷服務(wù)器年復(fù)合增長率將達(dá)47.6%,市場規(guī)模有望在2028年達(dá)到102億美元。行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告24圖36:風(fēng)冷及液冷對比資料來源:賽迪顧問《中國液冷數(shù)據(jù)中心發(fā)展白皮書》,民生證券研究院液冷技術(shù)主要可分為非接觸式液冷及接觸式液冷兩類。其中非接觸式液冷主要指冷板式液冷,將服務(wù)器發(fā)熱元件(CPU/GPU/DIMM等)貼近冷板,通過液冷板將發(fā)熱器件的熱量傳遞給封閉在循環(huán)管路中的冷卻液體,以帶走熱量。冷板式液對于服務(wù)器整體改動較小,主要可通過加裝液冷模塊、采用集中式或分布式CDU供液、Manifold分液,對芯片、內(nèi)存等部件進(jìn)行精準(zhǔn)制冷;相較其他液冷方案,冷板式液冷在可靠性、可維護(hù)性、技術(shù)成熟度、適用性等方面具有優(yōu)勢,利于算力中心機(jī)房改造,根據(jù)IDC,冷板式液冷成為當(dāng)前絕對主導(dǎo)的液冷解決方案,占據(jù)國內(nèi)市場95%以上份額。冷板式液冷系統(tǒng)可分為一次側(cè)(室外)循環(huán)和二次側(cè)循環(huán)(室內(nèi))兩部分。一次側(cè)系統(tǒng)主要由室外散熱單元、一次側(cè)水泵、定壓補(bǔ)水裝置和管路等部件構(gòu)成。二次側(cè)系統(tǒng)主要由換熱冷板、熱交換單元和循環(huán)管路、冷源等部件構(gòu)成。一次側(cè)的熱量轉(zhuǎn)移主要是通過水溫的升降實(shí)現(xiàn),二次側(cè)循環(huán)主要通過冷卻液溫度的升降實(shí)現(xiàn)熱量轉(zhuǎn)移。換熱冷板及CDU亦為液冷散熱系統(tǒng)的重要組成。換熱冷板常作為電子設(shè)備的底座或頂板,通過空氣、水或其他冷卻介質(zhì)在通道中的強(qiáng)迫對流,帶走服務(wù)器中的耗散熱。冷量分配單元(CoolantDistributionUnit,CDU)可以看作室內(nèi)機(jī)與室外機(jī)的連接點(diǎn),由板式換熱器、電動比例閥、二次側(cè)循環(huán)泵膨脹罐、安全閥、進(jìn)出水管專用接頭、控制器及其面板等部件組成本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告25圖37:冷板式液冷系統(tǒng)示意圖接觸式液冷的液體與發(fā)熱源直接接觸,包括浸沒式液冷和噴淋式液冷兩種。浸沒式液冷是將服務(wù)器浸沒在冷卻液中,通過液體溫升或相變帶走服務(wù)器中所有發(fā)熱元件的熱量。噴淋式液冷的冷卻液從服務(wù)器機(jī)箱頂部的噴淋模塊滴下來,通過冷卻液與發(fā)熱元件之間的接觸進(jìn)行對流換熱,從而為發(fā)熱元件降溫,再通過服務(wù)器內(nèi)的流道匯集至換熱器將熱量散發(fā)。相比非接觸式液冷,接觸式液冷可完全去除散熱風(fēng)扇,散熱及節(jié)能效果更好,數(shù)據(jù)中心PUE值可降至1.1及以下,但相應(yīng)對服務(wù)器機(jī)柜及機(jī)房配套設(shè)施的投入及改造成本更高,運(yùn)維難度更大。未來隨著浸沒式液冷技術(shù)標(biāo)準(zhǔn)化推進(jìn)、應(yīng)用部署成本降低,有望加速大規(guī)模商用進(jìn)展。圖38:浸沒式液冷原理示意圖資料來源:賽迪顧問《中國液冷數(shù)據(jù)中心發(fā)展白皮書》,民生證券研究院本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告26英偉達(dá)率先推出機(jī)柜式服務(wù)器,其他CSP廠商紛紛跟進(jìn),AI服務(wù)器功率密度快速提升。AI服務(wù)器的功率密度提升來自兩個方面:1)更高算力的加速卡需要更高的功耗:以英偉達(dá)的產(chǎn)品為例,2020年推出的A100加速卡單卡功耗為300W,而2024年推出的GB200加速卡單卡功耗則達(dá)到了1000W;2)機(jī)柜內(nèi)集成的加速卡數(shù)量不斷提升:傳統(tǒng)AI服務(wù)器以8卡形式為主,而進(jìn)入2024年,英偉達(dá)推出了機(jī)柜架構(gòu)的AI服務(wù)器,大大提升了單臺服務(wù)器在算力、通信等方面的性能,其他廠商也紛紛開始擁抱機(jī)柜式AI服務(wù)器的浪潮,目前主流CSP廠商均已推出或在研機(jī)柜式AI服務(wù)器。展望未來,伴隨算力供應(yīng)商產(chǎn)品的不斷迭代,單臺AI服務(wù)器內(nèi)集成的加速卡數(shù)量有望持續(xù)提升。圖39:AI帶動服務(wù)器機(jī)柜功率及功率密度持續(xù)提升服務(wù)器系統(tǒng)的可靠性要求較高,因此電源設(shè)計(jì)時需要考慮冗余。在AI服務(wù)器工作過程中,如果電源出現(xiàn)故障,則可能造成系統(tǒng)宕機(jī),數(shù)據(jù)丟失等問題,為了避免損失,AI服務(wù)器設(shè)計(jì)中需要考慮冗余。AI服務(wù)器系統(tǒng)通常采用N+1或N+N冗余設(shè)計(jì),意味著服務(wù)器電源功率要大于系統(tǒng)中所有耗電元器件,如GPU和CPU的功率總和,對電源提出更多要求。在選擇AI服務(wù)器電源冗余時,通??紤]系統(tǒng)成本以及可靠性要求進(jìn)行選擇。本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告27圖40:機(jī)架式服務(wù)器系統(tǒng)及電源框圖資料來源:德州儀器(TI),民生證券研究院AI服務(wù)器的升級對電源供電要求提出了更多挑戰(zhàn),目前機(jī)柜式服務(wù)器主流采用三級電源供電。例如英偉達(dá)的GB200機(jī)柜式AI服務(wù)器,其中一級電源為AC-DC(交流轉(zhuǎn)直流),使用powershelf將電網(wǎng)中的交流電轉(zhuǎn)換為機(jī)柜運(yùn)行所使用的直流電;二級電源為DC-DC(高壓直流轉(zhuǎn)低壓直流以PDB(PowerDistributionBoard)的形式內(nèi)置于computetray,將48V直流電降壓為12V直流電;三級電源也是DC-DC(將低壓直流進(jìn)一步降壓體積較小,位于Superchip內(nèi)部(芯片周圍),將二次電源轉(zhuǎn)化后的12V直流電進(jìn)一步降壓為0.8V左右直流電,用于GPU和CPU芯片供電。圖41:AI服務(wù)器采用三級電源解決方案行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告283端側(cè):豆包出圈,互聯(lián)網(wǎng)巨頭入局AI終端當(dāng)前大模型廠商主要分為互聯(lián)網(wǎng)巨頭和第三方科技公司兩大陣營:(1)互聯(lián)網(wǎng)巨頭:代表如字節(jié)、阿里、百度、騰訊等,其優(yōu)勢在于廣大的用戶群體和流量變現(xiàn)能力。這些互聯(lián)網(wǎng)巨頭旗下均有高活躍度應(yīng)用可以幫助引流,如字節(jié)的抖音、阿里的淘寶、百度的搜索引擎、騰訊的微信等,同時,這些應(yīng)用還積累了大量可用于模型訓(xùn)練的私域數(shù)據(jù)。(2)第三方科技公司:代表如智譜、Kimi、階躍星辰,主要依托模型的特色功能出圈,如Kimi在長上下文窗口技術(shù)上取得突破,率先支持200萬字上下文長度。盡管這些獨(dú)角獸具有較強(qiáng)的技術(shù)實(shí)力,但由于缺少可以承載模型能力的下游應(yīng)用場景,因此只能尋求和第三方軟硬件公司的合作。我們認(rèn)為25年有望迎來云端和終端的共振,而二者的交集正是字節(jié)產(chǎn)業(yè)鏈,建議關(guān)注字節(jié)火山引擎合作伙伴以及AI終端落地節(jié)奏及有望受益于此的供應(yīng)鏈合在互聯(lián)網(wǎng)巨頭陣營中,字節(jié)目前遙遙領(lǐng)先于同業(yè)。相較于競爭對手而言,字節(jié)的AI起步相對較晚,但后來居上,國內(nèi)百度、阿里、商湯、科大訊飛在去年3月開始都陸續(xù)推出了大模型新品和AI應(yīng)用,而字節(jié)的豆包則是在同年8月才發(fā)布。盡管如此,今年5-7月,豆包App日新增用戶從20萬迅速飆升至90萬,并在9月率先成為國內(nèi)用戶規(guī)模破億的首個AI應(yīng)用。據(jù)量子位智庫數(shù)據(jù),截至11月底,豆包2024年的累計(jì)用戶規(guī)模已超過1.6億;11月平均每天有80萬新用戶下載豆包,單日活躍用戶近900萬,位居AI應(yīng)用全球第二、國內(nèi)第一。我們認(rèn)為算力資源充足和愿意大力投入是字節(jié)豆包迅速起量的主要原因。算力資源方面,字節(jié)旗下火山引擎支持多芯、多云架構(gòu),擁有超大規(guī)模算力,支持萬卡集群組網(wǎng)、萬億參數(shù)MoE大模型;提供超高性能網(wǎng)絡(luò),支持3.2TbpsRDMA網(wǎng)絡(luò),全球網(wǎng)絡(luò)POP覆蓋廣,時延優(yōu)化最高達(dá)75%;目前花錢投流買量已成為AI星野等國內(nèi)十款大模型產(chǎn)品,今年合計(jì)已投放超625萬條廣告,投放金額達(dá)15億元,其中,豆包以4億+元位列第二。在各家的投放渠道中,基本都離不開字節(jié)的巨量引擎(字節(jié)旗下廣告投放平臺,涵蓋今日頭條、抖音、西瓜視頻等營銷資源而背靠字節(jié)的豆包,更是將流量池的優(yōu)勢發(fā)揮到了極致。行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告29圖42:國內(nèi)各大模型2024年(截至11月15日)廣告投放投入投放金額(萬元)資料來源:AppGrowing,民生證券除廣告投入外,字節(jié)還積極布局AI硬件,為豆包尋找C端應(yīng)用場景,打開市場空間。2024年9月,字節(jié)完成了對OWS開放式耳機(jī)品牌Oladance的全資收購,進(jìn)一步拓展其硬件產(chǎn)品,以完善AI服務(wù)生態(tài)。10月,其收購后的首款產(chǎn)品OlaFriend智能體耳機(jī)正式發(fā)布,該產(chǎn)品功能上主要特征是接入了豆包AI大模型,為用戶提供陪伴式體驗(yàn)。此外,多款第三方硬件產(chǎn)品也接入豆包大模型,目前OPPO、vivo、榮耀、小米、三星、華碩已聯(lián)合火山引擎發(fā)起智能終端大模型聯(lián)盟,OPPO小布助手、榮耀MagicBook的YOYO助理、小米的小愛同學(xué),以及華碩筆記本電腦的豆叮AI助手等應(yīng)用,均已接入豆包大模型服務(wù)。圖43:字節(jié)跳動2024年硬件布局據(jù)AI產(chǎn)品榜,字節(jié)豆包目前已經(jīng)成為除了OpenAIChatGPT外月活數(shù)量最高的AI大模型。截止2024年末,豆包大模型MAU達(dá)到5998萬人,后續(xù)有望持續(xù)提升,我們假設(shè)在保守、中性、樂觀三種情況下,2025-2026年豆包大模型本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告30MAU分別達(dá)到1億、1.5億、2億人次,云雀大模型參數(shù)量仍為1300億,則豆包大模型等效H20算力需求將分別達(dá)到72、108、181萬張,對應(yīng)AI服務(wù)器需求分別達(dá)到759、1139、1898億元。表4:豆包大模型推理需求測算 推理計(jì)算時間(s)22 峰值倍數(shù)44 算力需求結(jié)果(FLOPS)3.20988E+195.34979E+198.0 豆包大模型創(chuàng)造AI服務(wù)器需求(億元)字節(jié)目前積極合作供應(yīng)鏈企業(yè),領(lǐng)導(dǎo)行業(yè)探索未來AI落地新方向,火山引擎大會有望成為硬件布局的宣傳窗口。此前,在5月的火山引擎春季大會上,字節(jié)對外展示3款A(yù)I硬件的合作產(chǎn)品,包括蔚藍(lán)機(jī)器狗、聽力熊學(xué)習(xí)機(jī)和一款學(xué)習(xí)機(jī)器人?,F(xiàn)在,火山引擎將于12月18-19日舉辦冬季《FORCE原動力大會》。大會將展示豆包大模型家族的全新升級,拓展AI應(yīng)用場景邊界,并打造2000平方米AI展區(qū),互動演繹AI未來:l12月18日,字節(jié)跳動正式發(fā)布了豆包視覺理解模型,該模型具備更強(qiáng)的內(nèi)容識別能力、理解和推理、視覺描述等能力。該模型輸入價格為0.003元/千tokens,比行業(yè)價格低85%,視覺理解模型進(jìn)入“厘時代”。此外,大會將展現(xiàn)火山引擎的全棧AI能力,還將進(jìn)一步結(jié)合邊緣域、汽車、消費(fèi)等領(lǐng)域?qū)嶓w產(chǎn)業(yè),詮釋如何實(shí)現(xiàn)AI+。樂鑫科技也將參與此次大會,并發(fā)表主題演講。此外,豆包通用模型pro完成新版本迭代,綜合任務(wù)處理能力較5月提升32%,在推理上提升13%,在指令遵循上提升9%,在代碼上提升58%,在數(shù)學(xué)上提升43%等。行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告31圖44:豆包通用模型pro能力全面提升資料來源:火山引擎公眾號,民生證券研究院圖45:Trainium2-UltraRack資料來源:火山引擎公眾號,民生證券研究院l12月19日,大會的開發(fā)者論壇亮相了火山方舟、扣子、豆包MarsCode等產(chǎn)品。其中,火山方舟發(fā)布了高代碼智能體和API接口,助力開發(fā)者高效調(diào)用大模型;扣子發(fā)布1.5版本,提供了全新的應(yīng)用開發(fā)環(huán)境,全面升級多模態(tài)能力,為開發(fā)者提供專業(yè)模板,目前已擁有超過100萬的活躍開發(fā)者,成為新一代精品應(yīng)用開發(fā)平臺。圖46:火山引擎時間安排表豆包引發(fā)市場關(guān)注熱潮,與其相關(guān)的產(chǎn)業(yè)鏈上下游企業(yè)同樣受到高度關(guān)注,國產(chǎn)算力+端側(cè)產(chǎn)業(yè)鏈全面崛起,為字節(jié)等廠商提供更有力的供應(yīng)鏈支撐,保駕護(hù)航。表5:國產(chǎn)算力+端側(cè)產(chǎn)業(yè)鏈公司 領(lǐng)域公司業(yè)務(wù)AI算力潤 恒玄科技提供SoC芯片,BES2700芯片芯片進(jìn)入字節(jié)ola耳機(jī)。樂鑫科技提供SoC芯片,esp32芯片被用于AI玩具“顯眼包”。 歌爾股份提供代工服務(wù),字節(jié)跳動子公司PICO與歌爾股份簽署長期合作協(xié)議。 炬芯科技提供SoC芯片,ATS3085L芯片已用于榮耀手環(huán)9。本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告32全志科技提供SoC芯片,MR527芯片用于石頭V20掃地機(jī)器人。 星宸科技提供SoC芯片,計(jì)劃2025年推出AI眼鏡芯片。瑞芯微提供SoC芯片,公司邊緣AI芯片廣泛應(yīng)用于智能手機(jī)、智能家居、汽車智能座艙等多個領(lǐng)域。國光電器提供一站式電聲解決方案,將VR/AR作為業(yè)務(wù)發(fā)展重點(diǎn),已布局AR眼鏡等領(lǐng)域。中科創(chuàng)達(dá)智能操作系統(tǒng)及端側(cè)智能技術(shù)和產(chǎn)品提供商,與火山引擎共建人工智能大云天勵飛具備端到端整體解決方案的AI公司,自研了DeepEdge系列邊緣人工智能芯片滿資料來源:樂鑫董辦公眾號,每日經(jīng)濟(jì)新聞等,民生證券研究院整理以豆包為代表的AI產(chǎn)品,正以前所未有的速度在教育、醫(yī)療、文娛等領(lǐng)域廣泛應(yīng)用,不僅深刻改變著行業(yè)的傳統(tǒng)格局,更成為推動包括AI終端在內(nèi)的各領(lǐng)域?qū)崿F(xiàn)變革與進(jìn)步的強(qiáng)大引擎。AI賦能有望改變電子產(chǎn)業(yè)的增長曲線,未來廣闊的終端硬件都有重估潛力。22年全球智能音箱市場出貨量為1.2億臺;23年全球品牌TWS耳機(jī)年銷量約3億對;2023年手表/手環(huán)年銷量預(yù)計(jì)達(dá)1.61億只;23年中國戴眼鏡人群接近7億,在引入AI功能后,有望帶動傳統(tǒng)產(chǎn)品升級,刺激換機(jī)需求。此外,據(jù)ContriveDatumInsights數(shù)據(jù),2030年全球AI玩具市場規(guī)模有望達(dá)351.1億美元。圖47:AI終端廣闊空間我們看好AI+智能終端的趨勢,AI將重構(gòu)電子產(chǎn)業(yè)的成長,為智能硬件注入全新的活力,帶來產(chǎn)品邏輯的深度變革,加速硬件的智能化、伴侶化趨勢。無論是手機(jī)、PC、AIOT、可穿戴設(shè)備、汽車電子,都有重估的潛力。當(dāng)下,各大廠商紛紛布局,應(yīng)用端革新漸漸開:1)手機(jī)端:當(dāng)前系統(tǒng)級AI+打通第三方App確立為端側(cè)AI的發(fā)展方向,AI行業(yè)深度研究/電子本公司具備證券投資咨詢業(yè)務(wù)資格,請務(wù)必閱讀最后一頁免責(zé)聲明證券研究報告33終端成為長期產(chǎn)業(yè)趨勢。蘋果方面,公司于10月

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論