ChatGPT專題市場簡析1_第1頁
ChatGPT專題市場簡析1_第2頁
ChatGPT專題市場簡析1_第3頁
ChatGPT專題市場簡析1_第4頁
ChatGPT專題市場簡析1_第5頁
已閱讀5頁,還剩4頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

ChatGPT專題市場簡析一、現象級AI應用狂飆破壁,ChatGPT引發(fā)范式革命ChatGPT用戶量兩月破億,現象級應用橫空出世ChatGPT(ChatGenerativePre-trainedTransformer)是由OpenAI開發(fā)的人工智能聊天機器人程序,于2022年11月推出。據瑞銀集團,ChatGPT推出僅兩個月后,即2023年1月末的月活用戶已經突破了1億,成為史上用戶增長速度最快的消費級應用程序。作為比較,TikTok達到1億用戶用了9個月,Instagram花了2年半的時間。智能化生產工具,提高生產效率ChatGPT是一個虛擬助手,可以幫助用戶解決問題、提供信息和建議。通過人工智能技術實現自然語言處理和自然語言理解,ChatGPT能夠快速準確地回答用戶提出的問題。可以通過文本或語音與用戶交互,并通過不斷學習和改進來提高能力和服務質量。現有使用案例中,用戶可通過ChapGPT實現代碼生成、修改程序bug、寫詩等。重新定義搜索,跨時代AI產品ChatGPT在智能化方面有跨越式進步,在多輪對話能力以及對話交互友好性上展示了驚艷效果。能夠較準確理解問題,把生成的答案用易于人類理解的語言組織起來,生成類似人類語言的文本答案。同時,ChatGPT的模型優(yōu)化目標為有用、可信、無害,在道德上友善,符合大眾的道德觀。GPT-3大模型驅動,引發(fā)AIGC范式革命以ChatGPT為代表的AIGC應用在2022年的爆發(fā),主要是得益于深度學習模型方面的技術創(chuàng)新。不斷創(chuàng)新的生成算法、預訓練模型、多模態(tài)等技術融合帶來了AIGC(AIGeneratedContent)技術變革,擁有通用性、基礎性多模態(tài)、參數多、訓練數據量大、生成內容高質穩(wěn)定等特征的AIGC模型成為了自動化內容生產的“工廠”和“流水線”。基礎層是核心,GPT-3模型起關鍵支撐作用。GPT-3一個大規(guī)模的通用語言模型,已經在來自各種來源的大量文本數據上進行了訓練。能夠產生類似人類的反應,并可用于廣泛的語言相關任務。ChatGPT基于目前較新的GPT-3.5模型版本進行研發(fā),專注于自然語言對話,接受了更廣泛的語言模式和風格培訓,因此,能較GPT-3產生更多樣化和微妙的響應。C端應用時代降臨,拉開AI商業(yè)變現帷幕OpenAI在2023年2月1日推出訂閱服務,名為ChatGPTPlus,每月收費20美元。訂閱用戶將獲得全天候服務,并在高峰時段享有優(yōu)先訪問。用戶還可提前使用新功能及改進功能,應用的響應時間也更快。OpenAI預計2023年ChatGPT將實現2億美元的收入。微軟計劃將旗下所有產品全線整合ChatGPT。除了搜索引擎必應、辦公軟件Office外,微軟還將在云計算平臺Azure中整合ChatGPT,Azure的OpenAI服務將允許開發(fā)者訪問AI模型。政策反應迅速,國內科技巨頭布局2023年2月13日,北京市經濟和信息化局發(fā)布《2022年北京人工智能產業(yè)發(fā)展白皮書》,提出全面夯實人工智能產業(yè)發(fā)展底座。支持頭部企業(yè)打造對標ChatGPT的大模型,著力構建開源框架和通用大模型的應用生態(tài)。加強人工智能算力基礎設施布局。加速人工智能基礎數據供給。國內科技企業(yè)紛紛對ChatGPT發(fā)表看法,百度、華為、騰訊、阿里巴巴等大多數頭部企業(yè)表示,已經擁有、在研對標ChatGPT相關的模型及產品。關注AI三駕馬車投資機會算法、算力和數據是人工智能發(fā)展的三駕馬車,也是推動人工智能發(fā)展的重要基礎。算法層面,超大規(guī)模預訓練模型推動AI效果不斷提升。當前,預訓練模型參數數量、訓練數據規(guī)模按照300倍/年的趨勢增長,繼續(xù)通過增大模型和增加訓練數據仍是短期內演進方向。算力層面,單點算力持續(xù)提升,算力定制化、多元化成為重要發(fā)展趨勢。計算技術圍繞數據處理、數據存儲、數據交互三大能力要素演進升級,類腦芯片、量子計算等方向持續(xù)探索。數據層面,以深度學習為代表的人工智能技術需要大量的標注數據,這也催生了專門的技術和服務,隨著面向問題的不斷具體化和深入,數據服務走向精細化和定制化。二、巨量數據規(guī)模引發(fā)質變,AI模型算力緊缺大型預訓練模型引發(fā)質變Transformer基礎算法模型的出現,為NLP和CV訓練領域提供了強大支持。OpenAI的GPT預訓練模型,以及百度的ERNIE模型,都是基于Transformer模型建立。Al預訓練模型,又稱為大模型、基礎模型(foundationmodel),即基于大量數據(通常使用大規(guī)模自我監(jiān)督學習)訓練的、擁有巨量參數的模型,能適應廣泛的下游任務。預訓練模型能夠滿足真實內容消費場景中的靈活多變、高精度、高質量等需求。隨著2018年谷歌發(fā)布基于Transformer機器學習方法的自然語言處理預訓練模型BERT,人工智能領域進入了大煉模型參數的預訓練模型時代。預訓練模型成為AI技術發(fā)展的范式變革,許多跨領域的AI系統(tǒng)將直接建立在預訓練模型上。AI模型數據規(guī)模增長,AI算力需求井噴當前,預訓練模型參數數量、訓練數據規(guī)模按照300倍/年的趨勢增長,繼續(xù)通過增大模型和增加訓練數據仍是短期內演進方向。未來使用更多種圖像編碼、更多種語言、以及更多類型數據的預訓練模型將會涌現。當前算力距離AI應用存巨大鴻溝。根據OpenAI數據,模型計算量增長速度遠超人工智能硬件算力增長速度,存在萬倍差距。英特爾表示,目前的計算、存儲和網絡基礎設施遠不足以實現元宇宙愿景,而要想實現真正的元宇宙,目前的計算能力需量要再提高1000倍。據IDC預計,2021-2026年期間,中國智能算力規(guī)模年復合增長率達52.3%。2022年智能算力規(guī)模將達到268.0EFLOPS,預計到2026年智能算力規(guī)模將進入每秒十萬億億次浮點計算(ZFLOPS)級別,達到1,271.4EFLOPS。運算數據規(guī)模的增長,帶動了對AI訓練芯片單點算力提升的需求,并對數據傳輸速度提出了更高的要求。算力升級:AI訓練芯片空間廣闊IDC預計,到2025年人工智能芯片市場規(guī)模將達726億美元。IDC全球范圍調研顯示,人工智能芯片搭載率將持續(xù)增高。目前每臺人工智能服務器上普遍多配置2個GPU,未來18個月,GPU、ASIC和FPGA的搭載率均會上升。通用性遞減,專用性增強,為AI芯片的主要發(fā)展方向。2021年中國以GPU為主實現數據中心計算加速,GPU在算力芯片的市場占有率接近90%。ASIC,FPGA,NPU等非GPU芯片市場占有率超過10%。國際科技網絡巨頭公司谷歌、臉書,亞馬遜等等在AI芯片領域從云端訓練到終端產品應用,在開源框架賦能產業(yè)行業(yè)上有一定的領先優(yōu)勢。國內企業(yè)也在打造從AI芯片注重云端訓練+AI芯片終端響應+AI算法框架開源的生態(tài)體系。算力升級:馮氏架構“破壁者”,存算一體突破瓶頸馮氏架構以計算為中心,計算和存儲分離,二者配合完成數據的存取與運算。然而,由于處理器的設計以提升計算速度為主,存儲則更注重容量提升和成本優(yōu)化,“存”“算”之間性能失配,從而導致了訪存帶寬低、時延長、功耗高等問題,即通常所說的“存儲墻”和“功耗墻”。存算一體作為一種新的計算架構,被認為是具有潛力的革命性技術。核心是將存儲與計算完全融合,有效克服馮·諾依曼架構瓶頸,并結合后摩爾時代先進封裝、新型存儲器件等技術,減少數據的無效搬移,從而提升計算效率。中國移動已將存算一體納入算力網絡的十大關鍵技術。當前NORFlash、SRAM等傳統(tǒng)器件相對成熟可率先開展存內計算產品化落地推動。新型器件中RRAM各指標綜合表現較好,MRAM壽命和讀寫性能較好,均有各自獨特優(yōu)勢與發(fā)展?jié)摿沙掷m(xù)推動器件成熟,同步進行存內計算探索。三星電子、SK海力士、臺積電、美光、IBM、英特爾等都在進行存算一體技術的研究。國內公司中,億鑄科技、千芯科技、后摩智能專注于大算力存算一體芯片,閃易半導體、蘋芯科技、知存科技、智芯科、九天睿芯專注于小算力存算一體芯片。傳輸升級:高速光模塊放量傳輸速度迭代不止,高速光模塊出貨預計大幅增長。據lightCounting統(tǒng)計,2021年,200G、400G和800G的高速以太網光模塊發(fā)貨量達222萬只,2022年預計將達600萬只,同比170%以上,800G的產品有望在2022年開始逐步放量。據lightcounting2022年3月預測,未來隨著AI、元宇宙等新技術不斷發(fā)展,以及網絡流量長期保持持續(xù)增長,以太網光模塊銷售額也將保持較快增長并不斷迭代升級。預計到2027年,以太網光模塊市場將達到100.11億美元。傳輸升級:CPO與硅光技術降本增效CPO(協(xié)同封裝光子技術)提升數據中心應用中的光互連技術。CPO將光學器件和ASIC緊密結合在一起,通過Co-packaging的封裝方式,大體積的可插拔模塊被簡單的光纖配線架所取代,因此前面板的物理擁塞得以緩解。而交換機和光學器件之間的電氣通道大大縮短,因此CPO將增加帶寬和縮小收發(fā)器尺寸,提升系統(tǒng)集成度,同時降低功耗和封裝成本。據lightcounting預測,數據中心將率先使用CPO封裝技術。同時,隨著AI集群和HPC的架構正在不斷演進發(fā)展,可能會看到CPO部署在GPU、TPU以及以太網、InfiniBand或NVLink交換機上,另外有許多基于FPGA的加速器也可能受益于CPO。預測在2027年,CPO端口將占總800G和1.6T端口的近30%。據機構CIR預測,CPO市場規(guī)模將在2025年超過13億美元,2027年達到27億美元。硅光芯片基于絕緣襯底上硅(Silicon-On-Insulator,SOI)平臺,兼容互補金屬氧化物半導體(ComplementaryMetalOxideSemiconductor,CMOS)微電子制備工藝,同時具備了CMOS技術超大規(guī)模邏輯、超高精度制造的特性和光子技術超高速率、超低功耗的優(yōu)勢。硅光芯片商業(yè)化至今較為成熟的領域為數據中心、通信基礎設施等光連接領域。目前,硅光技術在第一代4x25G光模塊中主要應用于500m內的100GQSFP28PSM4;在第二代1x100G產品中,應用有100GQSFP28DR1/FR1和LR1,作用于500m-10km場景中;在400G產品中,主要聚焦在2km以內的中短距離傳輸應用場景,產品有400GDR4。未來隨著技術逐漸成熟,激光雷達、光子計算等領域的應用有望實現突破。三、AIGC跨越數據鴻溝,合成數據與日精進ChatGPT狂飆出圈,AIGC迎發(fā)展快車道AIGC(人工智能生成內容)的狹義概念是利用AI自動生成內容的生產方式。在AIGC場景下,人工智能可靈活運用于寫作、編曲、繪畫和視頻制作等創(chuàng)意領域。初步估計,到2025年,人工智能生成數據占比將達到10%。根據《GenerativeAI:ACreativeNewWorld》的分析,AIGC有潛力產生數萬億美元的經濟價值。ChatGPT屬于AIGC技術在自然語言對話場景的應用。ChatGPT的火速出圈,將AIGC推向新的高度。AIGC提供數據燃料,驅動AI技術發(fā)展AIGC正朝著效率和品質更高、成本更低的方向發(fā)展。根據ChatGPT能夠快速、準確地生產聊天內容的表現,可大膽推測,未來AIGC技術將會把創(chuàng)造和知識工作的邊際成本降至零,以產生巨大的勞動生產率和經濟價值。數據是人工智能的燃料和驅動力,人工智能發(fā)展所需的海量數據也能通過AIGC技術生成、合成出來,即合成數據(syntheticdata)。合成數據可以在數學上或統(tǒng)計學上反映真實世界數據的屬性,因此可以作為真實世界數據的替代品,來訓練、測試、驗證Al模型??缭綌祿櫆希铣蓴祿七M實現AI2.0合成數據將極大拓展人工智能發(fā)展應用的數據基礎。Forrester將合成數據和強化學習、Transformer網絡、聯邦學習、因果推理視為實現人工智能2.0的五項關鍵技術進展,可以解決人工智能1.0所面臨的一些限制和挑戰(zhàn),諸如數據、準確性、速度、安全性、可擴展性等。Gartner預測稱,到2030年合成數據將徹底取代真實數據成

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論