人工智能行業(yè)市場分析3_第1頁
人工智能行業(yè)市場分析3_第2頁
人工智能行業(yè)市場分析3_第3頁
人工智能行業(yè)市場分析3_第4頁
人工智能行業(yè)市場分析3_第5頁
已閱讀5頁,還剩41頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

人工智能行業(yè)市場分析1.大模型是人工智能的發(fā)展趨勢和未來大模型,又稱為預(yù)訓(xùn)練模型、基礎(chǔ)模型等,是“大算力+強算法”結(jié)合的產(chǎn)物。大模型通常是在大規(guī)模無標注數(shù)據(jù)上進行訓(xùn)練,學(xué)習(xí)出一種特征和規(guī)則?;诖竽P瓦M行應(yīng)用開發(fā)時,將大模型進行微調(diào),如在下游特定任務(wù)上的小規(guī)模有標注數(shù)據(jù)進行二次訓(xùn)練,或者不進行微調(diào),就可以完成多個應(yīng)用場景的任務(wù)。遷移學(xué)習(xí)是預(yù)訓(xùn)練技術(shù)的主要思想。當(dāng)目標場景的數(shù)據(jù)不足時,首先在數(shù)據(jù)量龐大的公開數(shù)據(jù)集上訓(xùn)練基于深度神經(jīng)網(wǎng)絡(luò)的AI模型,然后將其遷移到目標場景中,通過目標場景中的小數(shù)據(jù)集進行微調(diào),使模型達到需要的性能。在這一過程中,這種在公開數(shù)據(jù)集訓(xùn)練過的深層網(wǎng)絡(luò)模型,即為“預(yù)訓(xùn)練模型”。使用預(yù)訓(xùn)練模型很大程度上降低了下游任務(wù)模型對標注數(shù)據(jù)數(shù)量的要求,從而可以很好地處理一些難以獲得大量標注數(shù)據(jù)的新場景。大模型正是人工智能發(fā)展的趨勢和未來。1.1國內(nèi)外公司與機構(gòu)競相研發(fā),大模型生態(tài)已初具規(guī)模從參數(shù)規(guī)模上看,AI大模型先后經(jīng)歷了預(yù)訓(xùn)練模型、大規(guī)模預(yù)訓(xùn)練模型、超大規(guī)模預(yù)訓(xùn)練模型三個階段,參數(shù)量實現(xiàn)了從億級到百萬億級的突破。從模態(tài)支持上看,AI大模型從支持圖片、圖像、文本、語音單一模態(tài)下的單一任務(wù),逐漸發(fā)展為支持多種模態(tài)下的多種任務(wù)。國外的超大規(guī)模預(yù)訓(xùn)練模型起步于2018年,并在2021年進入“軍備競賽”階段。2017年,Vaswani等提出Transformer架構(gòu),奠定了當(dāng)前大模型領(lǐng)域主流的算法架構(gòu)基礎(chǔ);Transformer結(jié)構(gòu)的提出,使深度學(xué)習(xí)模型參數(shù)達到了上億的規(guī)模。2018年,谷歌提出了大規(guī)模預(yù)訓(xùn)練語言模型BERT,該模型是基于Transformer的雙向深層預(yù)訓(xùn)練模型,其參數(shù)首次超過3億規(guī)模;同年,OpenAI提出了生成式預(yù)訓(xùn)練Transformer模型——GPT,大大地推動了自然語言處理領(lǐng)域的發(fā)展。此后,基于BERT的改進模型、ELNet、RoBERTa、T5等大量新式預(yù)訓(xùn)練語言模型不斷涌現(xiàn),預(yù)訓(xùn)練技術(shù)在自然語言處理領(lǐng)域蓬勃發(fā)展。2019年,OpenAI繼續(xù)推出15億參數(shù)的GPT-2,能夠生成連貫的文本段落,做到初步的閱讀理解、機器翻譯等。緊接著,英偉達推出了83億參數(shù)的Megatron-LM,谷歌推出了110億參數(shù)的T5,微軟推出了170億參數(shù)的圖靈Turing-NLG。2020年,OpenAI推出了超大規(guī)模語言訓(xùn)練模型GPT-3,其參數(shù)達到了1750億,在兩年左右的時間實現(xiàn)了模型規(guī)模從億級到上千億級的突破,并能夠?qū)崿F(xiàn)作詩、聊天、生成代碼等功能。此后,微軟和英偉達在2020年10月聯(lián)手發(fā)布了5300億參數(shù)的MegatronTuring自然語言生成模型(MT-NLG)。2021年1月,谷歌推出的SwitchTransformer模型以高達1.6萬億的參數(shù)量成為史上首個萬億級語言模型;同年12月,谷歌還提出了1.2萬億參數(shù)的通用稀疏語言模型GLaM,在7項小樣本學(xué)習(xí)領(lǐng)域的性能超過GPT-3。可以看到,大型語言模型的參數(shù)數(shù)量保持著指數(shù)增長勢頭。這樣高速的發(fā)展并沒有結(jié)束,2022年,又有一些常規(guī)業(yè)態(tài)大模型涌現(xiàn),比如StabilityAI發(fā)布的文字到圖像的創(chuàng)新模型Diffusion,以及OpenAI推出的ChatGPT,ChatGPT是由效果比GPT3更強大的GPT-3.5系列模型提供支持,并且這些模型使用微軟AzureAI超級計算基礎(chǔ)設(shè)施上的文本和代碼數(shù)據(jù)進行訓(xùn)練。而在國內(nèi),超大模型研發(fā)展異常迅速,2021年成為中國AI大模型的爆發(fā)年。2021年,商湯發(fā)布了書生(INTERN)大模型,擁有100億的參數(shù)量,這是一個相當(dāng)龐大的訓(xùn)練工作。在訓(xùn)練過程中,大概有10個以上的監(jiān)督信號幫助模型,適配各種不同的視覺或者NLP任務(wù),截至2021年中,商湯已建成世界上最大的計算器視覺模型,該模型擁有超過300億個參數(shù);同年4月,華為云聯(lián)合循環(huán)智能發(fā)布盤古NLP超大規(guī)模預(yù)訓(xùn)練語言模型,參數(shù)規(guī)模達1000億;聯(lián)合北京大學(xué)發(fā)布盤古α超大規(guī)模預(yù)訓(xùn)練模型,參數(shù)規(guī)模達2000億。阿里達摩院發(fā)布270億參數(shù)的中文預(yù)訓(xùn)練語言模型PLUG,聯(lián)合清華大學(xué)發(fā)布參數(shù)規(guī)模達到1000億的中文多模態(tài)預(yù)訓(xùn)練模型M6;7月,百度推出ERNIE3.0知識增強大模型,參數(shù)規(guī)模達到百億;10月,浪潮信息發(fā)布約2500億的超大規(guī)模預(yù)訓(xùn)練模型“源1.0”;12月,百度推出ERNIE3.0Titan模型,參數(shù)規(guī)模達2600億。而達摩院的M6模型參數(shù)達到10萬億,將大模型參數(shù)直接提升了一個量級。2022年,基于清華大學(xué)、阿里達摩院等研究成果以及超算基礎(chǔ)實現(xiàn)的“腦級人工智能模型”八卦爐(BAGUALU)完成建立,其模型參數(shù)模型突破了174萬億個,完全可以與人腦中的突觸數(shù)量相媲美。部分公司中國公司雖然目前還沒有正式推出自身大模型產(chǎn)品,但是也在積極進行研發(fā),例如云從科技,公司的研究團隊高度認同“預(yù)訓(xùn)練大模型+下游任務(wù)遷移”的技術(shù)趨勢,從2020年開始,已經(jīng)陸續(xù)在NLP、OCR、機器視覺、語音等多個領(lǐng)域開展預(yù)訓(xùn)練大模型的實踐,不僅進一步提升了公司各項核心算法的性能效果,同時也大幅提升了公司的算法生產(chǎn)效率,已經(jīng)在城市治理、金融、智能制造等行業(yè)應(yīng)用中體現(xiàn)價值。而且,中國的超大模型并不落后于國外同類產(chǎn)品,在某些領(lǐng)域還能實現(xiàn)反超。以商湯科技的書生(INTERN)為例,書生(INTERN)在分類、目標檢測、語義分割、深度估計四大任務(wù)26個數(shù)據(jù)集上,基于同樣下游場景數(shù)據(jù)(10%),相較于同期OpenAI發(fā)布的最強開源模型CLIP-R50x16,平均錯誤率降低了40.2%,47.3%,34.8%,9.4%。同時,書生只需要10%的下游數(shù)據(jù),平均錯誤率就能全面低于完整(100%)下游數(shù)據(jù)訓(xùn)練的CLIP。可以看到,國內(nèi)外眾多公司和研究機構(gòu)積極開展對大模型的研發(fā)。目前,大模型參數(shù)規(guī)模最高可達百萬億級別,數(shù)據(jù)集達到TB量級,且面向多模態(tài)場景(同時支持文字、圖像、聲音、視頻、觸覺等兩種及以上形態(tài))的大模型已成為趨勢。大模型生態(tài)已初具規(guī)模。1.2大模型能給AI產(chǎn)業(yè)帶來什么1.2.1大模型加速AI產(chǎn)業(yè)化進程,降低了AI應(yīng)用的門檻人工智能正處于從“可以用”逐漸走向“好用”的落地應(yīng)用階段,但目前仍處于商業(yè)落地早期,主要面臨著場景需求碎片化、人力研發(fā)和應(yīng)用計算成本高、長尾場景數(shù)據(jù)較少導(dǎo)致模型訓(xùn)練精度不夠、模型算法從實驗室場景到真實場景效果差距大等行業(yè)痛點。而大模型的出現(xiàn)能夠在在提高模型的通用性、降低訓(xùn)練研發(fā)成本方面等方面降低AI落地應(yīng)用的門檻。(1)大模型能夠?qū)崿F(xiàn)AI從“手工作坊“到”工廠模式”的轉(zhuǎn)變過去十年中,通過“深度學(xué)習(xí)+大算力”從而獲得訓(xùn)練模型是實現(xiàn)人工智能的主流技術(shù)途徑。由于深度學(xué)習(xí)、數(shù)據(jù)和算力這三個要素都已具備,全世界掀起了“大煉模型”的熱潮,也催生了大批人工智能企業(yè)。但是,在深度學(xué)習(xí)技術(shù)興起的近10年間,AI模型基本上是針對特定應(yīng)用場景需求進行訓(xùn)練的,即小模型,屬于傳統(tǒng)的定制化、作坊式的模型開發(fā)方式。傳統(tǒng)的AI模型從研發(fā)到投入應(yīng)用需要完成包括確定需求、數(shù)據(jù)收集、模型算法設(shè)計、訓(xùn)練調(diào)優(yōu)、應(yīng)用部署和運營維護等階段組成的整套流程。這意味著除了需要優(yōu)秀的產(chǎn)品經(jīng)理準確確定需求之外,還需要AI研發(fā)人員扎實的專業(yè)知識和協(xié)同合作能力完成大量復(fù)雜的工作。傳統(tǒng)模式中,研發(fā)階段,為了應(yīng)對各式各樣的場景需求,AI研發(fā)人員需要設(shè)計專網(wǎng)專用的個性定制化神經(jīng)網(wǎng)絡(luò)模型。模型設(shè)計過程要求研究人員具有充分的網(wǎng)絡(luò)結(jié)構(gòu)和場景任務(wù)專業(yè)知識,且需承受人力設(shè)計網(wǎng)絡(luò)結(jié)構(gòu)的試錯成本和時間成本。一種降低專業(yè)人員設(shè)計門檻的思路是通過網(wǎng)絡(luò)結(jié)構(gòu)自動搜索的技術(shù)路線,但是這種方案對算力要求很高,并且不同場景任務(wù)都要調(diào)用大量機器進行自動搜索以獲取最優(yōu)模型,算力成本和時間成本仍然很高。一個項目往往需要專家團隊實地駐場數(shù)月才能完成,其中數(shù)據(jù)收集和模型訓(xùn)練評估是否能夠達到指標要求往往需要多次循環(huán)迭代,人力成本很高。落地階段,經(jīng)“一個場景一個模型”式的作坊式模型開發(fā)得到的模型在許多垂直行業(yè)場景任務(wù)不通用。譬如無人自動駕駛?cè)案兄I(lǐng)域,常常需要多行人跟蹤、場景語義分割、視野內(nèi)目標檢測等多個模型協(xié)同作戰(zhàn)才行;而同樣是目標檢測和分割應(yīng)用,在醫(yī)學(xué)圖像領(lǐng)域訓(xùn)練的皮膚癌檢測和分割A(yù)I模型也無法直接應(yīng)用到監(jiān)控場景的行人車輛檢測和場景分割。模型無法復(fù)用和積累,同樣導(dǎo)致了AI落地的高門檻、高成本與低效率。而大模型通過從海量的、多類型的場景數(shù)據(jù)中學(xué)習(xí),并總結(jié)不同場景、不同業(yè)務(wù)下的通用能力,學(xué)習(xí)出一種特征和規(guī)則,成為具有泛化能力的模型底座?;诖竽P瓦M行應(yīng)用開發(fā)或面對新的業(yè)務(wù)場景時,將大模型進行微調(diào),例如在下游特定任務(wù)上的小規(guī)模有標注數(shù)據(jù)進行二次訓(xùn)練,或不進行微調(diào),就可以完成多個應(yīng)用場景的任務(wù),實現(xiàn)通用的智能能力。由此利用大模型的通用能力可以有效的應(yīng)對多樣化、碎片化的AI應(yīng)用需求,為實現(xiàn)規(guī)模推廣AI落地應(yīng)用提供可能。(2)大模型具有自監(jiān)督學(xué)習(xí)能力,能夠降低AI開發(fā)以及訓(xùn)練成本傳統(tǒng)的小模型訓(xùn)練過程中,涉及眾多調(diào)參、調(diào)優(yōu)的手動工作,需要大量的AI專業(yè)研發(fā)人員來完成;同時,模型訓(xùn)練對數(shù)據(jù)要求高,需要大規(guī)模的標注數(shù)據(jù)。然而許多行業(yè)數(shù)據(jù)獲取困難、標注成本高,同時項目研發(fā)人員需要花費大量的時間收集原始數(shù)據(jù)。譬如,人工智能在醫(yī)療行業(yè)病理學(xué)、皮膚病學(xué)和放射學(xué)等醫(yī)學(xué)圖像密集領(lǐng)域的影響擴展增長,但是醫(yī)學(xué)圖像通常涉及到用戶數(shù)據(jù)隱私,很難大規(guī)模獲取到用于訓(xùn)練AI模型。而在工業(yè)視覺瑕疵檢測領(lǐng)域,以布匹瑕疵為例,市場上需要檢測的布匹種類包括白坯布、色坯布、成品布、有色布、純棉、混紡等等,瑕疵種類繁多,顏色、厚薄難以識別,需要在工廠里長時間地收集數(shù)據(jù)并不斷優(yōu)化算法才能做好瑕疵檢測。工業(yè)視覺應(yīng)用場景千變?nèi)f化,每個場景都具有專業(yè)知識的個性化的需求,而不同行業(yè)的數(shù)據(jù)在另一個場景或任務(wù)可能并不適用,還需重新收集、標注數(shù)據(jù)和訓(xùn)練模型,造成重復(fù)造車輪子現(xiàn)象,研發(fā)流程雖然相通,但研發(fā)的模型卻難以復(fù)用。此外,AI模型也需要完整的、實時的支持機器自學(xué)習(xí)的數(shù)據(jù)閉環(huán),從而能夠不斷迭代優(yōu)化。這一方面整體也導(dǎo)致了當(dāng)前AI研發(fā)整體門檻、成本較高。而大模型通過自監(jiān)督學(xué)習(xí)功能將輸入的原始數(shù)據(jù)直接進行自動學(xué)習(xí)區(qū)分,合理構(gòu)造適合模型學(xué)習(xí)的任務(wù),不需要或很少需要通過人工標注的數(shù)據(jù)進行訓(xùn)練,很大程度上解決了人工標注數(shù)據(jù)標簽的高成本、長周期和精確度的問題,并降低了訓(xùn)練所需要的數(shù)據(jù)規(guī)模。這在很大程度上減少了大模型訓(xùn)練數(shù)據(jù)獲取、標注的成本,也更適合于小樣本學(xué)習(xí),從而有利于將傳統(tǒng)的、有限的AI擴展到更多的應(yīng)用場景。我們認為,大模型相對于傳統(tǒng)AI模型開發(fā)模式在研發(fā)時擁有更標準化的流程,在落地時擁有更強的通用性,可以泛化到多種應(yīng)用場景;并且大模型的自監(jiān)督學(xué)習(xí)能力相較于傳統(tǒng)的需要人工標注的模型訓(xùn)練能夠顯著降低研發(fā)成本,共同使得大模型對于AI產(chǎn)業(yè)具有重要意義,為解決AI落地難、促進AI產(chǎn)業(yè)化進程這一問題提供方向。1.2.2大模型帶來更強大的智能能力除通用能力強、研發(fā)過程標準化程度高外,大模型最大的優(yōu)勢還是在于“效果好”,其通過給模型“填喂”大數(shù)據(jù)提高其自學(xué)習(xí)能力,進而具有更強的智能程度。比如在自然語言處理領(lǐng)域,百度、谷歌等巨頭的探索表明,基于預(yù)訓(xùn)練大模型的NLP技術(shù)的效果,已超過過去最好的機器學(xué)習(xí)能力。OpenAI的研究表明,2012至2018年6年間,在最大規(guī)模的人工智能模型訓(xùn)練中所使用的計算量呈指數(shù)級增長,其中有3.5個月的時間計算量翻了一倍,比摩爾定律每18個月翻一倍的速度快得多。下一代AI大模型,參數(shù)數(shù)量級將堪比人類大腦突觸的水平,并且或?qū)⒉粌H能處理語言模型,將更是一個能處理語言、視覺、聲音等多任務(wù)的多模態(tài)AI模型。大模型為通往強人工智能提供了一條可能的通道。從大模型發(fā)展歷程中能夠看出,多模態(tài)大模型是發(fā)展趨勢之一。由于具有在無監(jiān)督情況下自動學(xué)習(xí)不同任務(wù)、并快速遷移到不同領(lǐng)域數(shù)據(jù)的強大能力,多模態(tài)大模型被廣泛認為是從限定領(lǐng)域的弱人工智能邁向強人工智能的路徑探索。OpenAI聯(lián)合創(chuàng)始人、首席科學(xué)家IlyaSutskever也曾表示,“人工智能的長期目標是構(gòu)建多模態(tài)神經(jīng)網(wǎng)絡(luò),即AI能夠?qū)W習(xí)不同模態(tài)之間的概念,從而更好地理解世界”。將文本、語音、圖像、視頻等多模態(tài)內(nèi)容聯(lián)合起來進行學(xué)習(xí),大模型由單模態(tài)向多模態(tài)方向發(fā)展,能夠?qū)Ω鼜V泛、更多樣的下游任務(wù)提供模型基礎(chǔ)支撐,從而實現(xiàn)更加通用的人工智能模型。更具體來看,大模型帶來的更強大的智能能力,能夠推動人工智能向更高級智能應(yīng)用領(lǐng)域邁進,例如AIGC、更智能的對話客服等領(lǐng)域。GPT-3等大模型在新聞文本生成、商業(yè)文本分析、法律文本分析等領(lǐng)域具有較高的產(chǎn)業(yè)應(yīng)用價值。2022年OpenAI發(fā)布的基于GPT-3.5的ChatGPT則能夠以對話方式進行交互;除問答以外,ChatGPT能夠完成編程、寫稿等眾多超出人們想象的任務(wù)。甚至有研究人員表示未來ChatGPT這樣的新興人工智能技術(shù)很可能會影響白領(lǐng)的工作。在一項由醫(yī)療初創(chuàng)公司AnsibleHealth領(lǐng)導(dǎo)的研究中,ChatGPT參加美國醫(yī)生執(zhí)照的三項考試,考試成績可以達到或接近達到及格;ChatGPT在法律領(lǐng)域的表現(xiàn)甚至更加優(yōu)秀,研究人員發(fā)現(xiàn),ChatGPT可以取得美國多州律師考試的及格分數(shù);ChatGPT的能力也已經(jīng)獲得了大型科技企業(yè)的認可,谷歌公司指出,如果ChatGPT參加谷歌的面試,理論上會得到入門級程序員的聘任。2022年,大模型正在成為AIGC領(lǐng)域發(fā)展的算法引擎。在大模型的能力加持下,包括以文生圖以及虛擬數(shù)字人等AIGC類應(yīng)用將快速進入到商業(yè)化階段,并為元宇宙內(nèi)容生產(chǎn)帶來巨大的變革。大模型正在讓人工智能技術(shù)從五年前的“能聽會看”,走到今天的“能思考、會創(chuàng)作”,未來有望實現(xiàn)“會推理、能決策”的重大進步。我們認為,隨著大模型不斷地進步、迭代、向多模態(tài)方向發(fā)展,大模型能夠達到更強的通用性以及智能程度,從而使得AI能夠更廣泛地賦能各行業(yè)應(yīng)用,尤其是更高級智能應(yīng)用領(lǐng)域,這是大模型能夠給AI產(chǎn)業(yè)帶來的突破之一,也是大模型構(gòu)成人工智能發(fā)展趨勢和未來的原因之一。2.模型公司將是AI世界的基礎(chǔ)類公司2.1大模型,智能時代的基礎(chǔ)設(shè)施大模型的“大規(guī)?!焙汀邦A(yù)訓(xùn)練”屬性,決定了其具有能力泛化、技術(shù)融合、應(yīng)用支撐三大核心作用。能力泛化方面,AI大模型預(yù)先在海量通用數(shù)據(jù)上訓(xùn)練并具備多種基礎(chǔ)能力,可結(jié)合多種垂直行業(yè)和業(yè)務(wù)場景需求進行模型微調(diào)和應(yīng)用適配,能夠擺脫傳統(tǒng)AI能力碎片化、作坊式開發(fā)的束縛。AI大模型得益于其“大規(guī)模預(yù)訓(xùn)練﹢微調(diào)”的范式,可以很好地適應(yīng)不同下游任務(wù),展現(xiàn)出它強大的通用性。技術(shù)融合方面,單個AI大模型通過端到端聯(lián)合訓(xùn)練調(diào)優(yōu),能有效集成自然語言處理、計算機視覺、智能語音、知識圖譜等多個AI核心研究領(lǐng)域的多項技術(shù),性能上可實現(xiàn)“1+1>2”的效果,可顯著提升AI大模型的功能豐富性和性能優(yōu)越性。應(yīng)用支撐方面,AI大模型已成為上層應(yīng)用的技術(shù)底座,能夠有效支撐智能終端、系統(tǒng)、平臺等產(chǎn)品應(yīng)用落地,可解決傳統(tǒng)AI應(yīng)用過程中存在的壁壘多、部署難問題。從人工智能到各行業(yè)的商業(yè)應(yīng)用,可以看作是上下游的關(guān)系。而AI大模型因為其自身而也正是大模型在能力泛化與技術(shù)融合方面的優(yōu)勢,使其在應(yīng)用支撐方面具有先進性;同時大模型做到了相對標準化,下游可以降低對算法的使用成本,以及商業(yè)應(yīng)用的適配成本。因此,大模型在AI產(chǎn)業(yè)鏈中將承擔(dān)“基礎(chǔ)設(shè)施”式的功能,作為底座將AI技術(shù)賦能千行百業(yè)。也就是說,在基于數(shù)據(jù)的互聯(lián)網(wǎng)時代、基于算力的云計算時代之后,將進入基于大模型的AI時代。在未來,基于大模型,人工智能將如供水供電一般流向終端,流向用戶和企業(yè)。如果將AI比作電力,那么大模型則相當(dāng)于“發(fā)電機”,能將智能在更大的規(guī)模和范圍普及。大模型的智能能力在未來將成為一種公共基礎(chǔ)資源,像電力或自來水一樣隨取隨用。每個智能終端、每個APP,每個智能服務(wù)平臺,都可以像接入電網(wǎng)一樣,接入由IT基礎(chǔ)設(shè)施組成的“智力”網(wǎng)絡(luò),讓AI算法與技術(shù)能夠更廣泛地應(yīng)用于各行各業(yè)?;诖竽P托纬傻拇笠?guī)模智能網(wǎng)絡(luò)和云計算完全不同。云計算盡管也將算力比作隨取隨用的資源,但目前仍然做不到像電力一樣的方便。這是因為云計算本質(zhì)上需要云和用戶進行雙向的資源交換,用戶需要經(jīng)過繁瑣的數(shù)據(jù)準備、計算過程定義等過程,將數(shù)據(jù)和算法轉(zhuǎn)移到云端,再由云端完成任務(wù)后傳回本地。而基于大模型的大規(guī)模智能網(wǎng)絡(luò)則不需要用戶定義計算過程,只需要準備好數(shù)據(jù),大模型強大的能力能夠在少量微調(diào)甚至不微調(diào)的情況下直接完成用戶所需的工作。這一智能能力生產(chǎn)和消費的網(wǎng)絡(luò),未來或?qū)⒊蔀槿祟惿鐣a(chǎn)業(yè)發(fā)展的主流模式。我們認為,大模型在能力泛化、技術(shù)融合、研發(fā)標準化程度高等方面的優(yōu)勢讓其有能力支撐各式應(yīng)用,使其正在成為人工智能技術(shù)及應(yīng)用的新基座。正如發(fā)電廠和高速公路一樣,大模型將成為各行各業(yè)應(yīng)用AI技術(shù)的底座和創(chuàng)新的源頭。2.2模型公司以大模型為基礎(chǔ)賦能AI產(chǎn)業(yè)鏈下游應(yīng)用從當(dāng)前階段來看,國際上大模型研究開展的時間較早,在研發(fā)過程中積累了一些經(jīng)驗。目前有商業(yè)化應(yīng)用案例的大模型主要包括BERT、GPT-2、T-NLG、GPT-3等。BERT主要適用于搜索、營銷、金融等依賴深層語義理解的領(lǐng)域,例如,在檢索領(lǐng)域,谷歌目前已將BERT整合到搜索引擎中,為知識卡片和內(nèi)容索引提供更為準確的結(jié)果。在營銷領(lǐng)域,一些企業(yè)采用了開源的BERT模型,BERT能夠?qū)⒋罅康挠脩舴答亙?nèi)容進行整合,為下游的營銷動作提供支持;GPT-2更適合文本生成領(lǐng)域的任務(wù),在營銷、文案、對話、媒體等領(lǐng)域的應(yīng)用較多;T-NLG模型是自然語言生成模型,在文本生成、摘要等方面具有更強的性能;GPT-3是目前商業(yè)化進展最快,應(yīng)用案例最多的大模型?;贕PT-3的下游應(yīng)用主要集中在內(nèi)容創(chuàng)意生成、語言/風(fēng)格互譯、對話、搜索、游戲輔助開發(fā)等其它場景。國內(nèi),商湯的業(yè)務(wù)模式能夠大致體現(xiàn)AI大模型、AI大裝置承擔(dān)基礎(chǔ)設(shè)施功能,搭載各式平臺從而賦能百業(yè)。商湯擁有強大的人工智能基礎(chǔ)設(shè)施SenseCore,它以低成本、高效率大規(guī)模生產(chǎn)高性能的人工智能模型。SenseCore生產(chǎn)的人工智能模型具備感知智能、決策智能、智能內(nèi)容生成及智能內(nèi)容增強等功能,被集成到公司的產(chǎn)品及軟件平臺中以支持智慧城市、智慧商業(yè)、智慧生活以及智能汽車等垂直行業(yè)。業(yè)務(wù)模式上,公司使用SenseCore在模型庫中組裝現(xiàn)有模型,并針對增量需求訓(xùn)練新模型,從而以經(jīng)濟高效的方式配置產(chǎn)品方案。這類產(chǎn)品方案可通過軟件平臺向其他客戶提供。SenseCore提供強大的人工智能模型,可擴展及適應(yīng)廣泛的應(yīng)用場景。SenseCore可以按需提供人工智能模型生產(chǎn)、訓(xùn)練、部署及迭代,以更大的靈活性服務(wù)于客戶,并縮短商業(yè)化時間。每一次SenseCore隨著技術(shù)突破而升級,公司針對不同領(lǐng)域垂直行業(yè)的軟件平臺都會同步升級,功能和性能方面得到明顯改善。另一方面,眾多垂直行業(yè)也為SenseCore提供了豐富的場景及反饋,以促進SenseCore的演進。這種飛輪效應(yīng)使公司在與從事單一垂直行業(yè)人工智能公司競爭當(dāng)中處于更有利的地位。又比如云從科技,公司的研究團隊高度認同“預(yù)訓(xùn)練大模型+下游任務(wù)遷移”的技術(shù)趨勢,從2020年開始,已經(jīng)陸續(xù)在NLP、OCR、機器視覺、語音等多個領(lǐng)域開展預(yù)訓(xùn)練大模型的實踐,不僅進一步提升了公司各項核心算法的性能效果,同時也大幅提升了公司的算法生產(chǎn)效率,已經(jīng)在城市治理、金融、智能制造等行業(yè)應(yīng)用中體現(xiàn)價值;其次,公司一直以來都在人機協(xié)同領(lǐng)域布局,打造了像人一樣思考和工作的人機協(xié)同操作系統(tǒng)(CWOS),致力于整合打通視覺、語音、NLP等多個領(lǐng)域的大模型,要徹底打通數(shù)字世界和物理世界,為“像人一樣思考和工作”打下堅實的技術(shù)基礎(chǔ);公司也通過開放的人機協(xié)同操作系統(tǒng)實現(xiàn)了技術(shù)平臺化,加上多年的行業(yè)深耕,能夠通過“平臺化的通用模型+帶行業(yè)knowhow的專用模型”來幫助各行各業(yè)快速實現(xiàn)智能化升級。我們認為,模型公司能夠發(fā)揮大模型作為AI基礎(chǔ)設(shè)施與底座的能力,基于大模型“大規(guī)模預(yù)訓(xùn)練﹢微調(diào)”的范式形成產(chǎn)品方案,并滿足AI產(chǎn)業(yè)鏈下游各行業(yè)客戶的應(yīng)用需求,模型公司將成為AI世界中的基礎(chǔ)類公司。3.模型公司將對科技公司競爭格局帶來顛覆3.1OpenAI的前世今生OpenAI成立于2015年12月,是所處于美國舊金山的一個人工智能研究實驗室,由非營利性的OpenAIInc.及其營利性的子公司OpenAILP組成。OpenAI開展人工通用智能(AGI)研究,為了確保AI能夠造福全人類,OpenAI提供了一個基于AI的開發(fā)和研究框架,這也是其名字的來源(開放AI能力)。利用OpenAI的平臺,客戶可以快速提升開發(fā)技能并獲取AI領(lǐng)域的專業(yè)知識,這有助于安全有效的通用人工智能(AGI)技術(shù)的發(fā)展。OpenAI開發(fā)、維護和訓(xùn)練了一批可用于通用活動的AI模型,包括寫作、閱讀、編程和圖像處理等,OpenAI始終相信AGI對我們?nèi)粘I畹挠绊憣⑦h遠超過早期的AI技術(shù)。馬斯克、奧特曼和其他投資者于2015年12月宣布創(chuàng)建OpenAI,并承諾向該項目投入超過10億美元。通過公布其專利和研究成果,OpenAI將與其他組織和研究人員“自由互動”?!癘penAIGym”的公測版本于2016年4月27日發(fā)布,這是一個加強OpenAI研究領(lǐng)域的平臺。2016年12月5日,OpenAI發(fā)布了“Universe”,這是一個用于開發(fā)和測試AI的平臺,智能能力可以覆蓋全球的網(wǎng)站、游戲和其他應(yīng)用程序。2019年3月11日,OpenAI宣布從“非盈利(non-profit)”性質(zhì)過度到“有限盈利(cappedforprofit)”,利潤上限為任何投資的100倍(創(chuàng)立了OpenAILP公司)。也是在2019年,微軟向OpenAI投資了10億美金,并獲得了OpenAI技術(shù)的商業(yè)化授權(quán)。從此,OpenAI的一些技術(shù)開始出現(xiàn)在微軟的產(chǎn)品和業(yè)務(wù)上。不過,OpenAI與微軟的合作其實從2016年就開始,2016年,微軟的云服務(wù)Azure為OpenAI提供了大規(guī)模實驗的平臺。Azure彼時已經(jīng)為他們提供了帶有InfiniBand互連的K80GPU的算力資源,以優(yōu)化深度學(xué)習(xí)的訓(xùn)練。2020年9月22日,OpenAI開始授權(quán)微軟使用他們的GPT-3模型,也是全球首個可以享受GPT-3能力的公司。2020年6月11日,OpenAI發(fā)布了OpenAIAPI,這也是OpenAI第一個商業(yè)化產(chǎn)品。官方解釋了,他們認為開發(fā)商業(yè)產(chǎn)品是確保OpenAI有足夠資金繼續(xù)投入AI研究的有效手段。自此,OpenAI也正是開始商業(yè)化運作。官方也解釋了,使用API的方式提供模型而不是開源模型也將降低模型的使用門檻,畢竟對于中小企業(yè)來說,部署強大的AI模型所需要的成本可能更高。2018年2018年6月11日,OpenAI公布了一個在諸多語言處理任務(wù)上都取得了很好結(jié)果的算法,即著名的GPT,這也是該算法的第一個版本。GPT是第一個將transformer與無監(jiān)督的預(yù)訓(xùn)練技術(shù)相結(jié)合,其取得的效果要好于當(dāng)前的已知算法。這個算法算是OpenAI大語言模型的探索性的先驅(qū),也使得后面出現(xiàn)了更強大的GPT系列。同樣是在2018年6月份,OpenAI的OpenAIFive已經(jīng)開始在Dota2游戲中擊敗業(yè)余人類團隊,并表示在未來2個月將與世界頂級玩家進行對戰(zhàn)。OpenAIFive使用了256個P100GPUs和128000個CPU核,每天玩180年時長的游戲來訓(xùn)練模型。在隨后的幾個月里OpenAIFive詳情繼續(xù)公布。在8月份的專業(yè)比賽中,OpenAIFive輸?shù)袅?場與頂級選手的比賽,但是比賽的前25-30分鐘內(nèi),OpenAIFive的模型的有著十分良好的表現(xiàn)。OpenAIFive繼續(xù)發(fā)展并在2019年4月15日宣布打敗了當(dāng)時的Dota2世界冠軍。2019年2019年2月14日,OpenA官宣GPT-2模型。GPT-2模型有15億參數(shù),基于800萬網(wǎng)頁數(shù)據(jù)訓(xùn)練。2019年11月5日,15億參數(shù)的完整版本的GPT-2預(yù)訓(xùn)練結(jié)果發(fā)布。2019年3月4日,OpenAI發(fā)布了一個用于強化學(xué)習(xí)代理的大規(guī)模多代理游戲環(huán)境:NeuralMMO。該平臺支持在一個持久的、開放的任務(wù)中的存在大量的、可變的代理。2019年4月25日,OpenAI公布了最新的研究成果:MuseNet,這是一個深度神經(jīng)網(wǎng)絡(luò),可以用10種不同的樂器生成4分鐘的音樂作品,并且可以結(jié)合從鄉(xiāng)村到莫扎特到披頭士的風(fēng)格。這是OpenAI將生成模型從自然語言處理領(lǐng)域拓展到其它領(lǐng)域開始。2020年2020年4月14日,OpenAI發(fā)布了Microscope,這是一個用于分析神經(jīng)網(wǎng)絡(luò)內(nèi)部特征形成過程的可視化工具,也是OpenAI為了理解神經(jīng)網(wǎng)絡(luò)模型所作出的努力。2020年5月28日,OpenAI正式公布了GPT-3相關(guān)的研究結(jié)果,其參數(shù)高達1750億,這也是當(dāng)時全球最大的預(yù)訓(xùn)練模型,同年9月,GPT-3的商業(yè)化授權(quán)給了微軟。2020年6月17日,OpenAI發(fā)布了ImageGPT模型,將GPT的成功引入計算機視覺領(lǐng)域。2021年2021年1月5日,OpenAI發(fā)布CLIP,它能有效地從自然語言監(jiān)督中學(xué)習(xí)視覺概念。CLIP可以應(yīng)用于任何視覺分類基準,只需提供要識別的視覺類別的名稱,類似于GPT-2和GPT-3的"zero-shot"能力。2021年1月5日,OpenAI發(fā)布了DALL·E模型,其為120億個參數(shù)的GPT3版本,它被訓(xùn)練成使用文本-圖像對的數(shù)據(jù)集,從文本描述中生成圖像。2021年8月10日,OpenAI發(fā)布了Codex。OpenAICodex同樣是GPT3的后代;它的訓(xùn)練數(shù)據(jù)既包含自然語言,也包含數(shù)十億行公開的源代碼,包括GitHub公共存儲庫中的代碼。OpenAICodex就是GithubCoplilot背后的模型。2022年2022年1月27日,OpenAI發(fā)布了InstructGPT。這是比GPT3更好的遵循用戶意圖的語言模型,同時也讓它們更真實,且lesstoxic。2022年3月15日,OpenAI新版本的GPT-3和Codex發(fā)布,新增了編輯和插入新內(nèi)容的能力。2022年4月6日,DALL·E2發(fā)布,其效果比第一個版本更加逼真,細節(jié)更加豐富且解析度更高。2022年6月23日,OpenAI通過視頻預(yù)訓(xùn)練(VideoPreTraining,VPT)在人類玩Minecraft的大量無標簽視頻數(shù)據(jù)集上訓(xùn)練了一個神經(jīng)網(wǎng)絡(luò)來玩Minecraft,同時只使用了少量的標簽數(shù)據(jù)。通過微調(diào),該模型可以學(xué)習(xí)制作鉆石工具,這項任務(wù)通常需要熟練的人類花費超過20分鐘(24,000個動作)。它使用了人類原生的按鍵和鼠標運動界面,使其具有相當(dāng)?shù)耐ㄓ眯?,并代表著向通用計算機使用代理邁出了一步。2022年9月21日,OpenAI發(fā)布了Whisper,這是一個語音識別預(yù)訓(xùn)練模型,結(jié)果逼近人類水平,支持多種語言。3.2ChatGPT的橫空出世,對搜索領(lǐng)域或帶來巨大沖擊2022年11月30日,OpenAI發(fā)布ChatGPT,這是一個AI對話系統(tǒng),一款人工智能技術(shù)驅(qū)動的自然語言處理工具。它能夠通過學(xué)習(xí)和理解人類的語言來進行對話,還能根據(jù)聊天的上下文進行互動,真正像人類一樣來聊天交流,甚至能完成撰寫郵件、視頻腳本、文案、翻譯、代碼等任務(wù)。ChatGPT經(jīng)歷了OpenAI開發(fā)的四代GPT模型的進化。此前的三代模型數(shù)據(jù)質(zhì)量和數(shù)據(jù)規(guī)模不斷提升,使得其生成能力不斷精進,已經(jīng)能夠執(zhí)行閱讀理解、機器翻譯、自動問答等任務(wù),但本質(zhì)上只是語言模型,不具備回答問題的能力。針對GPT-3,OpenAI引入了1750億的訓(xùn)練參數(shù),開啟了超大模型時代,專家普遍認為,在封閉、靜態(tài)和確定性環(huán)境中,該模型已經(jīng)可以達到人類的決策水平。而ChatGPT模型基于GPT-4優(yōu)化,引入了新的算法——從人類反饋中強化學(xué)習(xí)(RLHF),在訓(xùn)練中,訓(xùn)練師會對答案進行排序、打分或者給出高質(zhì)量答案,令ChatGPT具備一定邏輯和常識,成為現(xiàn)階段全球所發(fā)布的功能最全面的AI模型,遠超同類產(chǎn)品的智能化水平。正由于“通過文本與人對話”這一特點,ChatGPT獲得了得天獨厚更為靈活的使用功能。以前也曾有其他AI聊天機器人,但沒有一款能與ChatGPT相提并論。ChatGPT能進行天馬行空的長對話,可以回答問題,還能根據(jù)人們的要求撰寫各種書面材料,例如商業(yè)計劃書、廣告宣傳材料、詩歌、笑話、計算機代碼和電影劇本等。正是由于ChatGPT優(yōu)秀的使用體驗,使得其用戶量獲得了快速增長,發(fā)布短短5天,其用戶數(shù)就超過100萬,而Facebook獲得100萬用戶,則用了整整10個月。2023年1月,ChatGPT的月活躍用戶數(shù)預(yù)計已達1億,成為歷史上用戶增長最快的消費應(yīng)用。相比之下,達到1億月活躍用戶數(shù),TikTok花了約9個月的時間,Instagram則花了兩年半。在高技術(shù)力、優(yōu)質(zhì)體驗、巨大客戶群的背景下,ChatGPT背后的模型公司OpenAI開始對科技公司產(chǎn)生巨大的沖擊,而首當(dāng)其沖的就是搜索領(lǐng)域的各大巨頭。在ChatGPT發(fā)布的第一天,就有生成式AI將取代搜索引擎的聲音出現(xiàn)。ChatGPT雖然常常被用于信息查找,但它本質(zhì)上屬于AIGC(人工智能生產(chǎn)內(nèi)容),是一種文本創(chuàng)造方式;而搜索引擎的思路是信息查找與整合,無法創(chuàng)造文本。也正由于這一特點,ChatGPT能夠給出更加“人性化”的交互問答服務(wù)。ChatGPT相對于傳統(tǒng)搜索引擎具有難以替代的優(yōu)勢。輸入端,ChatGPT能夠通過文本對話的方式與用戶進行深入交流,從而更加明確用戶需求,給出恰當(dāng)?shù)幕貜?fù);相較之下,用戶使用傳統(tǒng)搜索引擎只能通過反復(fù)修改搜索關(guān)鍵詞進行深入查找,過程繁復(fù),且常常很難得到滿意的回復(fù)。輸出端,ChatGPT更貼近“人性化”的輸出,通過生成文本的方式模擬對話給出確定的答案;傳統(tǒng)搜索引擎更貼近“搜索”,只能給出大量網(wǎng)站鏈接,需要用戶自行甄別信息。這就使得,ChatGPT可能對搜索帶來一個重大變化:用戶將會轉(zhuǎn)向聊天機器人尋求幫助,而不是通過谷歌提供的網(wǎng)站進行過濾。ChatGPT有可能改變用戶的搜索方式。與用戶在搜索引擎(谷歌)中嘗試許多不同的搜索詞并查看結(jié)果列表(和廣告)不同,大型語言模型可以做不同的事情。用戶可以用正常的句子問語言模型一個問題,它可以用一段漂亮的文字進行總結(jié),并提供使用過的源網(wǎng)頁鏈接。這種方法的優(yōu)點是用戶不再需要閱讀長長的結(jié)果列表,可預(yù)計在搜索領(lǐng)域,ChatGPT帶來了一個破壞性創(chuàng)新,有望顛覆整個搜索領(lǐng)域的商業(yè)模式。根據(jù)Statcounter,截止2023.01,谷歌在搜索引擎市場的市占率達到了92.09%,但是,一旦ChatGPT對“搜索”這一行為所帶來的破壞性創(chuàng)新不斷被用戶接受,未來可能用戶都不會再去使用“搜索引擎”去進行“搜索”這一行為了,就類似馬車被汽車替換一樣,雖然初期汽車不如馬車,但是隨著不斷完善,汽車將最終替代馬車,即使某家公司在馬車領(lǐng)域市占率再高,但是馬車市場的空間將不斷縮減直至最終消失。對于谷歌來說,即使在搜索引擎領(lǐng)域,谷歌的市占率再高,但是如果ChatGPT使得整個搜索引擎市場的流量將不斷下降,這對于2022Q4廣告營收(主要來源于巨大流量)占比高達78%的Alphabet來說,將會帶來巨大的沖擊。同時,從技術(shù)上來講,ChatGPT也可能會降低搜索引擎的門檻。谷歌搜索分很多層,從最開始的用戶關(guān)鍵詞輸入到最后的信息提取,中間有一步叫做用戶的關(guān)鍵詞改寫,因為用戶的關(guān)鍵詞可能是比較模糊,改寫就能夠把這個關(guān)鍵詞變得更清楚,然后變成一個更加方便去提取信息的方式。如果中間的這一層讓各個搜索公司自己管理,但是這些中間層最后都指向ChatGPT,那么搜索引擎這一個業(yè)務(wù)的門檻就會降低,任何一個想做搜索的公司都可以基于ChatGPT開發(fā)自己的搜索引擎。從Alphabet目前的反應(yīng)來看,也能看出ChatGPT對于谷歌造成的沖擊。在圍繞谷歌AI戰(zhàn)略的會議中,谷歌CEO桑達爾·皮查伊要求公司重新集中精力解決ChatGPT對其搜索引擎業(yè)務(wù)構(gòu)成的威脅。近日,有消息稱,谷歌正在測試一款類似ChatGPT的聊天機器人ApprenticeBard,該產(chǎn)品基于谷歌對話模型LaMDA,員工可以向其提問并獲得類似ChatGPT的詳細答案。據(jù)悉,即便近期剛發(fā)生的事,ApprenticeBard也能回答出來。2月2日,桑達爾·皮查更是表示,該公司很快將在其搜索引擎中添加高級人工智能功能。他預(yù)計,谷歌將在“未來幾周或幾個月”推出類似ChatGPT的基于人工智能的大型語言模型。皮查伊在財報電話會議上透露,用戶很快就能以“搜索伴侶”的形式使用語言模型。他說,“很快,人們將能夠直接與我們最新、最強大的語言模型互動,作為搜索的伴侶,以實驗和創(chuàng)新的方式。”“人工智能是我們目前正在研究的最深刻的技術(shù)。我們的人工智能之旅才剛剛開始,最好的還在后面?!彼a充說。谷歌更是早在2022年12月就發(fā)布了“紅色代碼”,以緊急應(yīng)對ChatGPT的崛起所帶來的威脅。谷歌也正在要求員工測試ChatGPT的競爭對手,作為“紅色代碼”計劃的一部分。而中國的百度,同樣也意識到了ChatGPT所帶來的巨大挑戰(zhàn)。4.MaaSModelasaService模型即服務(wù)的產(chǎn)業(yè)結(jié)構(gòu)從MaaS整個的產(chǎn)業(yè)結(jié)構(gòu)來看,核心應(yīng)該是“模型→單點工具→應(yīng)用場景”這樣一個路徑。以ChatGPT為例,其所用的底層模型就是GPT-4,而產(chǎn)生出的單點工具就是ChatGPT,最終ChatGPT又能落地在對話、撰寫書面材料、修改代碼等多個細分的應(yīng)用場景。4.1大模型,MaaS的最重要基座通過這三大模型系統(tǒng),其他公司可以通過調(diào)用API實現(xiàn)自身AI產(chǎn)品的創(chuàng)造。以DALL·E為例,開發(fā)人員可以通過OpenAI的API將DALL·E直接集成到他們的應(yīng)用程序和產(chǎn)品中。超過300萬人已經(jīng)在使用DALL·E來擴展他們的創(chuàng)造力并加快他們的工作流程,每天生成超過400萬張圖像。開發(fā)人員可以在幾分鐘內(nèi)開始使用相同的技術(shù)進行構(gòu)建自己的產(chǎn)品。又例如商湯科技,旗下的AIDC就是商湯的大模型。在WAIC2022上,商湯在AI大裝置基礎(chǔ)上衍生出四大平臺體系:大裝置AI云、車路協(xié)同、游戲、未來醫(yī)院。SenseCore商湯大裝置AI云是基于AI大裝置的一套開箱即用的工業(yè)級AI工具鏈,而另外三大平臺可以理解為商湯“裁剪”出的行業(yè)大模型。大裝置AI云無需前期投入,從工業(yè)AI流水線到大模型訓(xùn)練、驗證、推理,它都能成倍提高研發(fā)效率,基礎(chǔ)設(shè)施費用就大大降低。4.2單點工具,大模型應(yīng)用的補充單點工具往往是基于大模型產(chǎn)生的能實際應(yīng)用的產(chǎn)品,例如ChatGPT,它就是在GPT-3.5模型的基礎(chǔ)上,產(chǎn)生出的能“對話”的AI系統(tǒng)。除了ChatGPT以外,也有許多類似的單點工具存在,例如Jasper,其是一個內(nèi)容寫作工具,它使用人工智能為用戶編寫內(nèi)容。它基于開源的GPT-3模型(同樣為OpenAI出品),Jasper聲稱可以創(chuàng)造100%的原創(chuàng)內(nèi)容,還整合了著名的原創(chuàng)檢測的工具Copyscape。它也可以幫助重寫用戶不滿意的段落,或糾正用戶的語法。又例如商湯科技基于自身“大裝置+大模型”推出的OpenXRLab擴展現(xiàn)實平臺,也是一個單點工具。該平臺擁有領(lǐng)先算法,結(jié)合大量真人動作數(shù)據(jù),商湯打造了一套基于深度學(xué)習(xí)的動作捕捉及生成解決方案。該方案適配性強、自由度高、易于部署、無需綠幕和專業(yè)動捕設(shè)備,即可高效率、低成本地實現(xiàn)AIGC內(nèi)容生成。即便在日常直播等低算力設(shè)備應(yīng)用場景,也可進行流暢、高精度的視頻創(chuàng)作和實時互動。該方案還可配套提供用于虛擬IP生成的大規(guī)模、高質(zhì)量、語義化的3D動作庫,供企業(yè)進行數(shù)字人相關(guān)的自主高效創(chuàng)作,從而滿足企業(yè)在虛擬IP內(nèi)容定制、直播運營等活動中的廣泛需求。結(jié)合企業(yè)品牌符號、標簽等元素,商湯“虛擬IP解決方案”可智能生成符合品牌性格和調(diào)性的專屬形象,讓品牌形象更年輕、更鮮活、更具辨識度和記憶點,打破刻板印象,拉近與用戶的距離。4.3應(yīng)用場景,大模型應(yīng)用的變現(xiàn)雖說目前仍沒有出現(xiàn)適合所有應(yīng)用場景的“全能共通性”模型,但是單個大模型覆蓋的應(yīng)用場景仍在持續(xù)擴展。以商湯科技的“書生”大模型為例,一個“書生”基模型即可全面覆蓋分類、目標檢測、語義分割、深度估計四大視覺核心任務(wù)。在ImageNet等26個最具代表性的下游場景中,書生模型廣泛展現(xiàn)了很強的通用性,顯著提升了這些視覺場景中長尾小樣本設(shè)定下的性能。又例如GPT模型系列,該模型本身是一種基于互聯(lián)網(wǎng)可用數(shù)據(jù)訓(xùn)練的文本生成深度學(xué)習(xí)模型,但是該模型的產(chǎn)品,如ChatGPT、Jasper等,目前應(yīng)用場景卻持續(xù)擴展。例如,Jasper雖然是文本書寫工具,但是內(nèi)置了50多個模板,適用于廣告,博客,電商,郵件,SEO,視頻,網(wǎng)站等多種使用場景。而ChatGPT作為對話式AI程序,其使用范圍目前更是得到了很大的擴展,修改代碼、撰寫文字、搜索資源等等,已經(jīng)成為了重要生產(chǎn)力工具之一??梢灶A(yù)見,隨著未來大模型的發(fā)展持續(xù)進行,大模型以及其產(chǎn)生的產(chǎn)品的應(yīng)用場景將會持續(xù)擴展。5.MaaS將成為人工智能公司的核心商業(yè)模式5.1訂閱制收費此前推出的ChatGPT版本被OpenAI稱為ResearchPreviewLaunch(研究預(yù)覽版)。ChatGPT推出一周,即收獲100萬注冊用戶,2023年1月,ChatGPT的活躍用戶數(shù)或已達1億,它可能是史上增長最快的消費者應(yīng)用,但這也導(dǎo)致了許多問題,上線首周ChatGPT就多次因用戶訪問量過大導(dǎo)致服務(wù)器崩潰。此后為了應(yīng)對訪問量過大而導(dǎo)致的服務(wù)器壓力,OpenAI對ChatGPT進行了大規(guī)模限流,包括禁止來自云服務(wù)器的訪問,限制每小時的提問數(shù)量,以及高峰時段排隊等舉措??梢钥闯?,ChatGPTPlus有效的改善了目前免費版面臨的諸多痛點。OpenAI在聲明中表示,ChatGPTPlus將在未來幾周率先在美國推出,之后盡快推行至其他國家。公司表示,有興趣的用戶可以注冊ChatGPTPlus的等待名單,未來幾周會發(fā)出邀請。目前ChatGPT已經(jīng)成為一款重要的生產(chǎn)力工具,被廣大用戶證明,可以寫文案、寫小說,寫代碼、改bug、查資料,還能幫忙對資料進行歸納總結(jié)。所以,收費版的ChatGPTPlus的確擁有廣泛的市場空間。我們可以做一個簡單的計算,假設(shè)在目前的1億用戶中,有30%愿意付費,按照年付費240美元計算,年收費就能達到72億美元,如果未來ChatGPT作為能夠?qū)薿ffice的生產(chǎn)工具,付費用戶數(shù)突破10億人,市場將達到2000億美元以上,而且這還僅僅是按照目前20美元一個月的收費來計算的,并沒有考慮未來公司可能推出更高價格的訂閱計劃等,而如果加上未來可能存在的廣告等盈利方法,整個市場空間將會更加廣闊。其實,就在之前,有網(wǎng)友就發(fā)現(xiàn)OpenAI似乎在內(nèi)測另一付費版ChatGPT——“ChatGPTPro”,而這一計劃的收費更是高達每月42美元。雖然這一計劃最終未能正式發(fā)布,但是也不排除未來OpenAI針對ChatGPT推出更多價位的不同計劃。而除了ChatGPT,其他MaaS公司同樣推出了許多商業(yè)訂閱計劃。以類似的AI聊天公司Jasper為例,該公司產(chǎn)品Jasper以GPT-3(同樣為OpenAI產(chǎn)品,但已經(jīng)開源)為基座,通過在底層調(diào)用GPT-3模型研發(fā)出屬于自己的文本生成AI模型,并推出了多項訂閱服務(wù)。其中,訂閱服務(wù)的收費主要分為三檔:Starter檔的收費標準29美元月起,更為常用的BossMode會員則是59美元/月起,另外還有更高昂的企業(yè)級收費。即使是59美元/月的BossMode最基礎(chǔ)檔,其也只提供5萬字/月的服務(wù),對比ChatGPT不限量的生成字數(shù),我們認為,ChatGPT這類產(chǎn)品的訂閱收費未來的天花板遠不止20美元,這背后自然是更為廣闊的藍海市場。5.2嵌入其他產(chǎn)品獲得引流式收入而除了模型本身進行訂閱收費以外,MaaS目前也在積極嘗試其他各類收費模式。例如,2月1日,微軟也宣布推出其視頻會議及遠程協(xié)作平臺的高級付費版MicrosoftTeamsPremium,這項高級服務(wù)將在6月份每月收費7美元,然后在7月份恢復(fù)到正常的10美元。訂閱者可享用由OpenAIGPT-3.5(支撐ChatGPT的底層模型)提供支持的大型語言模型技術(shù),即“智能回顧(IntelligentRecap)”這一重要功能,該功能將提供自動生成的會議記錄、推薦任務(wù)和個性化標亮?;贠penAI的GPT-3.5模型,即使用戶沒有參加會議,「智能回顧」也能生成會議記錄和要點。當(dāng)會議在尷尬的時間舉行時,或者當(dāng)員工在不同的時區(qū)以及不在辦公室時,這項功能使緊張的工作變得更容易了。筆記、提到的內(nèi)容和完整的文字記錄都是可用的,每個發(fā)言者的貢獻都會在一個整齊的主題和章節(jié)的時間軸上突出顯示。如果有同事在會議中提到用戶,用戶還會得到個性化的時間線標記,以快速查看分享和討論的內(nèi)容。雖然大多數(shù)智能回顧功能目前已經(jīng)可以使用,但微軟表示有些功能要到2023年第二季度才會出現(xiàn)。此外,2月2日,微軟旗下Dynamics365產(chǎn)品線(ERP+CRM程序)發(fā)布視頻,宣布旗下客戶關(guān)系管理軟件VivaSales也將集成OpenAI的技術(shù),通過人工智能幫助銷售人員完成許多繁雜且重復(fù)的文字工作。利用OpenAI的GPT-3.5模型,VivaSales可以為電子郵件里客戶的問題生成回復(fù)建議。該產(chǎn)品在Outlook電子郵件客戶端中提供了創(chuàng)建特定回復(fù)的選項。例如,銷售人員可以從“提供折扣”(Offeradiscount)、“回復(fù)詢問”(Replytoaninquiry)或“自行創(chuàng)建”(Suggestyourown)等選項中進行選擇,然后人工智能將創(chuàng)建可使用的內(nèi)容。AI程序從客戶記錄和Office電子郵件軟件中提取數(shù)據(jù),將它們用于生成個性化文本、定價細節(jié)和促銷信息的電子郵件。雖然,GPT-3.5并未在VivaSales中作為單獨的收費項目存在,但是VivaSales作為CRM產(chǎn)品本身每月就收費40美元,假設(shè)有1000萬客戶是因為GPT-3.5而選購VivaSales,則代表GPT-3.5每年能夠為微軟帶來48億美元的收入。5.3不同的Model應(yīng)對不同的客戶需求和客戶定價仍以O(shè)penAI為例,在推出ChatGPT以前,其主要收入來源于對外部客戶開源自身大模型,通過提供API接口調(diào)用來收費。例如用于創(chuàng)建和編輯原始圖像的DALL·E模型,就有大量對AI生成圖像這一功能存在需求的公司選擇調(diào)用該模型制造自身的產(chǎn)品,如Mixtiles,其是一家發(fā)展迅速的照片創(chuàng)業(yè)公司,其利用DALL·EAPI來創(chuàng)建和構(gòu)建能引起情感共鳴的藝術(shù)品(圖片),通過引導(dǎo)用戶完成捕捉童年記憶、夢想目的地等的創(chuàng)作過程。而CALA同樣調(diào)用了DALL.E模型,但是CALA作為數(shù)字平臺,將整個設(shè)計流程——從產(chǎn)品構(gòu)思一直到電子商務(wù)支持和訂單履行統(tǒng)一到了一起,DALL.E僅在這一流程中起到了支持作用,使得CALA的智能工具允許用戶從自然文本描述或上傳的參考圖像中生成新的設(shè)計理念圖??梢钥闯?,相較于Mixtiles,CALA對于DALL.E模型的應(yīng)用更偏商業(yè),對于細節(jié)的要求也更高,那在這種情況下,CALA和Mixtiles兩者調(diào)用DALL.E模型的收費肯定是有所不同的。而這都是針對圖像生成模型DALL.E,而文本生成模型的GPT-3,其收費肯定跟DALL.E又有許多的不同。又比如,前文提及的Jasper對于GPT-3的調(diào)用是需要收取費用的,如果未來的GPT-4恢復(fù)對外商用,那么作為比GPT-3更強大的模型,相信其的收費也會高于調(diào)用GPT-3??偨Y(jié)來說,不同的Model應(yīng)對不同的客戶需求和客戶定價肯定也會有所不同,客戶的要求越高,使用的模型越好,那么大模型的收費也將會更高。6.全球重要人工智能MaaS公司6.1商湯科技:A2.0時代的全球領(lǐng)導(dǎo)者商湯科技擁有深厚的學(xué)術(shù)積累,并長期投入于原創(chuàng)技術(shù)研究,不斷增強行業(yè)領(lǐng)先的全棧式人工智能能力,涵蓋感知智能、決策智能、智能內(nèi)容生成和智能內(nèi)容增強等關(guān)鍵技術(shù)領(lǐng)域,同時包含AI芯片、AI傳感器及AI算力基礎(chǔ)設(shè)施在內(nèi)的關(guān)鍵能力。此外,商湯前瞻性打造新型人工智能基礎(chǔ)設(shè)施——SenseCore商湯AI大裝置,打通算力、算法和平臺,大幅降低人工智能生產(chǎn)要素價格,實現(xiàn)高效率、低成本、規(guī)?;腁I創(chuàng)新和落地,進而打通商業(yè)價值閉環(huán),解決長尾應(yīng)用問題,推動人工智能進入工業(yè)化發(fā)展階段。商湯科技業(yè)務(wù)涵蓋智慧商業(yè)、智慧城市、智慧生活、智能汽車四大板塊,相關(guān)產(chǎn)品與解決方案深受客戶與合作伙伴好評。近年來人工智能已經(jīng)邁入到一個新的階段,即現(xiàn)在正在進入一個超大模型的時代,超大模型的訓(xùn)練pipeline,需要相當(dāng)大的算力支撐,而這恰恰是商湯的優(yōu)勢所在。2022年1月24日,商湯人工智能計算中心AIDC正式啟動運營。AIDC是SenseCore商湯AI大裝置的重要算力基座,其設(shè)計峰值算力超過3740Petaflops,是亞洲最大的人工智能計算中心之一。商湯人工智能計算中心AIDC配合商湯自研的資源管理和調(diào)度框架,能夠?qū)崿F(xiàn)資源支持按需調(diào)用、動態(tài)伸縮,從而在模型訓(xùn)練中,支持不同優(yōu)先級訓(xùn)練任務(wù)的資源調(diào)度和資源搶占。區(qū)別于“AI模型”小作坊式的打造,AI大裝置更像流水線工廠,可以實現(xiàn)不同場景的算法模型的底層抽象,以模塊化平臺套件打造通用型服務(wù)平臺。特別是針對AI落地中更長尾的客戶和場景,能夠在組合不同算法套件的基礎(chǔ)上完成新場景的定制,以低邊際成本實現(xiàn)對新場景的規(guī)?;采w。并且商湯基于AI平臺基礎(chǔ)設(shè)施的系統(tǒng)協(xié)同性,可以以半自動化、自適應(yīng)的方式,就能實現(xiàn)批量的算法模型生產(chǎn)和迭代升級。對于商湯來講,一方面商湯的超算中心有大量的算力支撐,能夠更有效做數(shù)據(jù)挖掘。另一方面是有超大模型,能夠快速生成高精度的偽標簽,以及賦能業(yè)務(wù)端的模型。這樣在超大模型跟超算中心的加持下,可以更好地解決這些數(shù)據(jù)閉環(huán)里特定場景的問題。截至2021年中,商湯已建成世界上最大的計算模型,該模型擁有超過300億個參數(shù)。這能夠幫助公司實現(xiàn)快速模型迭代,從而為公司大模型在各行各業(yè)的持續(xù)落地奠定堅實的基礎(chǔ)。6.2云從科技:AI人工智能基礎(chǔ)模型賦能應(yīng)用云從科技成立于2015年,是一家提供高效人機協(xié)同操作系統(tǒng)和行業(yè)解決方案的人工智能企業(yè)。公司一方面憑借著自主研發(fā)的人工智能核心技術(shù)打造了人機協(xié)同操作系統(tǒng),通過對業(yè)務(wù)數(shù)據(jù)、硬件設(shè)備和軟件應(yīng)用的全面連接,把握人工智能生態(tài)的核心入口,為客戶提供信息化、數(shù)字化和智能化的人工智能服務(wù);另一方面,公司基于人機協(xié)同操作系統(tǒng),賦能智慧金融、智慧治理、智慧出行、智慧商業(yè)等應(yīng)用場景,為更廣泛的客戶群體提供以人工智能技術(shù)為核心的行業(yè)解決方案。公司秉持開放的人機協(xié)同發(fā)展理念,與上下游獨立硬件供應(yīng)商、獨立軟件供應(yīng)商、平臺及行業(yè)應(yīng)用提供方共建共享。公司的人機協(xié)同操作系統(tǒng)一方面包括根據(jù)不同應(yīng)用場景客戶需求提供的多種人機協(xié)同應(yīng)用產(chǎn)品和整體操作系統(tǒng),服務(wù)于客戶單點業(yè)務(wù)效能提升和整體業(yè)務(wù)場景智能化升級;另一方面也包括輕量化且功能全面的“輕舟平臺”(即通用服務(wù)平臺),通過開放式地引入生態(tài)伙伴共同開發(fā)AI應(yīng)用及配套SaaS服務(wù),使人工智能服務(wù)惠及更廣泛的各行業(yè)客戶。根據(jù)財經(jīng)網(wǎng),全世界AI頭部公司基本都在10億以上收入水平,中國AI領(lǐng)域平臺型企業(yè)只有2-3家。公司同時滿足了“10億收入”與“平臺型企業(yè)”,作為業(yè)內(nèi)稀缺的AI平臺型龍頭企業(yè),未來發(fā)展前景廣闊。公司的研究團隊高度認同“預(yù)訓(xùn)練大模型+下游任務(wù)遷移”的技術(shù)趨勢,從2020年開始,已經(jīng)陸續(xù)在NLP、OCR、機器視覺、語音等多個領(lǐng)域開展預(yù)訓(xùn)練大模型的實踐,不僅進一步提升了公司各項核心算法的性能效果,同時也大幅提升了公司的算法生產(chǎn)效率,已經(jīng)在城市治理、金融、智能制造等行業(yè)應(yīng)用中體現(xiàn)價值;其次,公司一直以來都在人機協(xié)同領(lǐng)域布局,打造了像人一樣思考和工作的人機協(xié)同操作系統(tǒng)(CWOS),致力于整合打通視覺、語音、NLP等多個領(lǐng)域的大模型,不止于像ChatGPT那樣在文本世界實現(xiàn)超級智能,還要徹底打通數(shù)字世界和物理世界,為“像人一樣思考和工作”打下堅實的技術(shù)基礎(chǔ);公司也通過開放的人機協(xié)同操作系統(tǒng)實現(xiàn)了技術(shù)平臺化,加上多年的行業(yè)深耕,能夠通過“平臺化的通用模型+帶行業(yè)knowhow的專用模型”來幫助各行各業(yè)快速實現(xiàn)智能化升級。公司認為,大模型給AI行業(yè)帶來了巨大的想象空間和市場機會,也是公司的巨大想象空間和市場機會。此外,根據(jù)公司招股說明書,公司的股權(quán)結(jié)構(gòu)全由內(nèi)資組成,而純內(nèi)資的背景和技術(shù)實力的領(lǐng)先,也使得公司承擔(dān)了多項國家級項目。2022年10月,科技部正式批復(fù)了最新一批國家人工智能開放創(chuàng)新平臺名單,支持云從科技建設(shè)視聽交互國家新一代人工智能開放創(chuàng)新平臺,這是人工智能行業(yè)第一個融合多種技術(shù)的智能交互平臺。此次云從科技承建該平臺也是繼國家發(fā)改委“人工智能基礎(chǔ)資源公共服務(wù)平臺”和“高準確度人臉識別系統(tǒng)產(chǎn)業(yè)化及應(yīng)用項目”之后的又一國家級重大項目建設(shè)任務(wù)。這是云從科技全力打造的人機協(xié)同操作系統(tǒng)重要組成部分,根據(jù)規(guī)劃,平臺總體建設(shè)目標是要打造國際領(lǐng)先的視聽交互支撐平臺,形成視聽交互技術(shù)創(chuàng)新領(lǐng)域的策源地、成果轉(zhuǎn)化的助推器和開放服務(wù)體制機制的試驗田。在自主可控受重視度不斷提升的當(dāng)下,公司這類純內(nèi)資的AI領(lǐng)軍企業(yè)有望成為重要的AI基礎(chǔ)設(shè)施提供商。6.3科大訊飛:有望在預(yù)訓(xùn)練認知智能大模型上代表中國實現(xiàn)突破科大訊飛股份有限公司成立于1999年,是亞太地區(qū)知名的智能語音和人工智能上市企業(yè)。自成立以來,一直從事智能語音、自然語言理解、計算機視覺等核心技術(shù)研究并保持了國際前沿技術(shù)水平;積極推動人工智能產(chǎn)品和行業(yè)應(yīng)用落地,致力讓機器“能聽會說,能理解會思考”,用人工智能建設(shè)美好世界。作為技術(shù)創(chuàng)新型企業(yè),科大訊飛堅持源頭核心技術(shù)創(chuàng)新,多次在語音識別、語音合成、機器翻譯、圖文識別、圖像理解、閱讀理解、機器推理等各項國際評測中取得佳績。兩次榮獲“國家科技進步獎”及中國信息產(chǎn)業(yè)自主創(chuàng)新榮譽“信息產(chǎn)業(yè)重大技術(shù)發(fā)明獎”,被任命為中文語音交互技術(shù)標準工作組組長單位,牽頭制定中文語音技術(shù)標準??拼笥嶏w堅持“平臺+賽道”的發(fā)展戰(zhàn)略。基于擁有自主知識產(chǎn)權(quán)的核心技術(shù),2010年,科大訊飛在業(yè)界發(fā)布以智能語音和人機交互為核心的人工智能開放平臺——訊飛開放平臺,為開發(fā)者提供一站式人工智能解決方案。截至2022年5月31日,訊飛開放平臺已開放493項AI產(chǎn)品及能力,聚集超過337.3萬開發(fā)者團隊,總應(yīng)用數(shù)超過150.1萬,累計覆蓋終端設(shè)備數(shù)35.1億+,AI大學(xué)堂學(xué)員總量達到69.9萬,鏈接超過420萬生態(tài)伙伴,以科大訊飛為中心的人工智能產(chǎn)業(yè)生態(tài)持續(xù)構(gòu)建??拼笥嶏w在智能語音和人工智能核心研究和產(chǎn)業(yè)化方面的突出成績得到了社會各界和國內(nèi)外的廣泛認可,作為“中國人工智能國家隊”一員已形成共識。2018年起,預(yù)訓(xùn)練模型范式就逐步開始在自然語言處理領(lǐng)域應(yīng)用,科大訊飛也正是在那一時期推出了預(yù)訓(xùn)練模型。科大訊飛人工智能高級階段——認知智能領(lǐng)域的首個國家級重點實驗室。2022年在國家重點實驗室重組后的首批20個國家標桿實驗室中,訊飛是唯一一家承建認知智能全國重點實驗室。同時,訊飛面向認知智能領(lǐng)域陸續(xù)開源了6大類、超過40個通用領(lǐng)域的系列中文預(yù)訓(xùn)練語言模型,開源3年模型庫月均調(diào)用量超1000萬,成為業(yè)界最廣泛流行的中文預(yù)訓(xùn)練模型之一,在Github平臺的中文預(yù)訓(xùn)練模型的星標數(shù)達13346位列第一(第二名為6351)。2022年,訊飛進一步發(fā)布了面向多模態(tài)領(lǐng)域的兩個輕量級預(yù)訓(xùn)練模型,實現(xiàn)多尺度層級預(yù)訓(xùn)練、有監(jiān)督強化聚類表征、多預(yù)訓(xùn)練任務(wù)聯(lián)合優(yōu)化框架等創(chuàng)新點,在參數(shù)量遠小于業(yè)界公開模型(參數(shù)量小20倍以上)的情況下識別效果提升了20~30%,效果上實現(xiàn)了業(yè)界領(lǐng)先,同時也獲得全球多模態(tài)閱讀理解評測冠軍等優(yōu)異成績。公司有信心在預(yù)訓(xùn)練認知智能大模型上代表中國實現(xiàn)突破。首先,科大訊飛承建了中國唯一的認知智能國家重點實驗室,具備算法實現(xiàn)和持續(xù)創(chuàng)新的能力,已經(jīng)在眾多國際比賽中奪得冠軍;其次,公司的訓(xùn)練服務(wù)器、推理服務(wù)器在國產(chǎn)自主平臺運行至關(guān)重要+;第三,預(yù)訓(xùn)練模型在專業(yè)領(lǐng)域,諸如在教育領(lǐng)域,醫(yī)療領(lǐng)域,如果能夠和行業(yè)場景深度結(jié)合,潛在商業(yè)價值的機會空間巨大。6.4百度:文心大模型持續(xù)賦能各產(chǎn)業(yè)智能化升級2021年12月,百度發(fā)布了全球首個知識增強千億級大模型——鵬城-百度·文心大模型,產(chǎn)業(yè)級知識增強“文心大模型”系列大模型也正式對外。百度文心大模型正從技術(shù)自主創(chuàng)新和加速產(chǎn)業(yè)應(yīng)用兩方面,推動中國AI發(fā)展更進一步。2022年11月,百度發(fā)布了文心大模型的最新升級,包括新增11個大模型,大模型總量增至36個,構(gòu)建起業(yè)界規(guī)模最大的產(chǎn)業(yè)大模型體系,并通過大模型工具與平臺的升級和文心一格、文心百中等基于大模型技術(shù)的產(chǎn)品應(yīng)用,進一步降低大模型產(chǎn)業(yè)化門檻,讓更多企業(yè)和開發(fā)者步入AI應(yīng)用的新階段。目前,文心大模型已經(jīng)擁有了:文心·NLP大模型:面向語言理解、語言生成等NLP場景,具備超強語言理解能力以及對話生成、文學(xué)創(chuàng)作等能力。文心·CV大模型:基于領(lǐng)先的視覺技術(shù),利用海量的圖像、視頻等數(shù)據(jù),為企業(yè)和開發(fā)者提供強大的視覺基礎(chǔ)模型,以及一整套視覺任務(wù)定制與應(yīng)用能力。文心·跨模態(tài)大模型:基于知識增強的跨模態(tài)語義理解關(guān)鍵技術(shù),可實現(xiàn)跨模態(tài)檢索、圖文生成、圖片文檔的信息抽取等應(yīng)用的快速搭建,落實產(chǎn)業(yè)智能化轉(zhuǎn)型的AI助力。文心·生物計算大模型:融合自監(jiān)督和多任務(wù)學(xué)習(xí),并將生物領(lǐng)域研究對象的特性融入模型。構(gòu)建面向化合物分子、蛋白分子的生物計算領(lǐng)域預(yù)訓(xùn)練模型,賦能生物醫(yī)藥行業(yè)。行業(yè)大模型:文心大模型與各行業(yè)企業(yè)聯(lián)手,在通用大模型的基礎(chǔ)上學(xué)習(xí)行業(yè)特色數(shù)據(jù)與知識,建設(shè)行業(yè)AI基礎(chǔ)設(shè)施。為了讓開發(fā)者更加方便、快速地使用大模型的最新能力,文心大模型工具與平臺進行了全面更新。在工具方面,文心大模型開發(fā)套件全面升級,發(fā)布行業(yè)大模型定制工具,同時提供更加完備的場景化建模工具、更為豐富的模型精調(diào)工具,以及大模型可信學(xué)習(xí)工具,讓大模型開發(fā)訓(xùn)練更加靈活高效;文心API服務(wù)支持多種模型尺寸的精調(diào),體驗專區(qū)提供更多可體驗?zāi)芰Γ瑫r基于大規(guī)模集群算力分布式推理加速能力,可滿足大規(guī)模高性能產(chǎn)業(yè)級調(diào)用。飛槳(百度深度學(xué)習(xí)平臺)企業(yè)版AI開發(fā)平臺EasyDL和BML也圍繞大模型的技術(shù)應(yīng)用進行了全新升級,發(fā)布了提供全流程開箱即用的大模型平臺能力,加速大模型的產(chǎn)業(yè)化落地。EasyDL零門檻AI開發(fā)平臺預(yù)置了各種通用任務(wù)場景大模型,可以讓AI應(yīng)用開發(fā)者獲得更好的模型訓(xùn)練效果。在BML全功能AI開發(fā)平臺上,端到端的并行訓(xùn)練優(yōu)化方案大幅提升了大模型訓(xùn)練性能;預(yù)置的基于大模型的場景模型生產(chǎn)線,讓開發(fā)者在主流的場景開箱即用,快速構(gòu)建大模型場景應(yīng)用;新增的自動化推理服務(wù)監(jiān)控能力,及時感知變化和問題,驅(qū)動反饋和迭代,讓AI應(yīng)用的高效迭代閉環(huán)。6.5華為:以昇騰AI芯片為基聯(lián)合產(chǎn)業(yè)界開創(chuàng)大模型產(chǎn)業(yè)化新模式華為的大模型之路與其騰AI芯片有著密不可分的關(guān)系,騰AI芯片總共有兩款,一個是2018年發(fā)布的騰310,它主要針對的是推理應(yīng)用;另一個是2019年發(fā)布的針對訓(xùn)練應(yīng)用的騰

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論