2025十大AI技術(shù)趨勢_第1頁
2025十大AI技術(shù)趨勢_第2頁
2025十大AI技術(shù)趨勢_第3頁
2025十大AI技術(shù)趨勢_第4頁
2025十大AI技術(shù)趨勢_第5頁
已閱讀5頁,還剩47頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

2mogo2mogoo24……otOFO人O人Mk0Mk0a0…0…OrOrk0o0000800HYerOToor0.0teoo00歲月不居,時節(jié)如流。站在新舊交接的十字路口回望,一系列前所未見的技術(shù)突破正在重塑機器智能的定義,引發(fā)著深層次的變革,預(yù)示著更新、更美好的智能圖景。大模型的持續(xù)進化,如同蝴蝶振翅般顛覆了我們對人工智能的傳統(tǒng)理解。從初次嘗試新架構(gòu)到發(fā)現(xiàn)新的普適定律,從能力泛化到模態(tài)無縫融合,這些突破性進展正在不斷刷新機器智能的邊界。大模型逐步擁抱文本、視覺、音頻、乃至3D數(shù)據(jù),實現(xiàn)了感知與認知能力的全面升級,機器具備了更加細膩豐富的理解能力,人機交互煥發(fā)了全新的活力。與此同時,人工智能正在向著另一個關(guān)鍵維度挺進--對真實物理世界的模擬與適應(yīng)。在這一主題下,機器不僅能夠自主感知和推理復(fù)雜場景,更能夠主動規(guī)劃行動、做出決策。而具身智能的加速落地,又進一步塑造了機器的物理形態(tài)。從感知到?jīng)Q策再到控制執(zhí)行,端到端的智能系統(tǒng)正在崛起,機器的適應(yīng)性和靈活性持續(xù)突破。令人振奮的是,這些趨勢正互為助力、相得益彰?;P湍芰Φ?,為世界模擬和具身智能注入了更精準(zhǔn)的感知與認知基礎(chǔ),應(yīng)用落地數(shù)據(jù)又反哺著基座模型的成長;大模型的驚人能量,撬動著基礎(chǔ)科學(xué)的浩瀚宇宙,大模型本身又作為科研對象,靜候研究者揭曉它更深的奧秘。在這些力量的驅(qū)動下,AgenticAI與新時代的超級應(yīng)用應(yīng)運而生,悄然滲入每個人的工作和生活中,春風(fēng)化雨般改變著人機交互的形態(tài)。光明總是與黑暗共存。技術(shù)和應(yīng)用正在高歌猛進,重塑人類社會的方方面面,而安全隱患在暗處滋生。我們必須建立起與日益智能的機器系統(tǒng)相稱的安全技術(shù)框架,探索具備最大共識的治理之道,才能最大限度地釋放人工智能的無窮潛能,讓技術(shù)以負責(zé)任的方式造福人類社會。于是,在2025年的開端,我們提出十個人工智能技術(shù)及應(yīng)用趨勢。通過深入剖析科技的演進軌跡,更清晰地洞察未來幾年的科技發(fā)展方向,預(yù)測哪些核心技術(shù)將成為關(guān)鍵驅(qū)動力、哪些新興技術(shù)將蓬勃發(fā)展,它們將如何以創(chuàng)新之力指引人類社會邁向更加智能、美好與互聯(lián)的未來??萍嫉氖锕鈱⒄找祟惽靶械穆吠?。這些技術(shù)將在激烈的競爭與協(xié)作中相互促進,共同譜寫人與智能系統(tǒng)共生共榮的磅礴篇章。而我們作為親歷者,將見證科技為人類文明注入澎湃動··趨勢一科學(xué)的未來:Al4S驅(qū)動科學(xué)研究范式變革p04“具身智能元年”:具身大小腦和本體的協(xié)同進化p06科學(xué)的未來:Al4S驅(qū)動科學(xué)研究范式變革·2024年度的諾貝爾物理學(xué)獎、化學(xué)獎均頒發(fā)給了AI領(lǐng)域科學(xué)家。大模型引領(lǐng)下的Al4S,已成為推動科學(xué)研究范式變革的關(guān)鍵力量?!隹茖W(xué)研究的范式帶有其所處時代的認知水平、價值取向、工具先進性、科研資源等因素的深刻烙印。自人類開始記錄自然現(xiàn)象以來,科學(xué)研究經(jīng)歷了經(jīng)驗觀察、理論建構(gòu)、仿真模擬、數(shù)據(jù)驅(qū)動的科學(xué)發(fā)現(xiàn)四個階段。大模型時代,Al4S(AlforScience)展現(xiàn)出的賦能效果與小模型時期大相徑庭。傳統(tǒng)人工智能在科學(xué)研究中多聚焦于特定任務(wù)的優(yōu)化,如數(shù)據(jù)挖掘算法輔助科研數(shù)據(jù)處理,或基于既有模式進行推理預(yù)測,但其模型規(guī)模與泛化能力有限,難以解決復(fù)雜問題。而大模型以海量數(shù)據(jù)訓(xùn)練,具備強大的跨領(lǐng)域知識整合能力;模型架構(gòu)賦予其多層次的學(xué)習(xí)和處理能力,能夠捕捉高維數(shù)據(jù)中的復(fù)雜結(jié)構(gòu)和模式,并對復(fù)雜科學(xué)問題進行整體理解與全局綜合分析。大模型還能通過生成式能力提出創(chuàng)新性假設(shè),為科學(xué)研究開辟新方向。高性能算力的支持下,大模型正以前所未高性能算力的支持下,大模型正以前所未推動科研突破、解決實際問題的強勁動力。2024年2月,俄亥俄州立大學(xué)發(fā)布用于執(zhí)行化學(xué)任務(wù)描述、化學(xué)反應(yīng)知識等任務(wù)上取得較優(yōu)成績;同時,研究團隊發(fā)布了包含14個任務(wù)、300多萬個高質(zhì)量樣本的數(shù)據(jù)集SMollnstruct,為后續(xù)相關(guān)2025十大AI技術(shù)趨勢phicLabs團隊聯(lián)合發(fā)布AlphaFold3,能夠準(zhǔn)確預(yù)測蛋白質(zhì)與其他分子的相互作用,相較上一代模型,應(yīng)用范圍取得巨大突破。國內(nèi)方面,2024年6月,中國氣象局發(fā)布“風(fēng)清”"風(fēng)順""風(fēng)雷"三個人工智能氣象大模型系統(tǒng),具有大氣強物理融入和可解釋性,在實現(xiàn)高效計算ααpdpdggoo2動挖掘包括天氣系統(tǒng)內(nèi)在的物理演變。12月,北京智源人工智能研究院提出的BAAIWorm天寶●被選為NatureComputationalScience期刊封面;BAAIWorm是一個全新的、基于數(shù)據(jù)驅(qū)動的生物智能模擬系統(tǒng),首次實現(xiàn)秀麗線蟲的精細神經(jīng)系統(tǒng)、身體與環(huán)境的閉環(huán)仿真,為探索大腦與行為之間的神經(jīng)機制提供重要研究平臺。此外,智源研究院正在研發(fā)OpenComplex平臺,該平臺建立了將蛋白質(zhì)結(jié)構(gòu)預(yù)測、RNA結(jié)構(gòu)預(yù)測和蛋白質(zhì)-RNA復(fù)合物結(jié)構(gòu)預(yù)測三類任務(wù)統(tǒng)一的端到端生物大分子三維結(jié)構(gòu)預(yù)測深度學(xué)習(xí)框架,以期逐步構(gòu)建能夠模擬生物過程的"數(shù)字孿生系統(tǒng)"。2025年,多模態(tài)大模型將進一步融入科學(xué)研究,賦能多維數(shù)據(jù)的復(fù)雜結(jié)構(gòu)挖掘,輔助科研問題的綜合理解與全局分析,為生物醫(yī)學(xué)、氣象、材料發(fā)現(xiàn)、生命模擬、能源等基礎(chǔ)與應(yīng)用科學(xué)的研究開辟新方向。(正是因為AI的影響),我們看到原本如同黑魔法找到解決方案)轉(zhuǎn)變?yōu)閷嶋H合理的設(shè)計。2025十大AI技術(shù)趨勢趨勢二/“具身智能元年”:具身大小腦和本體的協(xié)同進化"具身智能元年":具身大小腦和本體的協(xié)同進化·2024年,全球范圍內(nèi)的具身智能競爭日漸白熱化。從融資規(guī)模、產(chǎn)品發(fā)布等多維度來看,中美兩國在該領(lǐng)域執(zhí)行業(yè)牛耳。以國內(nèi)為例,根據(jù)智源研究院數(shù)據(jù)統(tǒng)計,截至2024年底,國內(nèi)已發(fā)布或在研人形機器人接近100家,融資規(guī)模超100億元,稱之為“百機大戰(zhàn)”并不為過?!膹S商類型來看,專注本體/零部件、具身腦、具身腦和本體并重等三類廠商主導(dǎo)具身智能行業(yè)。自2024年5月以后,獲得融資的“專注本體”的具身初創(chuàng)企業(yè)融資事件數(shù)平均占比較前五月下降了36.8%??梢哉J為,具身賽道的創(chuàng)業(yè)和資本熱度已從本體擴展到具身大小腦?!は噍^于整體成熟、更注重細節(jié)創(chuàng)新的本體,大模型目前在具身大腦應(yīng)用較多。在具身小腦方向,大模型的應(yīng)用嘗試將將起步。本體方面,作為一個相對成熟的領(lǐng)域,在本輪具身智能熱度中,更傾向于在細分領(lǐng)域有所創(chuàng)新。比如靈巧手為代表的末端執(zhí)行器、觸覺傳感器為代表的傳感器、面向具身專門設(shè)計的感知芯片等細分領(lǐng)域,在2025年均可能迎來更新迭代。本體小腦(大模型)大腦任務(wù)輸入至于具身大模型,目前已形成兩條主流技術(shù)路線:端到端模型和分層決策模型。分層模型方面,LLM、VLM等已成為具身大腦的主流范式,而小腦側(cè)仍以傳統(tǒng)控制方法為主。端到端模型,作為近兩年的研究熱點,覆蓋感知-決策-控制全流程,理論上可獲取的信息量最為豐富,端到端的輸出效果最優(yōu)。就模型賦能效果來看,具身大模型已在感知決策端實現(xiàn)了較好的多任務(wù)遷移和處理,但控制執(zhí)行側(cè)的泛化仍需要技術(shù)路徑的持續(xù)迭代和模型規(guī)模的Scalingup,這或可成為2025年的突破方向。2025十大AI技術(shù)趨勢Trend2內(nèi)外科技大廠及研究機構(gòu)在近兩年時間內(nèi)密集推出具身模型成果。到機器人領(lǐng)域,表現(xiàn)出較好的長時序任務(wù)執(zhí)行能現(xiàn)了感知信息輸入-動作控制信息輸出。RT-X基于自采的大規(guī)模、多樣化數(shù)據(jù)集訓(xùn)練,支持在多機器人平臺、泛化任務(wù)和環(huán)境間遷移,通用性進一步提升。斯坦福大學(xué)在2023年發(fā)布的多模態(tài)視覺模型VoxPoser(LLM+VLM),可根據(jù)感知到的環(huán)境信息與用戶指令,指導(dǎo)合成機器人所需執(zhí)行的操作軌跡。PhysicalIntelligence公司發(fā)布π通用機器人基礎(chǔ)模型,將互聯(lián)網(wǎng)規(guī)模的視覺-語言預(yù)訓(xùn)練與實際機器人交互數(shù)據(jù)相結(jié)合,在五項機器人任務(wù)的評估中優(yōu)于其他的基線模型。國內(nèi)方面,銀河通用嘗試?yán)萌S視覺小模型+基礎(chǔ)大模型的技術(shù)組合解決具身模型泛化能力差,響應(yīng)速度慢的問題。目前,銀河通用的具身大無人值守藥房,承擔(dān)補貨、取貨等任務(wù);星海圖持續(xù)推動在具身本體及核心模組、端到端Al算法以及場景解決方案的研發(fā)及落地;北京智源人工智能研究院基于快系統(tǒng)和慢系統(tǒng)的設(shè)計路線,將快系統(tǒng)用于產(chǎn)生快速直覺的動作,當(dāng)通過快系統(tǒng)執(zhí)行任務(wù)失敗時,再通過慢系統(tǒng)檢測、定位任務(wù)失敗節(jié)點,并進行糾正。2025年的具身智能,將繼續(xù)從本體擴展到具身腦的敘事主線,我們可以從三方面有更多期待。在行業(yè)格局上,近百家的具身初創(chuàng)或?qū)⒂瓉硐磁?,廠商數(shù)量開始收斂;在技術(shù)路線上,端到端模型繼續(xù)迭代,小腦大模型的嘗試或有突破;在商業(yè)變現(xiàn)上,我們也必將看到更多的工業(yè)場景下的具身智能應(yīng)用,部分人形機器人迎來量產(chǎn)。2025十大AI技術(shù)趨勢趨勢二/“具身智能元年”:具身大小腦和本體的協(xié)同進化黃仁勛人工智能的下一個浪潮將是具身智能,即能理解、推理、并與物理世界互動的智能系統(tǒng)。統(tǒng)一的多模態(tài)大模型實現(xiàn)更高效AI·2023年以來的大模型熱度肇始于LLM在多任務(wù)中的涌現(xiàn),但囿于LLM所學(xué)習(xí)的模態(tài)單一,模型能力很難向高維的真實世界拓展。而人工智能的本質(zhì)在于對人的思維的信息過程的模擬,人類對于信息的■以傳統(tǒng)多模態(tài)大模型為例,DiffusionTransformer(DiT)和LLM+CLIP是當(dāng)前主流的多模態(tài)構(gòu)建路立的,大模型對多種模態(tài)數(shù)據(jù)理解的不充分會導(dǎo)致多種模態(tài)生成的割裂和誤差增大。因此,從訓(xùn)練之全模態(tài)01推理模型(慢思考)(文生圖/視頻年,海外頭部模型廠商積極布局原生多模態(tài)模型,在性能泛化上也得到初步證明。2024年5月,OpenAI發(fā)布了新一代原生多模態(tài)基礎(chǔ)模型GPT-4o,這款模型的創(chuàng)新之處在于放棄了GPT-4等前代模型使用獨立神經(jīng)網(wǎng)絡(luò)處理不同輸入數(shù)據(jù)的做法,采用單一統(tǒng)一的神經(jīng)網(wǎng)絡(luò)來處理所有輸入,這一創(chuàng)新使得GPT-40在多模態(tài)融合能力顯著提升,OpenAI團2025十大AI技術(shù)趨勢發(fā)布原生多模態(tài)大模型Chameleon,模型同樣采用了統(tǒng)一的Transformer架構(gòu),使用10萬億token文本、圖像和代碼混合模態(tài)數(shù)據(jù)完成訓(xùn)練,34B參數(shù)模型性能接近GPT-4V,并且同時生成兩種模態(tài)。12月,OpenAl發(fā)布01正式版,更側(cè)重復(fù)雜問題的解決和更強大的推理能力,在STEM方面表現(xiàn)出色,尤其是科學(xué)、編程、數(shù)學(xué)模型等方面能力更為突出;同月,Google發(fā)布原頻等多模態(tài)輸入和輸出,可調(diào)用Google原生的代碼、搜索以及第三方工具。相較于海外原生多模態(tài)大模型的如火如茶,國內(nèi)原生多模態(tài)大模型目前處于探索階段。2024年9月,北京智源人工智能研究院發(fā)布完全自研的自回歸原生多模態(tài)大模型Emu3-8B,成為國內(nèi)首發(fā)全自研原生多模態(tài)大模型。目前存在一種趨勢,即多模態(tài)?,F(xiàn)如今,多模態(tài)技術(shù)的發(fā)展趨勢在于整合不同類型的模態(tài)信息。2025十大AI技術(shù)趨勢RL+LLMs,模型泛化從預(yù)訓(xùn)練向后訓(xùn)練、推理遷移■ScalingLaw(規(guī)模定律)作為大模型領(lǐng)域的“第一性原理”,主要強調(diào)模型性能與模型參數(shù)量、數(shù)據(jù)量和計算量的正相關(guān)關(guān)系,在GPT-4、Claude3.5等基礎(chǔ)模型訓(xùn)練中發(fā)揮了不可或缺的指引作用?!r至2024年末,通過基于Chinchilla或OpenAIScalingLaw,擴大模型參數(shù)量和數(shù)據(jù)量帶來的模型性能提升已有所放緩。盡管根據(jù)EpochAl對電力、芯片、數(shù)據(jù)獲取及處理能力等預(yù)訓(xùn)練關(guān)鍵要素的增長空間測算,預(yù)訓(xùn)練ScalingLaw仍在生效,海外頭部廠商也仍在大力投入超大規(guī)模集群的建設(shè),我們還可期待在2025年看到下一代基礎(chǔ)模型的到來。但不得不承認的是,由于預(yù)訓(xùn)練ScalingLaw亞線性的冪律關(guān)系客觀存在,通過預(yù)訓(xùn)練實現(xiàn)模型性能提升的門檻在不斷加高,距離GPT-4發(fā)擴展到后訓(xùn)練、推理等其他階段。大模型訓(xùn)練的共識逐漸從“資源獲取”轉(zhuǎn)向"資源分配”,算力和數(shù)據(jù)從預(yù)訓(xùn)練向包括微調(diào)、對齊在內(nèi)的后訓(xùn)練以及推理階段傾斜。而在ScalingLaw迎來擴展的過程中,強化學(xué)習(xí)在其中所起的重要作用化學(xué)習(xí))的進展已彰顯強化學(xué)習(xí)對提升模型實用性的關(guān)鍵作用。在Test-TimeCompute(推理計算時)等新ScalingLaw路徑獲得突破的當(dāng)下,強化學(xué)習(xí)的思想正被應(yīng)用到后訓(xùn)練、推理等更多階段。2025十大AI技術(shù)趨勢比如,OpenAI發(fā)布的01和03正是通過利用強化學(xué)習(xí)在訓(xùn)練和推理時的規(guī)模定律,提高找到最佳推理路徑的可能性和效果。在該趨勢的推動下,國內(nèi)如Moonshot將強化學(xué)習(xí)技術(shù)應(yīng)用于搜索場景,并發(fā)布以邏輯思考和深度推理為核心功能的數(shù)學(xué)模型KO-Math;DeepSeek使用強化學(xué)習(xí)訓(xùn)練,充分挖掘和激活模型潛力,發(fā)布DeepSeekR1模型,探索釋放長思維鏈潛力;螞蟻技術(shù)研究院設(shè)立了強化學(xué)習(xí)實驗室,也圍繞該方向展開探索。整體來說,在即將到來的2025年,我們會看到ScalingLaw作為大模型訓(xùn)練的黃金經(jīng)驗法則,往模型訓(xùn)推的全流程,往特定的行業(yè)場景的不斷被再次發(fā)現(xiàn)。在這過程中,強化學(xué)習(xí)作為發(fā)現(xiàn)后訓(xùn)練、推理階段的ScalingLaw的關(guān)鍵技術(shù),也將會得到更多的應(yīng)用和創(chuàng)新使用。張宏江北京智源人工智能研究院創(chuàng)始理事長美國國家工程院外籍院士即使在pre-training(預(yù)訓(xùn)練)中有放緩趨勢,但GPT-o1的發(fā)布,讓我們看到另外一個天地,就是相對于預(yù)訓(xùn)練模型的‘快思考'模式,推理模型ol可以給更多的思考時間,ScalingLaw的推理性能已出現(xiàn)‘拐點',有一個指數(shù)級增長。2025十大AI技術(shù)趨勢趨勢五/世界模型加速發(fā)布,有望成為多模態(tài)大模型的下一階段世界模型加速發(fā)布,有望成為多模態(tài)大模型的下一階段·通過構(gòu)建對外部世界的模擬,Al系統(tǒng)能夠完成對世界的內(nèi)部表征,在復(fù)雜多變的環(huán)境中智能對真實世界里更復(fù)雜場景的理解與交互的新靈感。關(guān)于如何構(gòu)建世界模型的路線之爭無疑將在2025年持續(xù),或許隨著不同路線的性能泛化程度在新的一年出現(xiàn)分野,我們會看到世界模型技術(shù)路年12月,國外世界模型成果發(fā)布圖片生成可交互3D世界的AI系統(tǒng),且可以用鍵鼠自由控制視角;Meta隨即推出導(dǎo)航世界模型NWM,能從單張圖像生成連續(xù)一致的視頻,基于該模型,智能體能夠根據(jù)過去的觀測和導(dǎo)航動作預(yù)測未來的視覺觀測,從而實現(xiàn)在各類環(huán)境中自大學(xué)的聯(lián)合研究團隊發(fā)布成果,在多模態(tài)大模型內(nèi)部發(fā)現(xiàn)了其空間推理能力的潛力和短板。該研究將多模態(tài)大模型、空間智能在推理層面統(tǒng)一了國內(nèi)方面,2024年10月、12月,北京智源人工智能研究院推出并開源了國內(nèi)首個原生多模態(tài)世界模型Emu3、首個利用大規(guī)模無標(biāo)注的互聯(lián)網(wǎng)視頻學(xué)習(xí)的3D生成模型See3D。值得一提的是,2025十大AI技術(shù)趨勢。個離散空間,在多模態(tài)混合序列上從頭開始聯(lián)合訓(xùn)練一個Transformer,展現(xiàn)了其在大規(guī)模訓(xùn)練在世界模型仍處于性能泛化尚未充分驗證,而資源投入已居高不下的當(dāng)前,如何平衡商業(yè)變現(xiàn)壓力和前沿技術(shù)投入,將是國內(nèi)外AI廠商和機構(gòu)在趨勢五/世界模型加速發(fā)布,有望成為多模態(tài)大模型的下一階段空間智能是視覺智能的未來方向,解決空間智能問題將是邁向全面智能的基礎(chǔ)性和關(guān)鍵性一步。3D空間智能將改變生活,在2025年,空間智能的界限很可能會再次突破。2025十大AI技術(shù)趨勢。合成數(shù)據(jù)將成為大模型迭代與應(yīng)用落地的重要催化劑高質(zhì)量數(shù)據(jù)將成為大模型進一步Scalingup的發(fā)展阻礙。合成數(shù)據(jù)已經(jīng)成為基礎(chǔ)模型廠商補充數(shù)據(jù)的首選。根據(jù)EpochAl報告,在2026年以前,AI訓(xùn)練將用盡互聯(lián)網(wǎng)上包含音視頻在內(nèi)的高質(zhì)量數(shù)據(jù),而現(xiàn)存真實世界數(shù)據(jù)集或?qū)⒃?030年至2060年之間耗盡。合成數(shù)據(jù)已經(jīng)成為基礎(chǔ)模型廠商081819050年12月,微軟發(fā)布語言模型Phi-4,該模型使用了不少于50個合成數(shù)據(jù)集來訓(xùn)練,共約4000億Token,該模型在GPQAandMATH兩個BenchMark上擊敗了GPT-40和Llama3.3,Phi-4Llama3.3的五分之一,但性能卻高于后者5%。OpenAI最新發(fā)布的01大模型在復(fù)雜推理能力2025十大AI技術(shù)趨勢上顯著提升,研發(fā)團隊相應(yīng)設(shè)置了對思維鏈(CoT)輸出結(jié)果的欺騙性檢測,該方案利用ChatGPT合成提問數(shù)據(jù),評估并監(jiān)測01模型的回復(fù)是否有意或無意地忽略重點事實和人類要型訓(xùn)練完成后并不急于發(fā)布,而主要用于內(nèi)部數(shù)據(jù)合成以及強化學(xué)習(xí)獎勵建模推進包括Claude2024年6月及8月,智源研究院推出千萬級指數(shù)據(jù)集50%以上均為合成數(shù)據(jù)。Opencompass測試結(jié)果顯示,經(jīng)過在Infinity-Instruct-7M數(shù)綜合能力評價可基本對齊官方自己發(fā)布的對話模正如我們所知的那樣,預(yù)訓(xùn)練毫無疑問將會終結(jié),與此同時我們也不會再有更多數(shù)據(jù)了。原因在于,我們只有一個互聯(lián)網(wǎng),訓(xùn)練模型需要的海量數(shù)據(jù)即將枯竭,唯有從現(xiàn)有數(shù)據(jù)中尋找新的突破,AI才會繼續(xù)發(fā)展。以后的突破點,就在于智能體、合成數(shù)據(jù)和推理時計算。02024年12月,清華、智譜AI團隊利用文本語料庫提取6000億文本-語音合成數(shù)據(jù),將預(yù)訓(xùn)練擴展到1萬億個token,在語音語言建模和口語問題解答方面取得了SOTA,將語音問答任務(wù)方面0口的性能從之前的13%(Moshi)提高到31%。02025十大AI技術(shù)趨勢推理優(yōu)化迭代加速,成為AINative應(yīng)用落地的必要條件著大模型在各類生成任務(wù)上的表現(xiàn)愈發(fā)突出,其應(yīng)用外延持續(xù)擴展,催生出各類人工智能應(yīng)用。大模型硬件載體也從云端向手機、PC等端側(cè)硬件滲透,在這些資源受限(AI算力、的推理側(cè)的開銷限制,對部署資源、用戶體驗、經(jīng)濟成本等均帶來巨大挑戰(zhàn)。在此背景下,模型推理優(yōu)化技術(shù)日益成為產(chǎn)研側(cè)關(guān)注重點。對該領(lǐng)域的研究大致可分為算法加速和硬件優(yōu)化兩個方向。前者多集中在數(shù)據(jù)層、模型層和系統(tǒng)層三個維度,通過對輸入提示詞、輸出內(nèi)容的優(yōu)化,模型結(jié)構(gòu)及壓縮技術(shù)的設(shè)計,推理引擎和服務(wù)系統(tǒng)的升級,來降低模型推理過程中的計算開銷、訪存開銷、存儲開銷。目前,以模型量化、知識蒸餾、模型稀疏等為代表的技術(shù)已大量應(yīng)用,并初步取得成效。后續(xù)如何繼續(xù)在保障輸出序列長度和輸出質(zhì)量的基礎(chǔ)上,降低推理開銷成為持續(xù)提升的關(guān)鍵方向;后者則關(guān)注硬件端加速,針對大模型在推理過程中自回歸的序列生成方式,專門設(shè)計芯片方案,帶來顯著的推理速度收益。當(dāng)前國內(nèi)外廠商圍繞長文本、復(fù)雜交互、邊緣部署等應(yīng)用場景,持續(xù)推動推理優(yōu)化技術(shù)迭代,以在成與麻省理工團隊通過對模型層的智能化裁剪,在去除多達一半的模型層數(shù)下,依然維持了問答基準(zhǔn)測試性能;微軟推出的BitNet架構(gòu)使用"BitLin-ear"層替代標(biāo)準(zhǔn)線性層,通過降低參數(shù)精度的方式,在性能具備競爭力的前提下,顯著節(jié)省內(nèi)存消意力和線性算子的針對性優(yōu)化和計算圖層面的深度算子融合技術(shù),大幅提高大語言模型推理效率;潞晨科技推出的Colossal-Inference推理引擎通過張量并行、分塊式KV緩存、KV緩存量化、分頁注意力算法等優(yōu)化技術(shù)實現(xiàn)推理速度的提升和計算可獲得獲得數(shù)千倍的帶寬速度提升。在機器學(xué)習(xí)推理領(lǐng)域,降低成本和延遲是一個核心挑戰(zhàn),這直接關(guān)系到先進模型能否惠及更多用戶。趨勢八/重塑產(chǎn)品應(yīng)用形態(tài),AgenticAI成為產(chǎn)品落地的重要模式重塑產(chǎn)品應(yīng)用形態(tài),AgenticAl成為產(chǎn)品落地的重要模式可以獨立瀏覽網(wǎng)絡(luò)并完成如旅行預(yù)訂等在線交易的智能體"Operator"。國內(nèi)外頭部模型廠商在構(gòu)建更通用、更自主智能體的探索與嘗試已蔚然成從更強調(diào)產(chǎn)品概念的Agent,到更強調(diào)應(yīng)用智能程度的AgenticAI,我們在2025年將看到更多智2024年,OpenAl、Anthropic等頭部模極布局智能體產(chǎn)品與技術(shù);全球已出現(xiàn)300多家500強企業(yè)員工已開始使用AI工具處理繁瑣任務(wù),在理論發(fā)展方面,2023年12月,OpenAI提出了該系統(tǒng)"Agenticness"程度的四個指標(biāo);2024年3月,吳恩達在紅杉資本(SequoiaCapital)的人"Agentic"是對智能體智能程度的描述。2024年6多地從AIAgent遷移到AgenticAl,其背后標(biāo)志著從判斷產(chǎn)品是否屬于Agent,到探討產(chǎn)品的智智能體協(xié)作等),這將大幅提升智能體的工作性能!在技術(shù)發(fā)展方面,2024年10月,Anthropic發(fā)布系統(tǒng)快速接入多種外部數(shù)據(jù)資源的上下文協(xié)議MCP。智譜AI推出可以執(zhí)行超50步復(fù)雜操作,且智能體協(xié)作等),這將大幅提升智能體的工作性能!2025十大AI技術(shù)趨勢Trend9AI應(yīng)用熱度漸起,SuperApp花落誰家猶未可知一年時間,生成式模型在圖像、視頻側(cè)的處理能力得到大幅提升,疊加推理優(yōu)化帶來的降本,Agent/RAG框架、應(yīng)用編排工具等技術(shù)的持續(xù)發(fā)展,為Al超級應(yīng)用的落地積基樹本。大模型應(yīng)用從功能點升級,滲透到AI原生的應(yīng)用構(gòu)建及AIOS的生態(tài)重塑。盡管從用戶規(guī)模、交互頻次、停留時長等維度來看,C端AI應(yīng)用仍未出現(xiàn)爆發(fā)式增長,但超級應(yīng)用的可能形態(tài)或已初現(xiàn)端倪:終端設(shè)備廠商基于硬件設(shè)備重構(gòu)AIOS生態(tài),基礎(chǔ)模型及垂直應(yīng)用賽道廠商深度結(jié)合大模型能力AIOS方面,蘋果在10月正式發(fā)布AppleIntelligence,從系統(tǒng)層級對手機應(yīng)用進行重構(gòu),覆蓋Al寫作、照片處理及語音助手等功能,得益于其軟硬生態(tài)的強耦合,有望深度整合系統(tǒng)級體驗,帶來交互形態(tài)的再升級。AIAPP方面,以ChatBot、生活服務(wù)為代表的AI應(yīng)用經(jīng)過1年多時間的業(yè)務(wù)驗證,已有大量產(chǎn)品落地。Chat類如OpenAI發(fā)布的ChatGPT,月活接近6億,年預(yù)估收入約37億美元;國內(nèi)方面字節(jié)跳動的人工智能應(yīng)用豆包處于頭部,達到了7116萬月度活躍用戶數(shù)(截至2024年12月,數(shù)據(jù)來自AI產(chǎn)品榜),其后。生活服務(wù)類如螞蟻集團發(fā)布的系列個人管家產(chǎn)品,包括生活管家支小寶、金融管家螞小財、Al健康管家等,可根據(jù)用戶習(xí)慣和使用場景,智能推薦專屬服務(wù)。雖然SuperAPP花落誰家尚未塵埃落定,但從用戶規(guī)模、交互頻次、停留時長等維度來看,Al應(yīng)用熱度持續(xù)攀升,已到應(yīng)用爆發(fā)的黎明前夕。李彥宏在移動互聯(lián)網(wǎng)時代,出現(xiàn)了許多用戶量達數(shù)億甚至十億的超級應(yīng)用,然而在AI時代,這樣的超級應(yīng)用尚未出現(xiàn)。無論是在美國、歐洲還是中國,都正在探索能夠發(fā)揮生成式AI能力、且能吸引數(shù)十億人使用的應(yīng)用形態(tài)。模型能力提升與風(fēng)險預(yù)防并重,Al安全治理體系持續(xù)完善■作為復(fù)雜系統(tǒng),大模型的Scaling帶來了涌現(xiàn),但復(fù)雜系統(tǒng)特有的涌現(xiàn)結(jié)果不可預(yù)測、循環(huán)反饋等特有屬性也對傳統(tǒng)工程的安全防護機制帶來了挑戰(zhàn)?;A(chǔ)模型在自主決策上的持續(xù)進步帶來了潛在的失控風(fēng)險,如何引入新的技術(shù)監(jiān)管方法,如何在人工監(jiān)管上平衡行業(yè)發(fā)展和風(fēng)險管控?這對參與Al的各方來說,都是一個值得持續(xù)探討的議題?!づc此同時,在信息傳播速度日益加快的當(dāng)下,由Al系統(tǒng)引發(fā)的偏見、深度偽造、隱私泄露、版權(quán)爭議問題叢生,社會對AI安全的關(guān)注度急劇上升。近年來,各個國家、組織在AI安全上持續(xù)投入,并進行了技術(shù)研究、治理框架、國際合作等多種形式的探索,后續(xù)有望構(gòu)建起與智能水平相匹配、合乎倫理、可靠、可控和尊重知識產(chǎn)權(quán)的Al安全治理體系。工智能安全峰會上公布公司正在幫助減輕AI系統(tǒng)特定的風(fēng)險,如竊取模型、訓(xùn)練數(shù)據(jù)污染、注入惡意信息和提取訓(xùn)練數(shù)據(jù)中的機密信息等,確保組織能夠負責(zé)任地部署人工智能技術(shù)。10月,Anthropic更新其制定的《安全責(zé)任擴展政策(RSP)》以構(gòu)建一種靈活的動態(tài)AI風(fēng)險治理框架。國內(nèi)方面,2024年4月,聯(lián)合國科技大會發(fā)布了兩項大模型安全標(biāo)準(zhǔn),其中《大語言模型安全測試方法》由螞蟻集團牽頭。該標(biāo)準(zhǔn)率先給出了四種不同攻擊強度的攻擊手法分類標(biāo)準(zhǔn),提供了嚴(yán)格的評估指標(biāo)和測試程序等,為大模型本身的安全性評估提供了一套全面、嚴(yán)謹(jǐn)且實操性強的結(jié)構(gòu)性方案。此外,螞蟻集團自研的大模型安全一體化解決方案“蟻天鑒”,旨在打造AI大模型的安全鎧甲,確保大模型技術(shù)在安全可靠的環(huán)境中發(fā)揮效能。目前,蟻天鑒的檢測與防御產(chǎn)品已開放給20家外部機構(gòu)和企業(yè)使用,為通用大模型及醫(yī)療、金融、政務(wù)等垂直領(lǐng)域行業(yè)大模型應(yīng)用安全保駕護2025十大AI技術(shù)趨勢等問題,通過大模型和圖AI等新技術(shù)實現(xiàn)自主防御新型攻擊和全網(wǎng)自動化運營。北京智源人工智能研究院持續(xù)推進Al安全底層關(guān)鍵技術(shù)研究,并提出泛化的Al防御大模型和Al監(jiān)管大模型;同時,智源研究院積極鍛造Al安全中國力量,組織或參與AI安全國際合作:2024年3月,發(fā)起并承辦我國首個Al安全國際對話高端閉門論壇,與全球AI領(lǐng)袖學(xué)者及產(chǎn)業(yè)專家聯(lián)合簽署《北京Al安全國際共識》;9月,參與第三屆國際Al安全參與籌備中國AI安全網(wǎng)絡(luò),將在國際安全會議上發(fā)出中國聲音;10月,與英國AISI(AI安全研究國際AI開發(fā)者社區(qū)安全討論;11月,聯(lián)合多家高校及科研院所,推進迭代新版本中國Al安全治OpenAI前研究副總裁(安全)在西游記中,孫悟空有緊箍咒約束行為,我們應(yīng)該給AI模型也帶上緊箍咒,也就是教會AI安全基本準(zhǔn)則約束和道德標(biāo)準(zhǔn),讓其遵守行為規(guī)范,以人類利益為先,成為我們貼心的伙伴,而不是冰冷的機器人。2025十大AI技術(shù)趨勢cal&ChemicalDomains.”Areraoflargelanguagemodels:aper-spective."ArXiv[3]Yu,BotaoetLargeLanguageModelsforChpag.[4]Abramson,J.,Adler,Accuratestructurepredictionofbiomo-Nature630,493-500(2024).https://-integrativedata-drivenmodelsimingC.elegansbrain,bodyamentinteractions.978-990(2024).https:/[6]Brohan,AnthonyetTransformerforReal-WorldCpag.Vision-Language-ActionModelsTrans-ferWebKnowledgetoRoboticControl.”ConferenceonRobotLearnin[8]Padalkar,Abhishekbodiment:RoboticLear[9]Huang,WenlongnipulationwithLanguageModels."ArXivabs/2307.05973(2023):n.pag.Models."ArXivabs/2402025十大AI技術(shù)趨勢PredictionisAllYouNeed."ArXivLLM:ScalingOpen-SourceLanguageBackground,Technology,LimiandOpportunitiesofLargeVisionModels."ArXivabs/2402.17177(2024):Bruce,Jakeetal.“GenInteractiveEnvironments."ArXivModels."(2024).TechnicalReport."(2023).HowMultimodalLargeLanModelsSee,Remember,andRecLearning3DCreation[19]Villalobos,Pabloetofdata?LimitsofLLMscalingbasehuman-generateddata."(2022).Report."(2024).withajoint-embeddingpredictivearchitecture."Proceedingsofthe

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論