2024人形機(jī)器人研究報(bào)告_第1頁
2024人形機(jī)器人研究報(bào)告_第2頁
2024人形機(jī)器人研究報(bào)告_第3頁
2024人形機(jī)器人研究報(bào)告_第4頁
2024人形機(jī)器人研究報(bào)告_第5頁
已閱讀5頁,還剩56頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

目錄

T

③具身智能探索階段(2000年以前 探索階段(2000年以前(2000-AI推動的商業(yè)化試水階段(2021-至今

20032009年,本田發(fā)布奔跑速度達(dá)2011年,豐田發(fā)布ALL-New2014年,初代Atlas

20217月,豐田推出第四代家務(wù)機(jī)器人7月,優(yōu)必選發(fā)布人形機(jī)器人Walker20228月,小米發(fā)布全尺寸人形機(jī)器人10月,特斯拉推出人形機(jī)器人202338月,帕西尼感知科技推出觸覺人形機(jī)器人8月,星動紀(jì)元推出人形機(jī)器人小星和小星88月,智元機(jī)器人發(fā)布通用人形機(jī)器人遠(yuǎn)征8月,宇樹科技發(fā)布通用人形機(jī)器人1011月,小鵬發(fā)布人形機(jī)器人

1112月,特斯拉發(fā)布Optimus二代,步行速度提升12月,逐際動力人形機(jī)器人星途CL-120242月,優(yōu)必選WalkerS2月,波士頓動力液壓版Atlas2月,1XTechnologies2月,F(xiàn)igure013月,F(xiàn)igure01與OpenAI合作,搭載ChatGPT4月,波士頓動力全新電驅(qū)版4月,優(yōu)必選WalkerS45月,宇樹科技發(fā)布G1人形智能體,9.95月,特斯拉Optimus5月,WestwoodRobotics發(fā)布首款全比例人形機(jī)器人AI2023年以來,中央和地方紛紛出臺政策鼓勵機(jī)器人行業(yè)發(fā)展,涉及算法、場景、產(chǎn)業(yè)等維度,推動機(jī)器人在醫(yī)療、協(xié)作、特種、物流2023-01-08

2023-10-26工業(yè)和信息化部發(fā)布

2024-01-182023-05-31行動計(jì)劃(2023-2025

①②③①②③①

②③①②③①②③

★當(dāng)前階段數(shù)據(jù)來源:國家統(tǒng)計(jì)局、勞動力市場中,老齡化趨勢逐年加重、就業(yè)人員工資快速上漲,成為機(jī)器人替代人的最主要原因。中國652022年達(dá)到14.9%,且全國規(guī)模以上企業(yè)就業(yè)人員平均工資在2022年達(dá)到9.25中國65周歲及以上人口比重-- 市場規(guī)模(億美元年增長率具身智能,是具有實(shí)體的智能體通過與環(huán)境的交互來取得認(rèn)知能力,學(xué)習(xí)并掌握新技能新知識,是“本體”和“智能體”的耦合,實(shí)末端工藝操作:人機(jī)交互:多機(jī)器人交互:3D 用3D純視覺技術(shù)方 雷視融合技術(shù)方MiSense視覺激光雷達(dá)+深度相機(jī)tlas使用oF深度相機(jī)以每秒15的頻率線性關(guān)節(jié)-單維力傳感 腳踝處(六維對外部環(huán)境的感知:以視覺感知為 對內(nèi)部運(yùn)行的感知:以力矩傳感器為數(shù)據(jù)來源:《LM-NavRoboticNavigationwithLargePre-TrainedModelsofLanguage,Vision,andAction大模型的決策能力體現(xiàn):人機(jī)交互、環(huán)境感知、上層規(guī)劃,實(shí)現(xiàn)從自然語言交互到生成路徑規(guī)劃的決策過程(以LLM、VLM、VNM為例大語言模型、多模態(tài)大模型、NLP大模型的決策能力體現(xiàn):人機(jī)交互、環(huán)境感知、上層規(guī)劃,實(shí)現(xiàn)從自然語言交互到生成路徑規(guī)劃的決策過程(以LLM、VLM、VNM為例大語言模型、多模態(tài)大模型、NLPLLM(GPT-3)VLM(CLIP)將文本和圖像聯(lián)系起來,在圖像中找到LLMVNM(ViNG)根據(jù)圖像進(jìn)行建圖和導(dǎo)航。VNM可以根據(jù)一系列有時間(時間戳)(GPS) 數(shù)據(jù)來源:《VoyagerAnOpen-EndedEmbodiedAgentwithLargeLanguageModelsPaLM-E:AnEmbodiedMultimodalLanguageModel基于任務(wù)理解,大模型能自主生成執(zhí)行任務(wù)的運(yùn)動控制代碼,為運(yùn)控模塊提供運(yùn)行的指令,以驅(qū)動機(jī)器人運(yùn)動。以ChatGPTpromptChatGPT將復(fù)雜任務(wù)分拆為子任務(wù)序列,并逐步調(diào)用相應(yīng)的prompt,生成python主流的具身大模型:ChatGPT主流的具身大模型:ChatGPTforRoboticsPaLM-ChatGPTforRobotics好任務(wù);4)PaLM-E的機(jī)器人指令,RT-1通過prompt2使用prompt1輸出PythonAlter3數(shù)據(jù)來源:《HighlyDynamicQuadrupedLocomotionviaWhole-BodyImpulseControlandModelPredictiveControl運(yùn)動控制模塊向通過強(qiáng)化學(xué)習(xí)加模擬的技術(shù)方案演進(jìn)。自RC控制器的方向,MPC計(jì)算所需RV 靈巧手、機(jī)雙足、軀干于機(jī)器人常用的動作(撿取、放置、布置、開抽屜、關(guān)抽屜、導(dǎo)航、特殊情形下的放置)思維鏈將復(fù)雜任務(wù)拆分成多個子任務(wù),每個子任務(wù)單獨(dú)用一個Prompt雜任務(wù)分拆、鏈接多個Pompt層次的思考,并得出更復(fù)雜、更全面的結(jié)論。T②電機(jī)③減速器

④絲杠⑤控制器⑥傳感器傳感 力矩傳感 位置傳感 觸覺傳感旋轉(zhuǎn)關(guān)節(jié)14旋轉(zhuǎn)關(guān)節(jié)14諧波減速器14力矩傳感器12位置傳感器12攝像頭3傳感器N線性關(guān)節(jié)14傳感器N行星滾柱絲杠14無框力矩電機(jī)14編碼器14位置傳感器12以特斯拉OptimusGen2靈巧手:2力矩傳感器12編碼器12FSD軸承,編碼器,電池,其他,無框力矩電機(jī)壁壘相對不高,伺服廠家有望切入。無框力矩電機(jī)的全球龍頭企業(yè)是美國科爾摩根(Kollmorgen)和穆格(Moog)Maxon2020年-2028 RV3Cg負(fù)載以下的機(jī)器人業(yè)中通常使用配有RV減速全球RV全球RV20222022年中國RV哈默納科(日本新寶(日本),博納特斯克(日本全球滾柱絲杠市場規(guī)模發(fā)展及預(yù)測(百萬美元2022CMC(美國),優(yōu)仕特(中國臺灣),南京工藝(中國大陸),Rollvis(瑞士),濟(jì)寧博特(中國大陸),Rexroth(德國)GSA(瑞士),Ewellix(瑞典), 器人PC上,即示教器配套設(shè)備方面,控制控制器性能好壞與伺服系統(tǒng)、減速器性能息息相關(guān)2022年中國工業(yè)機(jī)器人控制器市場規(guī)模為16.22022年中國工業(yè)機(jī)器人控制器市場規(guī)模為16.22017-20222021發(fā)那科(日本),庫卡(德國),ABB(瑞士),安川(日本) ★★★2022年全球傳感器市場規(guī)模為2512.9億美元,,同比增長10%。中國傳感器市場規(guī)模增速相對穩(wěn)定,由2019年的321.92022年的510.1億美元,年增速維持在20★★海外企業(yè):安森美(美國)、基恩士(日本)★★海外企業(yè):ATI(加拿大)、Sintokogio(日本)★★海外企業(yè):Bosch(德國)、意法半導(dǎo)體ST(瑞士)★中國傳感器市場規(guī)模增速相對穩(wěn)定,2022年規(guī)模約為510.12019-2022年全球及中國傳感器市場規(guī)模(億美元T

開始應(yīng) 小規(guī)模商用試 應(yīng)用逐漸成 成熟應(yīng) 商業(yè)服務(wù)應(yīng)用將成為人形機(jī)器人最快應(yīng)用的場景。商業(yè)服務(wù)人形機(jī)器人主要應(yīng)用在封閉環(huán)境下的室內(nèi)場景中,迎賓接待、導(dǎo)覽講解等①②③①①汽車底盤裝配②外觀檢測:利用視覺系統(tǒng)、激光測距儀、高清攝像頭與圖像處理算法有效③物料搬運(yùn):④螺絲緊固:⑤齒輪模組點(diǎn)油:3.2.1.制造業(yè)人形機(jī)器人市場規(guī)模將在2030年達(dá)到236.96制造業(yè)人形機(jī)器人市場規(guī)模將在2030年達(dá)到236.96 制造業(yè)人形機(jī)器人全球市場規(guī)模(億美元人形機(jī)器人依托大模型與運(yùn)控算法實(shí)現(xiàn)端到端的控制,同時帶來的longhorizon 5.2712.3933.77家庭服務(wù)人形機(jī)器人全球市場規(guī)模將在2035年達(dá)到31.28家庭服務(wù)人形機(jī)器人全球市場規(guī)模將在2035年達(dá)到31.282025-2035年全球家庭服務(wù)人形機(jī)器人市場規(guī)模(億美元 算力不足、網(wǎng)絡(luò)不穩(wěn)①②③④面向家庭各類角色的豐富的數(shù)字⑤⑥⑦人形機(jī)器人搭載四目系統(tǒng)、雙GB末端柔順控制等,實(shí)現(xiàn)自主操控冰箱、咖啡機(jī)、吸塵器等家電,并利用末端柔順控制完成按摩、擰瓶蓋、端茶倒水等家居任務(wù)。自研RobotGPT,搭建RobotGPT 機(jī)器人仿真平境下的應(yīng)用,比如核電人形機(jī)器人以高可靠性實(shí)現(xiàn)在高危/救援場景下實(shí)現(xiàn)人力替代、能力互 開普勒人形機(jī)器人在高危/救援場景的應(yīng)T①Figure

④宇樹科技⑤Agility⑥中國移動FigureAI

公司創(chuàng)立于2022年,總部位于美國加利佛尼亞,是通用人形機(jī)器人制造商。公司團(tuán)隊(duì)規(guī)模70創(chuàng)始人兼CEOBrettAdcock畢業(yè)于美國佛羅里達(dá)大學(xué),連續(xù)創(chuàng)業(yè)者,創(chuàng)始人兼CEOBrettAdcock畢業(yè)于美國佛羅里達(dá)大學(xué),連續(xù)創(chuàng)業(yè)者,2013年創(chuàng)辦求職招聘應(yīng)用Vettery、2018年創(chuàng)立eVTOL公司ArcherAviation,2022年創(chuàng)立Figure。聯(lián)合創(chuàng)始人兼CTOJerryPratt具有創(chuàng)業(yè)經(jīng)驗(yàn)和20年機(jī)器人研究與產(chǎn)業(yè)經(jīng)驗(yàn)。2000創(chuàng)建了機(jī)器人公司YoboticsIHMC,任高級研究科學(xué)家,工作經(jīng)驗(yàn)長達(dá)20FigureAI基于端到端運(yùn)動控制算法,結(jié)合OpenAI的GPT,先于特斯拉公開展示了人成立一年左右即發(fā)布第一代機(jī)型Figure01,目前FigureAl2024年2月B輪融資后,估值達(dá)到26BIntelCapital英特爾投資、Samsung遜、BoldCapitalPartners、NVIDIA達(dá)、ParkwayVentureCapital、AlignVentures、TamarackGlobal、OpenAI、AliyaCapitalPartners、LGInnotek、BoscoloIntervest、ARKVentureFund、EthosVC、ManhattanVenture、ShaneNeman、BezosExpeditions、EvolutionVCPartners、FJA+900英特爾資本、BigSkyA7000ParkwayVentureCapital領(lǐng)投、FJLabs、TamarackGlobal、BOLDVentures等數(shù)據(jù)來源:FigureAI官網(wǎng)、睿獸分析、創(chuàng)業(yè)邦研究中心整 FigureAI2024.03,F(xiàn)igureAI與OpenAI作,將CatGT強(qiáng)大的語音交互和理解反饋能力移植到igue1上,完成指令、預(yù)判動作、行為評價(jià),語言交互流程:(手腕姿勢和手指關(guān)節(jié)角度),

ique1只需看人類示范的演示視頻,加上10小時端到端的訓(xùn)練,就能學(xué)會視頻里的操作技巧,然后完全自主地搞定任務(wù),例如搬箱子、沖咖啡等。FigureAIFigureAI與OpenAI在模型方面合作,將ChatGPT接

FigureAI與微軟在云服務(wù)設(shè)施方面合作,為Figure

數(shù)據(jù)來源:FigureAI官網(wǎng)、睿獸分析、創(chuàng)業(yè)邦研究中心整 U-SLAM視覺導(dǎo)AIoT

RaaS服務(wù),以及人工智能教程教材、機(jī)器件,適合中小學(xué)及高等院校STEM教育

搭載36個伺服關(guān)節(jié)及全方位感

Walker

①②③④

SLAMSLAM10.155E+8.2E1.61E9200D47D35D++1D1.8D11.2C2.41B6500B2.6A1000A+900Pre-A2659Pre-A1100Pre-A400人形機(jī)器人遠(yuǎn)征A1①汽車制造領(lǐng)域:底盤裝配、底盤線束整理、汽車OK②①汽車制造領(lǐng)域:底盤裝配、底盤線束整理、汽車OK②3C制造領(lǐng)域:3C③①②①遠(yuǎn)征A1?器,擁有49個?由度②采用上下肢分體式設(shè)計(jì),下肢可采用雙足、輪式、輪足等不同設(shè)計(jì),便于③自研核心關(guān)節(jié)PowerFlow關(guān)節(jié)電機(jī),1.6kg的自重下實(shí)現(xiàn)350Nm輸出④靈巧手集成指尖視覺傳感器,可分辨顏色、形狀等,實(shí)現(xiàn)末端的視覺閉環(huán),⑥AgiROS系統(tǒng):機(jī)器人運(yùn)行中間件系統(tǒng),在AI感知決策與視覺控制等大模WorkGPT:&通識理解能力BA公司成立于20161器狗①②行業(yè)級①機(jī)械臂②③電機(jī)A1身 體 自由 單腿自由 行走速 續(xù)航時 關(guān)節(jié)扭 靈巧 售 六十萬左約29.9 斤),②運(yùn)動性能:H1在速度和負(fù)載能力上表現(xiàn)更為出色,G1搭載9000mAh電池,③靈活性:G1搭載了力位混合控制的三指靈巧手,模擬人手實(shí)現(xiàn)對物體的精準(zhǔn)④感知系統(tǒng):兩款機(jī)器人均配備3D激光雷達(dá)和深度相機(jī),但H1更注重全景深度⑤開發(fā)和擴(kuò)展性:G1提供了更多的二次開發(fā)和AI模型支持,采用模仿與強(qiáng)化學(xué)以技術(shù)前瞻性和產(chǎn)品前端性形成通用本體+多元化外設(shè)的產(chǎn)品結(jié)構(gòu),滿足多場景應(yīng)用需求,覆蓋B以技術(shù)前瞻性和產(chǎn)品前端性形成通用本體+多元化外設(shè)的產(chǎn)品結(jié)構(gòu),滿足多場景應(yīng)用需求,覆蓋B ②通用本體搭配多元化場景適配附件,實(shí)現(xiàn)對各類場景的適用性:公司機(jī)器狗通用本體,可以搭載氣體傳感、③近十年機(jī)器人應(yīng)用的豐富經(jīng)驗(yàn):公司推出工業(yè)和消防領(lǐng)域的巡檢解決方案和消防解決方案,產(chǎn)品應(yīng)用于應(yīng)急B2近10BAAgilityRobotics未來,Digit未來,DigitDigit在GXODigitDigit占地面積?。?75(5英尺9英寸),<65千克(14升磅),最多可承載16公斤(35磅);優(yōu)化的運(yùn)行時間:Digit在2416人形機(jī)器人DigitAgilityRobotics娛樂和研究等應(yīng)用開發(fā)雙足機(jī)器人,公司目前主流的雙足人形機(jī)器人是Digit,業(yè)務(wù)重心是卸載貨車、搬運(yùn)箱子、管理貨架等倉儲工作。AgilityRoboticsAgilityRobotics公司已經(jīng)和亞馬遜、福特等多領(lǐng)域公司在Digit研發(fā)階段就有了深入的合作。目前,Digit公司在俄勒岡州塞勒姆開設(shè)機(jī)器人制造工廠RoboFab,預(yù)計(jì)第一年將有數(shù)百臺Digit機(jī)器人的生產(chǎn)能力,并有能力擴(kuò)展到每年10,000多臺機(jī)器人,在2024年交付第一批Digits,并在2025年全面上市。B+PlaygroundGlobalBPlaygroundGlobalAPlaygroundGlobalInnovationFund等TheRobotics中國移動以算網(wǎng)、大模型、安全為基礎(chǔ)底座,一體推動四大智能技術(shù),融合具身智能通用能力及HomibotT

2024H1,國內(nèi)人形機(jī)器人一級市場發(fā)生11起融資事件,融資金額為18.6億元,截止到2024年6月,

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論