? 日韩在线视频观看,日韩三级欧美,一出一进一爽一粗一大视频

91成熟丰满女人少妇777 I 欧美日韩中文国产一区 I 五月天亚洲综合小说网 I 久久中文字幕一区二区 I 黄色1区2区 I 免费成人深夜夜视频 I 一级毛毛片 I 亚洲黄色软件 I 精品久久香蕉国产线看观看gif I 色吊妞 I 国产又大又粗又爽的毛片 I 天天干天天操av I 欧美笫一页 I 一级日韩片 I 日产av在线播放 I 91亚洲精品久久久久图片蜜桃 I 亚洲人成电影在线观看青青 I 成人久操 I 国产最变态调教视频 I 伊人影院焦久影院 I 亚洲日本黄色 I 3344成年站在线视频免费播放 I 欧美亚洲日韩不卡在线在线观看 I 欧美日韩影片 I 中文字幕天天躁日日躁狠狠躁免费 I 久久精品人妻无码专区 I 人人干国产 I 成人免费自拍视频 I 日韩欧美国产成人精品免费 I 国产suv成人亚洲 I 亚洲男女在线 I 男女全黄一级一级高潮免费看 I 校园春色偷拍 I 亚洲精品黄网在线观看 I 黄色福利在线看

您所在的位置:首頁 >> 銳公司 >>正文

頻道推薦

頻道熱門文章

  1. 速騰聚創(chuàng)在2026年迎來業(yè)績(jī)暴漲與價(jià)值重估“雙拐點(diǎn)”
  2. 黃仁勛接見女性創(chuàng)業(yè)者葛巾:硬科技中的“她力量”獲全球認(rèn)可
  3. 數(shù)字華夏創(chuàng)始人沈健獲評(píng)“2025江蘇財(cái)經(jīng)新聞人物”,為人形機(jī)器人注入“中國(guó)溫度”
  4. 技術(shù)+制造雙向賦能 鏡識(shí)科技×凱爾達(dá)發(fā)布阿波羅工業(yè)四足機(jī)器人 引領(lǐng)產(chǎn)業(yè)協(xié)同新局面
  5. 愛合發(fā):聚焦機(jī)器人精密傳動(dòng)部件,快速成長(zhǎng)的FA自動(dòng)化零部件一站式供應(yīng)商
  6. iHF愛合發(fā):協(xié)筑標(biāo)準(zhǔn)高地,共啟傳動(dòng)新程
  7. 臨工智科2026年合作伙伴年會(huì)暨第八屆智能制造論壇圓滿舉辦
  8. “馭勢(shì)而上,躍起新程”——2026年比亞迪叉車全球產(chǎn)品發(fā)布峰會(huì)圓滿召開
  9. 美的威靈機(jī)器人部件領(lǐng)創(chuàng)核心部件國(guó)產(chǎn)化突破
  10. 行業(yè)首款為工業(yè)而生的具身智能機(jī)器人發(fā)布,海爾生態(tài)賦能新時(shí)達(dá)技術(shù)落地
分享34K

VLA進(jìn)化到ViLLA,智元發(fā)布首個(gè)通用具身基座大模型GO-1

發(fā)布時(shí)間: 2025-03-10 02:03:28 來源:新戰(zhàn)略移動(dòng)機(jī)器人

核心提示: 實(shí)現(xiàn)了可以利用人類視頻學(xué)習(xí),完成小樣本快速泛化,降低了具身智能門檻,并成功部署到智元多款機(jī)器人本體,持續(xù)進(jìn)化,將具身智能推上了一個(gè)新臺(tái)階。

導(dǎo)言:智元發(fā)布首個(gè)通用具身基座模型——智元啟元大模型(Genie Operator-1),它開創(chuàng)性地提出了Vision-Language-Latent-Action (ViLLA) 架構(gòu),該架構(gòu)由VLM(多模態(tài)大模型) + MoE(混合專家)組成,其中VLM借助海量互聯(lián)網(wǎng)圖文數(shù)據(jù)獲得通用場(chǎng)景感知和語言理解能力,MoE中的Latent Planner(隱式規(guī)劃器)借助大量跨本體和人類操作視頻數(shù)據(jù)獲得通用的動(dòng)作理解能力,MoE中的Action Expert(動(dòng)作專家)借助百萬真機(jī)數(shù)據(jù)獲得精細(xì)的動(dòng)作執(zhí)行能力,三者環(huán)環(huán)相扣,實(shí)現(xiàn)了可以利用人類視頻學(xué)習(xí),完成小樣本快速泛化,降低了具身智能門檻,并成功部署到智元多款機(jī)器人本體,持續(xù)進(jìn)化,將具身智能推上了一個(gè)新臺(tái)階。

2024年底,智元推出了 AgiBot World,包含超過100萬條軌跡、涵蓋217個(gè)任務(wù)、涉及五大場(chǎng)景的大規(guī)模高質(zhì)量真機(jī)數(shù)據(jù)集?;贏giBot World,智元今天正式發(fā)布智元通用具身基座大模型 Genie Operator-1(GO-1)。

GO-1:VLA進(jìn)化到ViLLA

為了有效利用高質(zhì)量的AgiBot World數(shù)據(jù)集以及互聯(lián)網(wǎng)大規(guī)模異構(gòu)視頻數(shù)據(jù),增強(qiáng)策略的泛化能力,智元提出了 Vision-Language-Latent-Action (ViLLA) 這一創(chuàng)新性架構(gòu)。GO-1作為首個(gè)通用具身基座大模型,基于ViLLA構(gòu)建。與 Vision-Language-Action (VLA) 架構(gòu)相比,ViLLA 通過預(yù)測(cè)Latent Action Tokens(隱式動(dòng)作標(biāo)記),彌合圖像-文本輸入與機(jī)器人執(zhí)行動(dòng)作之間的鴻溝。在真實(shí)世界的靈巧操作和長(zhǎng)時(shí)任務(wù)方面表現(xiàn)卓越,遠(yuǎn)遠(yuǎn)超過了已有的開源SOTA模型。

ViLLA架構(gòu)是由VLM(多模態(tài)大模型) + MoE(混合專家)組成,其中VLM借助海量互聯(lián)網(wǎng)圖文數(shù)據(jù)獲得通用場(chǎng)景感知和語言理解能力,MoE中的Latent Planner(隱式規(guī)劃器)借助大量跨本體和人類操作數(shù)據(jù)獲得通用的動(dòng)作理解能力,MoE中的Action Expert(動(dòng)作專家)借助百萬真機(jī)數(shù)據(jù)獲得精細(xì)的動(dòng)作執(zhí)行能力。在推理時(shí),VLM、Latent Planner和Action Expert三者協(xié)同工作:

  1. VLM 采用InternVL-2B,接收多視角視覺圖片、力覺信號(hào)、語言輸入等多模態(tài)信息,進(jìn)行通用的場(chǎng)景感知和指令理解

  2. Latent Planner是MoE中的一組專家,基于VLM的中間層輸出預(yù)測(cè)Latent Action Tokens作為CoP(Chain of Planning,規(guī)劃鏈),進(jìn)行通用的動(dòng)作理解和規(guī)劃

  3.  Action Expert是MoE中的另外一組專家,基于VLM的中間層輸出以及Latent Action Tokens,生成最終的精細(xì)動(dòng)作序列

下面展開介紹下MoE里2個(gè)關(guān)鍵的組成Latent Planner和Action Expert:

混合專家一:Latent Planner(隱式規(guī)劃器)

盡管AgiBot World 數(shù)據(jù)集已經(jīng)是全球最大的機(jī)器人真機(jī)示教數(shù)據(jù)集,但這樣高質(zhì)量帶動(dòng)作標(biāo)簽的真機(jī)數(shù)據(jù)量仍然有限,遠(yuǎn)少于互聯(lián)網(wǎng)規(guī)模的數(shù)據(jù)集。為此,我們采用Latent Actions(隱式動(dòng)作)來建模當(dāng)前幀和歷史幀之間的隱式變化,然后通過Latent Planner預(yù)測(cè)這些Latent Actions,從而將異構(gòu)數(shù)據(jù)源中真實(shí)世界的動(dòng)作知識(shí)轉(zhuǎn)移到通用操作任務(wù)中。

? Latent Action Model(LAM,隱式動(dòng)作模型)主要用于獲取當(dāng)前幀和歷史幀之間Latent Actions的Groundtruth(真值),它由編碼器和解碼器組成。其中

?  編碼器采用Spatial-temporal Transformer,并使用Causal Temporal Masks(時(shí)序因果掩碼)。

?  解碼器采用Spatial Transformer,以初始幀和離散化的Latent Action Tokens作為輸入。

?  Latent Action Tokens通過VQ-VAE的方式進(jìn)行量化處理。

?  Latent Planner負(fù)責(zé)預(yù)測(cè)這些離散的Latent Action Tokens,它與 VLM 主干網(wǎng)絡(luò)共享相同的 Transformer 結(jié)構(gòu),但使用了兩套獨(dú)立的FFN(前饋神經(jīng)網(wǎng)絡(luò))和Q/K/V/O(查詢、鍵、值、輸出)投影矩陣。Latent Planner這組專家會(huì)逐層結(jié)合 VLM 輸出的中間信息,通過Cross Entropy Loss(交叉熵?fù)p失)進(jìn)行監(jiān)督訓(xùn)練

混合專家二:Action Expert(動(dòng)作專家)

為了實(shí)現(xiàn) High-frequency(高頻率)且 Dexterous(靈活)的操控,我們引入Action Expert,其采用Diffusion Model作為目標(biāo)函數(shù)來建模低層級(jí)動(dòng)作的連續(xù)分布。

? Action Expert結(jié)構(gòu)設(shè)計(jì)上與Latent Planner類似,也是與 VLM 主干網(wǎng)絡(luò)共享相同的 Transformer 結(jié)構(gòu),但使用兩套獨(dú)立的FFN和Q/K/V/O投影矩陣,它通過Denoising Process(去噪過程)逐步回歸動(dòng)作序列。

? Action Expert與VLM、Latent Planner分層結(jié)合,確保信息流的一致性與協(xié)同優(yōu)化。

實(shí)驗(yàn)效果

通過Vision-Language-Latent-Action (ViLLA) 創(chuàng)新性架構(gòu),我們?cè)谖宸N不同復(fù)雜度任務(wù)上測(cè)試 GO-1,相比已有的最優(yōu)模型,GO-1成功率大幅領(lǐng)先,平均成功率提高了32%(46%->78%)。其中 “Pour Water”(倒水)、“Table Bussing”(清理桌面) 和 “Restock Beverage”(補(bǔ)充飲料) 任務(wù)表現(xiàn)尤為突出。此外我們還單獨(dú)驗(yàn)證了ViLLA 架構(gòu)中Latent Planner的作用,可以看到增加Latent Planner可以提升12%的成功率(66%->78%)。

GO-1:具身智能的全面創(chuàng)新

GO-1大模型借助人類和多種機(jī)器人數(shù)據(jù),讓機(jī)器人獲得了革命性的學(xué)習(xí)能力,可泛化應(yīng)用到各類的環(huán)境和物品中,快速適應(yīng)新任務(wù)、學(xué)習(xí)新技能。同時(shí),它還支持部署到不同的機(jī)器人本體,高效地完成落地,并在實(shí)際的使用中持續(xù)不斷地快速進(jìn)化。

這一系列的特點(diǎn)可以歸納為4個(gè)方面:

人類視頻學(xué)習(xí):GO-1大模型可以結(jié)合互聯(lián)網(wǎng)視頻和真實(shí)人類示范進(jìn)行學(xué)習(xí),增強(qiáng)模型對(duì)人類行為的理解,更好地為人類服務(wù)。

小樣本快速泛化:GO-1大模型具有強(qiáng)大的泛化能力,能夠在極少數(shù)據(jù)甚至零樣本下泛化到新場(chǎng)景、新任務(wù),降低了具身模型的使用門檻,使得后訓(xùn)練成本非常低。

一腦多形:GO-1大模型是通用機(jī)器人策略模型,能夠在不同機(jī)器人形態(tài)之間遷移,快速適配到不同本體,群體升智。

持續(xù)進(jìn)化:GO-1大模型搭配智元一整套數(shù)據(jù)回流系統(tǒng),可以從實(shí)際執(zhí)行遇到的問題數(shù)據(jù)中持續(xù)進(jìn)化學(xué)習(xí),越用越聰明。

智元通用具身基座大模型GO-1的推出,標(biāo)志著具身智能向通用化、開放化、智能化方向快速邁進(jìn):

從單一任務(wù)到多種任務(wù):機(jī)器人能夠在不同場(chǎng)景中執(zhí)行多種任務(wù),而不需要針對(duì)每個(gè)新任務(wù)重新訓(xùn)練。

從封閉環(huán)境到開放世界:機(jī)器人不再局限于實(shí)驗(yàn)室,而是可以適應(yīng)多變的真實(shí)世界環(huán)境。

從預(yù)設(shè)程序到指令泛化:機(jī)器人能夠理解自然語言指令,并根據(jù)語義進(jìn)行組合推理,而不再局限于預(yù)設(shè)程序。

GO-1大模型將加速具身智能的普及,機(jī)器人將從依賴特定任務(wù)的工具,向著具備通用智能的自主體發(fā)展,在商業(yè)、工業(yè)、家庭等多領(lǐng)域發(fā)揮更大的作用,通向更加通用全能的智能未來。

【免責(zé)聲明】所刊原創(chuàng)內(nèi)容之本文僅代表作者本人觀點(diǎn),與新戰(zhàn)略機(jī)器人網(wǎng)無關(guān)。新戰(zhàn)略機(jī)器人網(wǎng)站對(duì)文中陳述、觀點(diǎn)判斷保持中立。本網(wǎng)轉(zhuǎn)載自其它媒體的信息,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé)。

【版權(quán)聲明】凡本網(wǎng)注明“來源:xzl機(jī)器人”的所有作品,著作權(quán)屬于新戰(zhàn)略機(jī)器人網(wǎng)站所有,未經(jīng)本站之同意或授權(quán),任何人不得以任何形式重制、轉(zhuǎn)載、散布、引用、變更、播送或出版該內(nèi)容之全部或局部,亦不得有其他任何違反本站著作權(quán)之行為。違反上述聲明者,本網(wǎng)將追究其相關(guān)法律責(zé)任。轉(zhuǎn)載、散布、引用須注明原文來源。

分享到:
?
關(guān)閉對(duì)聯(lián)廣告
頂部微信二維碼微博二維碼
底部
掃描微信二維碼關(guān)注我為好友
掃描微博二維碼關(guān)注我為好友