国产精品久久久久久久小说,国产国产裸模裸模私拍视频,国产精品免费看久久久无码,风流少妇又紧又爽又丰满,国产精品,午夜福利

熱搜: 機(jī)器人  irobot  工業(yè)機(jī)器人  佳士科技  機(jī)器人產(chǎn)業(yè)聯(lián)盟  機(jī)器人展覽  發(fā)那科  機(jī)械手  ABB  碼垛機(jī)器人 

靈寶CASBOT與CASIA共同提出“增強(qiáng)物理人機(jī)協(xié)作中的人類意圖估計(jì)和人機(jī)角色分配”方法

   日期:2025-05-21     來(lái)源:科訊天下     評(píng)論:0    
標(biāo)簽:

近日,機(jī)器人與自動(dòng)化領(lǐng)域全球頂會(huì)ICRA 2025在美國(guó)亞特蘭大開(kāi)幕。由中國(guó)科學(xué)院自動(dòng)化研究所與靈寶CASBOT共同提出的關(guān)于“增強(qiáng)物理人機(jī)協(xié)作中的人類意圖估計(jì)和人機(jī)角色分配”方法(DTRT: Enhancing Human Intent Estimation and Role Allocation for Physical Human-Robot Collaboration)獲ICRA 2025錄用。

01. DTRT:增強(qiáng)物理人機(jī)協(xié)作中的人類意圖估計(jì)和人機(jī)角色分配

在物理人機(jī)協(xié)作(physical Human-Robot Collaboration, pHRC)中,準(zhǔn)確的人類意圖估計(jì)和合理的人機(jī)角色分配對(duì)安全高效的協(xié)作至關(guān)重要?,F(xiàn)有的依賴短期運(yùn)動(dòng)數(shù)據(jù)進(jìn)行意圖估計(jì)的方法缺乏多步預(yù)測(cè)能力,阻礙了機(jī)器人感知長(zhǎng)期意圖變化和自主調(diào)整人機(jī)分配的能力,從而導(dǎo)致潛在的人機(jī)分歧。為了解決這些問(wèn)題,中國(guó)科學(xué)院自動(dòng)化研究所與靈寶CASBOT共同提出了一種基于對(duì)偶Transformer的人機(jī)協(xié)作框架(Dual Transformer-based Robot Trajectron, DTRT),該框架采用分層結(jié)構(gòu),利用人類引導(dǎo)的運(yùn)動(dòng)和力數(shù)據(jù)來(lái)快速捕獲人類意圖變化,從而實(shí)現(xiàn)準(zhǔn)確的軌跡預(yù)測(cè)和動(dòng)態(tài)機(jī)器人行為調(diào)整,最終實(shí)現(xiàn)有效的物理人機(jī)協(xié)作。

基于雙變壓器的機(jī)器人軌跡器,用于人類意圖估計(jì)和角色分配

具體而言,DTRT中的人類意圖估計(jì)利用兩個(gè)基于Transformer的條件變分自編碼器(Conditional Variational Autoencoder, CVAE),將機(jī)器人在無(wú)障礙物情況下的運(yùn)動(dòng)數(shù)據(jù)與避障時(shí)人類引導(dǎo)的軌跡和力相結(jié)合。此外,我們采用基于人類施加力的微分合作博弈論(Differential Cooperative Game Theory, DCGT)來(lái)綜合兩種預(yù)測(cè),確保機(jī)器人的行為與人類的意圖一致。與現(xiàn)有方法相比,DTRT將人類動(dòng)態(tài)納入長(zhǎng)期預(yù)測(cè),提供準(zhǔn)確的意圖理解,實(shí)現(xiàn)合理的角色分配,提升機(jī)器人的自主性和可操作性。

02. 物理人機(jī)協(xié)作面臨意圖預(yù)測(cè)與角色分配的雙重挑戰(zhàn)

物理人機(jī)協(xié)作(pHRC)在制造、醫(yī)療保健和服務(wù)中至關(guān)重要。需要有效的策略來(lái)確保機(jī)器人能夠無(wú)縫地與人類協(xié)作,進(jìn)行準(zhǔn)確的估計(jì)意圖,并動(dòng)態(tài)調(diào)整行為,從而協(xié)助人類。因此,精確的人類意圖估計(jì)和合理的人機(jī)角色分配是提高pHRC性能的關(guān)鍵挑戰(zhàn)。

基于人類意圖對(duì)未來(lái)軌跡的準(zhǔn)確預(yù)測(cè)對(duì)于機(jī)器人輔助的有效性和pHRC的安全性至關(guān)重要。在存在潛在危險(xiǎn)的復(fù)雜環(huán)境中,例如當(dāng)機(jī)器人遇到未知障礙物時(shí),人類意圖的快速變化給意圖估計(jì)帶來(lái)了重大挑戰(zhàn)。目前的方法主要依賴于短期運(yùn)動(dòng)數(shù)據(jù),如位置和速度,這限制了檢測(cè)人類意圖變化,將影響預(yù)測(cè)的準(zhǔn)確性和安全性。

此外,短期數(shù)據(jù)會(huì)降低長(zhǎng)期協(xié)作中意圖估計(jì)的有效性。因此,研究將人類施加的力量整合到pHRC中的長(zhǎng)期預(yù)測(cè)方法對(duì)于實(shí)現(xiàn)準(zhǔn)確的意圖估計(jì)至關(guān)重要。此外,人機(jī)角色分配涉及一種復(fù)雜的機(jī)制,用于在人類和機(jī)器人之間分配任務(wù)控制權(quán)。這一過(guò)程將實(shí)時(shí)協(xié)調(diào)人機(jī)關(guān)系,減少分歧并提高機(jī)器人的輔助水平?,F(xiàn)有方法主要依賴阻抗/柔順性控制,通過(guò)修改模型參數(shù)來(lái)確定角色。在各種方法中,基于博弈論的角色分配模擬多參與者之間的協(xié)作過(guò)程,將目標(biāo)設(shè)定為最小化成本函數(shù)以實(shí)現(xiàn)最優(yōu)的人機(jī)協(xié)同關(guān)系。然而,確保機(jī)器人行為與人類意圖一致,同時(shí)保持自主性和靈活性仍然是一個(gè)重大挑戰(zhàn)。

03. DTRT在預(yù)測(cè)精度與協(xié)作表現(xiàn)方面展現(xiàn)顯著優(yōu)勢(shì)

實(shí)驗(yàn)結(jié)果表明, DTRT在預(yù)測(cè)精度方面具有顯著優(yōu)勢(shì),在多個(gè)物理人機(jī)協(xié)作指標(biāo)上表現(xiàn)出卓越的性能,有效降低了人機(jī)分歧并提高了機(jī)器人的輔助水平,具有巨大的應(yīng)用潛力。DTRT的核心優(yōu)勢(shì)在于以下三點(diǎn):

1. DTRT將人類意圖估計(jì)與人機(jī)角色分配相結(jié)合,以檢測(cè)意圖變化并減少人機(jī)分歧,有效提高了復(fù)雜和危險(xiǎn)易發(fā)環(huán)境中的人機(jī)協(xié)作性能。

2. DTRT中的基于分層結(jié)構(gòu)的人類意圖估計(jì)同時(shí)處理人機(jī)協(xié)作中的運(yùn)動(dòng)和力數(shù)據(jù),提高了人類意圖的預(yù)測(cè)精度,提供了對(duì)意圖的準(zhǔn)確理解。

3. 基于微分合作博弈論的人機(jī)角色分配實(shí)現(xiàn)了基于人施加的力的自適應(yīng)領(lǐng)導(dǎo)者切換,確保機(jī)器人的行為與人類意圖一致,在保持機(jī)器人自主性的同時(shí)減少分歧。

在物理人機(jī)協(xié)作性能上,使用了以下指標(biāo):

在實(shí)驗(yàn)中,我們對(duì)障礙物進(jìn)行替換和隨機(jī)定位。結(jié)果表明,DTRT在物理人機(jī)協(xié)作場(chǎng)景下優(yōu)于現(xiàn)有方法。DTRT的平均人機(jī)協(xié)作角度為76.4°,平均機(jī)器人輔助水平指數(shù)為1.5,人機(jī)系統(tǒng)在61.8%的時(shí)間內(nèi)處于協(xié)作狀態(tài)。此外,人機(jī)角色分配有效地平衡了機(jī)器人的自主性和人類引導(dǎo),使得僅有3.5 J的人類機(jī)械功。總體而言,DTRT準(zhǔn)確估計(jì)了人類意圖變化,合理分配了領(lǐng)導(dǎo)者和追隨者的角色,從而減少了人機(jī)分歧,提高了機(jī)器人的輔助水平,促進(jìn)了安全高效的物理人機(jī)協(xié)作。

DTRT與現(xiàn)有方法在指標(biāo)上的定量對(duì)比

DTRT的提出,不只是一個(gè)算法突破,更是一次“人機(jī)關(guān)系”重構(gòu)的嘗試:它為人形機(jī)器人發(fā)展提供了一條兼具通用性與工程價(jià)值的技術(shù)路徑。未來(lái),DTRT的研究思路及其核心機(jī)制有望在靈寶CASBOT所聚焦的工業(yè)制造、復(fù)雜作業(yè)、服務(wù)協(xié)同等多個(gè)實(shí)際應(yīng)用場(chǎng)景中持續(xù)拓展與深化。


 
 
聲明:凡資訊來(lái)源注明為其他媒體來(lái)源的信息,均為轉(zhuǎn)載自其他媒體,并不代表本網(wǎng)站贊同其觀點(diǎn),也不代表本網(wǎng)站對(duì)其真實(shí)性負(fù)責(zé)。您若對(duì)該文章內(nèi)容有任何疑問(wèn)或質(zhì)疑,請(qǐng)立即與中國(guó)機(jī)器人網(wǎng)(baoxianwx.cn)聯(lián)系,本網(wǎng)站將迅速給您回應(yīng)并做處理。
電話:021-39553798-8007
更多>相關(guān)資訊
0相關(guān)評(píng)論

推薦圖文
推薦資訊
點(diǎn)擊排行
?