【ZiDongHua 之自動(dòng)化學(xué)院派收錄關(guān)鍵詞:清華大學(xué) 機(jī)器人 可變形柔性物體 】
  
  紫冬學(xué)術(shù) | 清華大學(xué)自動(dòng)化系李翔團(tuán)隊(duì)提出面向可變形柔性物體的機(jī)器人自主操作方法
  
  除剛性物體外,人類生產(chǎn)生活中也包含大量需要對(duì)線狀柔性體(如線纜、繩子等)進(jìn)行操作的場(chǎng)景,例如線纜裝配、手術(shù)縫線、消防打結(jié)等。過(guò)去數(shù)十年內(nèi),面向剛體的機(jī)器人操作技術(shù)取得了快速發(fā)展和廣泛應(yīng)用,極大提高了生產(chǎn)效率和質(zhì)量。相較于剛體,線狀柔性體的強(qiáng)變形特性導(dǎo)致其具有高自由度、強(qiáng)非線性、高差異性等特點(diǎn),對(duì)機(jī)器人操作提出了極大挑戰(zhàn),相關(guān)研究相對(duì)初步,難以解決人類生活中大量柔性物體的自動(dòng)化操作問(wèn)題。
  
  清華大學(xué)自動(dòng)化系工業(yè)智能與系統(tǒng)研究所李翔副教授與美國(guó)加州大學(xué)伯克利分校Masayoshi Tomizuka教授合作,提出了一種在三維受限空間自主操作線狀柔性體進(jìn)行全局形變的方法,實(shí)現(xiàn)了對(duì)于高度復(fù)雜操作任務(wù)的高效求解和可靠執(zhí)行,且無(wú)需預(yù)先訓(xùn)練即可有效泛化至真實(shí)世界中的各種線狀柔性體,提高了機(jī)器人操作可變形柔性物體的實(shí)用價(jià)值?!度S受限環(huán)境中基于雙臂機(jī)器人的可泛化全身全局線狀柔性體操作》(Generalizable whole-body global manipulation of deformable linear objects by dual-arm robot in 3-D constrained environments)文章于2024年9月21日在機(jī)器人學(xué)領(lǐng)域旗艦期刊The International Journal of Robotics Research(IJRR)發(fā)表。
 
 
  
  在復(fù)雜三維受限環(huán)境中對(duì)線狀柔性體進(jìn)行全身全局避障操作示意
  
  1
  
  線狀柔性體操作挑戰(zhàn)與現(xiàn)狀
  
  與剛體操作不同,在受限空間中的柔性體操作需要同時(shí)考慮機(jī)械臂的運(yùn)動(dòng)和柔性體的變形情況。強(qiáng)變形的線狀柔性體、高自由度的雙機(jī)械臂系統(tǒng)及三維復(fù)雜受限環(huán)境使該任務(wù)具有維度高、約束多等挑戰(zhàn),大幅增加規(guī)劃復(fù)雜度。此外,線狀柔性體的強(qiáng)非線性和高差異性導(dǎo)致難以對(duì)其進(jìn)行準(zhǔn)確建模,從而易導(dǎo)致規(guī)劃路徑不可靠。該工作期望實(shí)現(xiàn)兩大目標(biāo):1)高效且準(zhǔn)確地完成三維受限空間中的線狀柔性體全局位形操作;2)對(duì)真實(shí)世界中各種不同線狀柔性體實(shí)現(xiàn)可泛化且魯棒的操作。
  
  在此之前,大多數(shù)研究工作不考慮實(shí)際操作場(chǎng)景中的受限環(huán)境對(duì)線狀柔性體和機(jī)械臂所施加的約束,僅考慮在開放環(huán)境中使用反饋控制對(duì)線狀柔性體進(jìn)行局部形變控制。部分工作基于離線全局規(guī)劃和開環(huán)執(zhí)行完成受限空間中的操作,但其大多假設(shè)擁有準(zhǔn)確的線狀柔性體模型,而不考慮模型誤差對(duì)規(guī)劃路徑可靠性的影響;此外,此類工作往往需要對(duì)規(guī)劃問(wèn)題進(jìn)行簡(jiǎn)化,例如不考慮機(jī)械臂臂身的影響、使用離線建立的路標(biāo)圖、過(guò)度簡(jiǎn)化線狀柔性體的狀態(tài)表征等。從操作效果上看,現(xiàn)有方法往往只能在仿真中驗(yàn)證或僅能處理較簡(jiǎn)單的操作任務(wù),操作效率低,且難以實(shí)現(xiàn)對(duì)于不同線狀柔性體的泛化。
 
  
  現(xiàn)有工作的應(yīng)對(duì)場(chǎng)景及操作能力
  
  該工作首次實(shí)現(xiàn)了在真實(shí)三維受限環(huán)境中對(duì)多種線狀柔性體的全身全局避障操作,在任務(wù)難度和操作性能方面大幅超越現(xiàn)有工作,具體體現(xiàn)在:
  
  一、更加實(shí)際且復(fù)雜的操作任務(wù):
  
  1. 全身:考慮線狀柔性體和機(jī)械臂的全身。
  
  2. 全局:包括長(zhǎng)距離移動(dòng)和大變形的全局操作。
  
  3. 復(fù)雜環(huán)境:包含復(fù)雜障礙物的三維受限環(huán)境。
  
  4. 模型未知的多種線狀柔性體:五種顯著不同的真實(shí)線狀柔性體。
  
  二、更優(yōu)的操作性能:
  
  1. 可靠的規(guī)劃:上千次實(shí)驗(yàn)中100%的規(guī)劃成功率。
  
  2. 高效的規(guī)劃:平均規(guī)劃開銷僅為數(shù)秒。
  
  3. 魯棒的操作:135次真實(shí)實(shí)驗(yàn)中100%的操作成功率。
  
  4. 高效的操作:平均操作時(shí)間小于1分鐘。
  
  2
  
  線狀柔性體互補(bǔ)操作框架
  
  該工作提出了一種結(jié)合全局規(guī)劃和局部控制的互補(bǔ)操作框架。首先,該框架提出了一種全局規(guī)劃器,其基于簡(jiǎn)化后的線狀柔性體能量模型和采樣規(guī)劃算法高效求出滿足全部約束的可行解。此后,該框架提出了一種閉環(huán)操作方法,基于自適應(yīng)線狀柔性體運(yùn)動(dòng)模型和約束模型預(yù)測(cè)控制器,根據(jù)實(shí)時(shí)反饋在線調(diào)整機(jī)器人動(dòng)作,從而補(bǔ)償建模規(guī)劃誤差、提高操作魯棒性和精度。
 
  
  結(jié)合全局規(guī)劃與局部控制的線狀柔性體操作框架圖
  
  其中,如何面向線狀柔性體操作更合理地結(jié)合全局規(guī)劃和局部控制是該框架的關(guān)鍵。該框架的核心思想是在規(guī)劃中使用合理簡(jiǎn)化的線狀柔性體模型,在不顯著增加規(guī)劃開銷的前提下盡可能準(zhǔn)確逼近真實(shí)物理狀態(tài),在保證求解高效性的前提下給局部控制盡可能準(zhǔn)確的參考軌跡;而在實(shí)際執(zhí)行過(guò)程中基于可在線自適應(yīng)更新的柔性體局部運(yùn)動(dòng)模型,應(yīng)用閉環(huán)控制來(lái)補(bǔ)償殘余的建模規(guī)劃誤差,最終實(shí)現(xiàn)準(zhǔn)確的操作。
  
  操作框架中全局規(guī)劃、局部控制及各自所用線狀柔性體模型間的關(guān)系
  
  在全局規(guī)劃中,該方法系統(tǒng)考慮了路徑中的各種約束,包括柔性體穩(wěn)態(tài)位形約束、柔性體與雙機(jī)械臂共同構(gòu)成的閉鏈約束,以及柔性體、機(jī)械臂與環(huán)境間的無(wú)碰撞約束。該方法選用離散彈性桿模型(Discrete Elastic Rod)模型,通過(guò)局部投影方法保證規(guī)劃路徑滿足柔性體穩(wěn)態(tài)位形約束和閉鏈約束,并避免長(zhǎng)路徑中產(chǎn)生累積誤差。為降低模型參數(shù)辨識(shí)難度和規(guī)劃計(jì)算量,該方法選擇進(jìn)一步引入粗略離散化、均勻分布等以簡(jiǎn)化模型,最終實(shí)現(xiàn)高效的全局路徑求解。
  
  由于全局規(guī)劃中引入了上述簡(jiǎn)化,如果對(duì)規(guī)劃路徑直接進(jìn)行開環(huán)執(zhí)行,則線狀柔性體可能偏離規(guī)劃路線導(dǎo)致執(zhí)行失敗,因此該方法使用閉環(huán)模型預(yù)測(cè)控制對(duì)規(guī)劃路徑進(jìn)行跟蹤和微調(diào)。在控制中,該方法選用課題組在前期研究中提出的線狀柔性體局部運(yùn)動(dòng)模型(TRO 2023),該數(shù)據(jù)驅(qū)動(dòng)模型基于準(zhǔn)靜態(tài)操作和彈性變形假設(shè),可在操作過(guò)程中利用在線運(yùn)動(dòng)數(shù)據(jù)針對(duì)柔性體進(jìn)行自適應(yīng)更新,從而保證局部操作的準(zhǔn)確性。同時(shí),該控制器通過(guò)將局部全身避障描述為硬約束的方式,保證微調(diào)后路徑的安全性。
  
  3
  
  操作性能
  
  上述操作框架在實(shí)驗(yàn)中取得了極佳的操作性能。在上千次仿真實(shí)驗(yàn)中取得了100%的規(guī)劃成功率,在最復(fù)雜的任務(wù)中的平均規(guī)劃時(shí)間開銷小于15秒。在包括五種性質(zhì)顯著不同的線狀柔性體的135次真實(shí)操作實(shí)驗(yàn)中取得了100%的操作成功率。
  
  線狀柔性體操作真實(shí)實(shí)驗(yàn)
  
  潛在應(yīng)用場(chǎng)景:線纜嵌槽及線纜插孔任務(wù)
  
  該研究工作以《三維受限環(huán)境中基于雙臂機(jī)器人的可泛化全身全局線狀柔性體操作》(Generalizable whole-body global manipulation of deformable linear objects by dual-arm robot in 3-D constrained environments)為題發(fā)表于The International Journal of Robotics Research。清華大學(xué)自動(dòng)化系李翔副教授為唯一通訊作者,清華大學(xué)自動(dòng)化系博士生于銘瑞為唯一第一作者,博士生呂康晨、姜永鵬參與了本項(xiàng)研究。該研究工作得到了國(guó)家自然科學(xué)基金首屆青年學(xué)生項(xiàng)目、聯(lián)合基金重點(diǎn)項(xiàng)目、科技創(chuàng)新2030重大項(xiàng)目課題,以及清華大學(xué)國(guó)強(qiáng)研究院等支持。
  
  The International Journal of Robotics Research (IJRR) 期刊簡(jiǎn)介:IJRR是機(jī)器人領(lǐng)域的高水平學(xué)術(shù)期刊,專注于發(fā)布關(guān)于機(jī)器人技術(shù)和相關(guān)領(lǐng)域的最新研究成果。IJRR創(chuàng)刊于1982年,是該領(lǐng)域第一本學(xué)術(shù)期刊。自創(chuàng)刊以來(lái),IJRR致力于發(fā)表原創(chuàng)性、深入思考和引人入勝的論文,以卓越的學(xué)術(shù)質(zhì)量和廣泛的學(xué)術(shù)影響力在國(guó)際學(xué)術(shù)界享有極高聲譽(yù)。IJRR發(fā)文量較少,2023全年共收錄約57篇論文,其中來(lái)自中國(guó)大陸3篇、香港2篇(以上統(tǒng)計(jì)自2023年IJRR正式見(jiàn)刊的文章)。本文是清華大學(xué)自動(dòng)化系作為第一單位在IJRR上發(fā)表的首篇文章,清華大學(xué)作為第一單位在IJRR上發(fā)表的第三篇文章。
  
  論文鏈接:點(diǎn)擊文末“閱讀原文”。
  
  課題組相關(guān)研究:
  
  1. M. Yu, K. Lv, C. Wang, Y. Jiang, M. Tomizuka, and X. Li, “Generalizable whole-body global manipulation of deformable linear objects by dual-arm robot in 3-D constrained environments”, The International Journal of Robotics Research, 2024.
  
  2. M. Yu, K. Lv, H. Zhong, S. Song, and X. Li, “Global Model Learning for Large Deformation Control of Elastic Deformable Linear Objects: An Efficient and Adaptive Approach”, IEEE Transactions on Robotics, 2023.
  
  3. M. Yu, B. Liang, X. Zhang, X. Zhu, L. Sun, C. Wang, X. Li, M. Tomizuka, “In-Hand Following of Deformable Linear Objects Using Dexterous Fingers With Tactile Sensing”, 2024 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2024.
  
  4. M. Yu, K. Lv, C. Wang, M. Tomizuka, and X. Li, “A Coarse-to-Fine Framework for Dual-Arm Manipulation of Deformable Linear Objects with Whole-Body Obstacle Avoidance”, 2023 IEEE International Conference on Robotics and Automation (ICRA), 2023.
  
  5. K. Lv, M. Yu, Y. Pu, and X. Li, “Learning to Estimate 3-D states of Deformable Linear Objects from Single-Frame Occluded Point Clouds”, 2023 IEEE International Conference on Robotics and Automation (ICRA), 2023.
  
  6. M. Yu, H. Zhong, and X. Li, “Shape Control of Deformable Linear Objects with Offline and Online Learning of Local Linear Deformation Models”, 2022 IEEE International Conference on Robotics and Automation (ICRA), 2022.