1、論文背景
機器人可以為殘疾人或老年人的日常生活提供極大幫助,比如說機器人輔助穿衣。然而穿衣過程中,用戶上肢的突然動作可能導(dǎo)致穿衣任務(wù)的失敗,甚至為用戶帶來危險。使用視覺傳感器實時追蹤用戶上肢運動(user posture tracking)非常困難,因為衣服和機器人都對用戶造成了遮擋。例如,使用開源骨骼追蹤框架(OpenNI Skeleton Tracker [1])和深度學(xué)習(xí)方法OpenPose [2],均無法實施準(zhǔn)確的追蹤用戶上肢運動。
為了解決上述問題,我們提出了一種多傳感器信息融合的人體骨骼實時追蹤方法。本文研究主要包括以下三點:第一,我們通過高斯隱變量模型(Gaussian Process Latent VariableModel,GP-LVM),將運動上肢的高維運動映射至低維度的隱變量空間中(latent space)。該空間可以針對不同用戶的不同上肢殘疾特點,建立個性化用戶輔助模型(personalized user model)。第二,我們在隱變量空間中使用貝葉斯網(wǎng)絡(luò)(Bayesian networks),該網(wǎng)絡(luò)融合了機器人和用戶之間力的信息,以及機器人末端位置信息,進(jìn)而實時追蹤人體上肢運動。第三,我們使用層級多任務(wù)控制(hierarchical multi-task control),使機器人既可以基于力的信息自動改變運動軌跡從而保證用戶安全,又可以完成穿衣任務(wù)。
圖1 Baxter機器人輔助殘疾人穿衣
2、系統(tǒng)概述
如圖2所示,我們要求健康用戶穿著繃帶來模擬上肢殘疾情況。我們將采集用戶上肢隨機運動的數(shù)據(jù),將其映射至二維隱變量空間中建立個性化用戶模型。在該二維空間中,我們采用基于概率的粒子濾波方法(particle filter),完成多傳感器信息融合(機器人與用戶間力的信息,機器人末端執(zhí)行器位置信息),從而實現(xiàn)用戶上肢運動的實時準(zhǔn)確追蹤。在我們之前的研究中 [3], 我們將機器人穿衣動作描述為兩個層級任務(wù):高層級任務(wù)即機器人根據(jù)力的信息調(diào)整運動軌跡,從而實時減小用戶的受力情況,確保用戶的舒適與安全;低層級任務(wù)即通過PD控制完成從瘦-肘-肩關(guān)鍵的穿衣軌跡,該軌跡由本文的用戶上肢追蹤方法實時更新。
圖2 系統(tǒng)概括圖
圖3展示了完整的穿衣過程。當(dāng)用戶在穿衣過程抬起胳膊時,機器人也相應(yīng)改變軌跡來減少受力情況,并實時運行至新的肘關(guān)節(jié)和肩關(guān)節(jié)位置。
圖3 機器人穿衣過程
圖4 展示了在低維隱變量空間內(nèi)粒子濾波的過程。我們根據(jù)力和位置的信息為每個粒子賦予新權(quán)重,從而循環(huán)更新。圖中顏色越淺代表權(quán)重越高。
圖4 低維隱變量空間內(nèi)粒子濾波
3、實驗分析
本文首先對隱變量空間個性化用戶模型進(jìn)行分析,如圖5所示。該模型有一下3個特點:第一,該模型可以描述不同用戶的不同上肢殘疾特點。圖5里面不同顏色即代表不同殘疾情況的運動空間;第二點,低維空間極大減小了粒子濾波的計算量;第三點,該個性化模型權(quán)衡了用戶殘疾上肢運動的可達(dá)性 (reachability) 和用戶偏好(preference)。
本文還進(jìn)行了一些列對比試驗,其中包括了與只用視覺方法追蹤的誤差比較,如圖6所示。本文所提出的方法產(chǎn)生了3.3cm的誤差,是視覺追蹤誤差的六分之一。
本文在20名用戶上完成了相關(guān)實驗測試。每個用戶進(jìn)行50次試驗并模擬不同的殘疾類型,如圖7所示。
4、分析與結(jié)論
本文提出了一種利用多傳感器信息在低維隱變量空間中實時追蹤用戶運動的方法。該方法為在物理人機交互(physical human-robot interaction)中,當(dāng)人體運動被嚴(yán)重遮擋而無法用單一視覺信息完成追蹤的問題,提供了一種解決方案。
參考文獻(xiàn):
[1] http://wiki.ros.org/openni_tracker
[2] Cao, Zhe, et al. "Realtimemulti-person 2d pose estimation using part affinity fields." Proceedingsof the IEEE Conference on Computer Vision and Pattern Recognition. 2017
[3] Zhang, Fan, Antoine Cully, andYiannis Demiris. "Personalized robot-assisted dressing using user modelingin latent spaces." 2017 IEEE/RSJ International Conference on IntelligentRobots and Systems (IROS). IEEE, 2017.
避障使用的傳感器各種各樣,其特點和適用范圍也不同。根據(jù)不同的原理,可分為:超聲波傳感器、紅外傳感器、激光傳感器和視覺傳感器等
基于電子皮膚的軟體機器人傳感、機器學(xué)習(xí)在柔性電子皮膚上的應(yīng)用、形狀感知、面向軟體機器人的反饋控制和機器人的操作
與機器人互動時研究人的大腦將有助于更清晰、更深入地了解人機交互,從而為社交機器人的春天奠定基礎(chǔ),將社會維度整合到人與這些機器的交流中來加速人與機器人的交互研究,有助于推動創(chuàng)造真正的社交機器人
機器人對環(huán)境的感知大多通過激光雷達(dá)、攝像頭、毫米波雷達(dá)、超聲波傳感器、GPS這五類傳感器及其之間的組合來實現(xiàn)自主移動功能
教育服務(wù)機器人:指具有教與學(xué)智能的服務(wù)機器人,機器人教育:模塊化機器人和機器人套件是機器人教育中常見 的輔助產(chǎn)品
教育機器人經(jīng)歷了從概念先行到價格營銷到回歸內(nèi)容與價值本質(zhì)的發(fā)展階段變遷
機器人感知系統(tǒng)包括傳感器的選擇和配置,以及算法和實現(xiàn),利用了一個單目相機,一個短程二維激光測距儀,車輪編碼器和慣性測量單元。
低級技能學(xué)習(xí)或建模的三種主要方法:動態(tài)運動基元(DMP),高斯混合建模與回歸(GMM-GMR),隱馬爾科夫模型(HMM)
人類教師提供的示教被用來推斷執(zhí)行高級技能的意圖,現(xiàn)代方法也使用基于獎勵函數(shù)的強化學(xué)習(xí)方法來實現(xiàn)期望目標(biāo)
蘇州行政審批局實現(xiàn)機器人導(dǎo)覽服務(wù)。5G 高速互聯(lián)網(wǎng)接入服務(wù)。異地超高清視頻通話
由于機器視覺可以提供目標(biāo)物的顏色、形狀、紋理、深度等豐富的信息,且精度相當(dāng)高,成本相對較低,因此以往關(guān)于植物檢測的研究大多基于機器視覺
武漢大學(xué)薛龍建教授團(tuán)隊研制出一種迷你軟體機器人Geca-Robot,其可精準(zhǔn)控制方向和速度,可在廢墟狹縫、生物體內(nèi)完成各種復(fù)雜作業(yè)