看點:動動手就能操控無人機?小巧傳感器 算法,可以即插即用。
智東西4月29日消息,近日,麻省理工學院計算機科學與人工智能實驗室(CSAIL)的研究團隊利用肌肉傳感器和運動檢測算法,開發出一個“行為控制機器人”系統,能通過肌肉收緊來遠程遙控無人機。
目前,搭載這個系統的無人機能夠對8種手勢做出反應,反應正確率達到81.6%。
利用機器人完成工作可以解放人類的生產力。要達到這一目的,需要機器人和人之間達到較高的配合度。此前的研究從語音識別、自然語言處理、計算機視覺、觸覺、手勢等角度進行了探索。結果顯示,語音、觸屏控制不夠靈敏,已有的傳感器系統也比較笨重。
麻省理工學院的研究人員認為讓機器人理解人類的非語言指令可以解決這些問題。據此,他們研發出一款端到端手勢控制系統。這個系統用肌電信號傳感器接收用户手勢,用算法判斷指令內容,不需要進行繁瑣的數據訓練或校準,配套傳感器的尺寸也比較小。
這項研究已經入選2020年人機交互國際會議(ACM/IEEE HRI),這是人機交互領域最重要的會議之一。
論文發表在計算機學術網站ACM Digital Library上,論文題目為《使用肌肉和動作傳感器實現即插即用手勢控制(Plug-and-Play Gesture Control Using Muscle and Motion Sensors)》。
論文鏈接:
https://dl.acm.org/doi/10.1145/3319502.3374823
用傳感器捕捉肌電信號,設備更輕巧肌電信號與人體的運動意圖相關。根據之前的研究,肌電信號和相關肌肉動力學之間的建模可被用於提升外骨骼、假肢等輔助機器人的性能。
本項研究中,研究人員嘗試利用肌電信號傳感器(也稱肌電圖傳感器,EMG),將人類手部運動時的肌電信號傳輸給機器人。
用表面肌電電極從參與者的右上臂提取肌電信號,在肱二頭肌短頭和肱三頭肌長頭上放置24mm預塗導電膠的Covidien電極。前臂上的裝置包括肌電圖電極和一個慣性測量設備(IMU,由一個加速度計和一個陀螺儀組成)。
可穿戴式肌電信號傳感器會差異化增強收集到的每對肌電信號。數據收集系統以1KHz的頻率對肌電信號進行採樣,並通過USB把它們傳輸到可視化仿真工具Simulink R2018b。
▲傳感器捕捉肌電信號的過程
論文指出,使用肌電信號傳感器有幾個好處:
首先,降低了模型的複雜性。不需要照相機等動作捕捉設備,設備更輕巧;
其次,排除了遮擋、環境噪音等因素的干擾;
另外,肌肉信號能夠反映出肉眼觀測不到的運動狀態(比如關節僵硬),有助於提升人機交互系統的靈活性。
▲“行為控制機器人(Conduct-a-Bot)”系統
用算法理解手勢含義,實現即插即用根據論文,讓機器人理解手勢指令有兩個好處。首先,相比於連續運動,手勢有助於增加系統的穩健性;其次,這種設計可以減少需要的電極數目,降低了模型的複雜性,增加了可部署性。
研究人員共設計了8種手勢,分別是:手臂僵直、轉動(分為順時針轉動和逆時針轉動)、握拳(分為左手、右手、向上、向下)、手腕彎曲和伸展。
對於大多數手勢引起的肌電信號,研究人員使用自適應在線聚類算法(Online clustering for adaptive thresholding)幫助機器人理解。
最初,所有的觀察結果都儲存在未知緩衝區。幾秒鐘後,高斯混合模型(GMMs,Gaussian Mixture Models)會對數據流分類,並將其添加到相應的滾動緩衝區中。
相比於離線訓練方法,自適應在線聚類算法不儲存所有的歷史數據,不需要大量的校準、訓練過程,可以做到即插即用。高斯混合模型(GMMs,Gaussian Mixture Models)會持續更新,聚類數據流並創建自適應閾值。這樣,系統就可以適應不同用户的使用習慣。
對於那些很難用自適應閾值來描述的手勢(在上、下、左、右四個方向上的握拳動作),研究人員用一個神經網絡來幫助系統理解。這個神經網絡用過去收集的一些受試者數據進行訓練。
通過這兩種方法,最終每個集羣的訓練池中都包含至少25%的手勢。使用固定的覆蓋率有助於保持原有的手勢分類。
測試1200次,分類器識別準確率達97.6%在測試階段,研究人員按照這樣的順序給出指令:轉動,手臂僵直,向上、下、右握拳,向左握拳。分類器優先按照最近0.2s內檢測到的手勢做出反應,其次按照根據肌電信號預測到的運動意圖做出反應。
研究人員安排6名參與者做出1200次命令手勢,以此評估分類器的性能和界面效率。根據統計結果,分類器對手勢動作的識別準確率達到97.6%。
▲分類器分類準確率
根據肌電信號預測運動意圖方面,分類器對於向上握拳的預測準確率最高,達到100%;對向左握拳的預測準確率最低,為80%。
▲分類器預測準確率
另外,研究人員把這個系統應用於一個Parrot Bebop 2無人機。該無人機尺寸大約為35*43cm,重500g。在119分鐘的飛行時間中,測試人員隨機做出1535個命令手勢,無人機在81.6%的情況下做出了正確反應。
結語:未來機器人或能識別更多手勢麻省理工學院計算機科學與人工智能實驗室的研究團隊設計出的“行為控制機器人”系統有效提升了人機交互的效率。論文中寫道:“(我們)提出的方法在改善真實場景中的人機協作方面邁出了一步。這種協作越來越普及,會帶來更多效益。”
研究人員表示將繼續研究,致力於使機器人理解更多手勢,並嘗試提升傳感器性能,捕捉到更精細的肌電活動。
文章來源:ACM Digital Library,MIT CSAIL