MIT新研究:讓機器人像人一樣有觸覺,觸摸可識別姿態位置

MIT新研究:讓機器人像人一樣有觸覺,觸摸可識別姿態位置

智東西(公眾號:zhidxcom)

編譯 | 信儀

編輯 | 漠影

智東西1月20日消息,近日,麻省理工學院(MIT)的研究人員進行了一項研究,旨在在機器人身上,複製人類觸摸獲取物體位置的能力。

研究人員將他們的論文預先發表在arXiv上,強調他們的研發成果可以讓機器人僅通過觸摸,而無需通過視覺和音頻處理,就能與其周圍環境進行交互,甚至可以在第一次接觸物體時對物體進行準確定位。

一、不依賴外部傳感方式,僅通過模擬訓練實現物體行為

研究人員之一Maria Bauza 在接受外媒Tech Xplore採訪時説:“我們此次研究的方法相比以往的觸覺定位工作取得了重要飛躍,因為我們可以不依賴例如視覺等其他任何外部傳感方式,也不依賴以前收集的與被操縱物體相關的觸覺數據。”

“相反,我們的技術是直接在模擬中訓練出來的,機器人能在第一次觸摸時就定位物體,這在機器人領域的應用中是至關重要的。”

在現實情況中,數據收集價格高昂,甚至有些數據無法被收集。而由於這個新技術是經過模擬訓練的,也就是説,無需真實的機器人訓練,只需在計算機上訓練就可完成操作。因此,Bauza和她的同事在設計的時候就不用進行復雜的數據收集工作了。

研究人員最初開發了一個框架,模擬給定物體和觸覺傳感器之間的接觸,從而假設機器人可以訪問與其交互的物體的數據(例如,物體的三維形狀、特徵等)。這些接觸行為以深度圖像的形式呈現,它顯示了物體擠壓觸覺傳感器的程度。

隨後,Bauza和她的同事們使用最先進的機器學習技術進行計算機視覺和表示學習(representation learning),觀察機器人收集的真實觸覺數據,並將這些數據與模擬生成的觸點數據集進行匹配。

MIT新研究:讓機器人像人一樣有觸覺,觸摸可識別姿態位置

研究人員使用的觸覺傳感器

Bauza説:“我們的方法是,將表示為深度圖像的接觸編碼到一個嵌入式空間中,這極大地簡化了計算成本,使任務能夠實時執行。”

“在我們的工作中,我們在多接觸場景中對這一點進行了演示,其中在多個觸覺傳感器同時接觸一個物體的情況下,我們必須將所有觀察結果整合到對物體姿態的估計中。”

從本質上講,這個研究小組設計的方法可以簡單基於物體的三維形狀來模擬接觸信息。因此,它不需要在仔細檢查物體時收集任何以前的觸覺數據。這使得該技術能夠通過機器人的觸覺傳感器,在它第一次接觸到物體時,就對物體產生姿態估計。

Bauza説:“我們意識到觸覺傳感具有很強的鑑別力,並可以產生高度精確的姿勢估計。視覺有時候會受到遮擋的影響,但觸覺不會。因此,如果一個機器人接觸到一個少見且獨特物體的某一部分,那麼我們的算法可以輕易識別出機器人接觸的物體,從而識別物體的姿態。”

二、“多手指”感觸提高操作精度,適用工業領域

許多物體不同側面的觸感相似,而Bauza和她的同事開發的方法可以預測姿勢分佈,而不止對單個姿態進行估計。這一特徵非常特殊,與此前只收集單一姿態估計的目標姿態估計方法形成鮮明對比。此外,麻省理工學院研究小組的框架所預測的分佈可以直接與外部信息整合,以進一步減少物體姿態的不確定性。

Bauza説:“值得注意的是,我們還觀察到,像用幾個手指接觸一個物體一樣同時進行多個接觸行為,可以很大程度上減少對物體姿勢判斷的不確定性。這證實了我們的預測,即在一個對象上添加接觸會限制其姿態並簡化姿態檢測過程。”

方法運作流程:接觸→ 觸覺觀察→觸覺深度→匹配使用研究人員的最佳算法→結果姿勢

為了輔助人類進行日常活動,機器人必須能夠高精度、高可靠性地完成任務。由於對物體的操縱意味着機器人需要直接接觸物體,因此開發能有效使機器人進行觸覺傳感的技術至關重要。

另一位參與這一項目的研究人員Alberto Rodriguez在接受媒體採訪時説,觸覺能力最近受到了工業領域的極大關注,我們通過對三個因素的結合實現了觸覺能力技術的突破:

1、 使用具有高分辨率的小型攝像機,捕捉觸摸表面變形的狀態,這一傳感技術成本較低。例如:GelSight 傳感。

2、 將上述第一點中提到的傳感技術與機器人手指進行結合。例如:GelSlim 手指。

3、 一種基於深度學習的計算框架,它可以有效處理高分辨率觸覺圖像,實現已知部位的觸覺定位。例如:本文提到的研究。

Rodriguez説:“這類技術正在逐漸成熟,行業正在看到自動化任務的價值。比如,在裝配自動化領域,觸摸任務的實施就對精確度有要求。”

這組研究人員設計的技術,使機器人能實時估計他們正在操縱的物體的姿態,而且精確度很高。這使工作人員有機會對機器人的動作或行為影響做出更準確的預測,從而提高機器人在操作任務中的表現。

這一研究或許能夠證明其在工業領域應用中的價值。在工業領域,製造商可以依此根據產品形狀的清晰模型組裝產品。

未來,研究人員計劃擴展他們的框架,使其同時包含有關物體的視覺信息。他們希望將現有的技術轉化為一個視覺-觸覺傳感系統,可以更精準地估計物體的姿態。

此外,他們還將研發讓機器人進行精確拾取和放置操作的技術。他們的目標是,讓機器人能進行穩定抓取任務的同時,還能幫助其進行感知,提高其觸覺定位能力。

結語:為機器人提供更多感官

視覺、音頻技術是機器人定位常用的方式,這次,MIT的研究人員從觸覺方面為機器人確認物體位置的方式提供了一個新的切口。

人類通過各種感官確認物體的形狀和位置,未來,機器人或許也能像人類一樣,通過眼睛鎖定,耳朵聽見,皮膚觸摸,鼻子嗅聞來準確鎖定物體位置、形狀及狀態。

來源:Tech Xplore

版權聲明:本文源自 網絡, 於,由 楠木軒 整理發佈,共 2220 字。

轉載請註明: MIT新研究:讓機器人像人一樣有觸覺,觸摸可識別姿態位置 - 楠木軒