機器人的概念可以追溯至1920年捷克作家卡雷爾•恰佩克的科幻作品《羅素姆萬能機器人》。但經過100年的發展,大多數機器人仍然是面向工業應用。它們揮舞着幾根機械臂、裝備着輪式或履帶式底盤,在自動化上產線上完成各種各樣的任務。
這些機器人都離日常生活太過遙遠,基本與我們沒有交集。大家心目中的機器人可能更傾向於科幻作品中那樣,如電影《星球大戰》中的機器人C-3PO,以及電影《電腦娃娃》和《人工智能》裏那些更接近人形、能陪伴我們的家庭機器人。看過這些科幻作品後,孩子們的第一個衝動就是用萌萌的眼神期待父母能立即給自己買一個這樣的機器人。
目前人類的科技發展水平,製造出形狀和真人一樣的機器人並不難,甚至皮膚都可以做的和人一樣,如日本在幾年前就推出了“仿真機器人”,似乎買個機器人回家為人們照看孩子、洗衣做飯、看家護院的願望馬上就能實現了。但事實上,常見的只有像扁餅乾盒一樣的“掃地機器人”吸塵器,遠達不到我們夢想中的“機器人”。
造成這種理想和現實差距的關鍵是我們期待的機器人要像“人”而不是“機器”。儘管機械手、機械足都基本接近人類的功能,但它們組合在一起仍然只是“機器”,距離“人”的標準還差得很遠。相比於機器,人最大的特點就是要“聰明”。機器人至少要能具備這個功能後,我們才會把機器人(而不是遙控玩具)買回家給孩子們。
何謂“聰明”的機器人?就猶如我們誇孩子一樣“真聰明、做什麼事只教一遍就會了”。但現在的機器人仍只能按照程序不停地循環執行預先設定的工作任務,還不具備像人類一樣強大的學習能力,無法有效應對每個家庭特有的需求。
目前計算機技術的發展水平,要求機器人立即能事事都“聰明”是不現實的。儘管近幾年出現了諸如深度學習等優秀的軟件算法,但服務機器人的各種功能都是預先編好的程序,難以應付千家萬户的各種特殊情況和需求。要想帶個機器人回家為用户服務,還需要廣大科技工作者充分發揮主觀能動性,儘可能的利用現有條件做出能夠讓用户儘量滿意的家庭機器人。
認路功能讓機器人聰明
針對家庭服務機器人,尤其是陪伴孩子的機器人,至少要能在兩方面變得“聰明”才會被用户們認可:穿梭於各個房間時自己會認路、觀察主人的情感提供貼心服務。這是對家庭機器人的最基本要求。
首先,機器人為了完成主人下達的各種任務,例如端茶倒水、搬運東西、打掃衞生,要在客廳、卧室、廚房之間往復運動,自己不會認路可不行。
機器人會認路的關鍵是要時刻知道“自己的位置在哪”。在户外,通過北斗等全球衞星定位技術,機器人可實時自主定位。但在室內,衞星自主定位會失靈,因為屋頂遮擋住了天上衞星發來的導航信號。而作為家庭機器人、它們大多數工作時間都是要在家中,因此科研工作者必須要為機器人設計一種新的室內自主定位方法。最直接的辦法就是仿照人眼視覺的原理,研製機器人視覺自主定位技術,讓機器人具備像人眼一樣的電子眼睛,主人領着機器人在房子的各個房間和走廊轉一圈,機器人下次再來就應該知道自己到哪了。
為了實現這一目標,除了機器人視覺系統要配備高清攝像頭,還需要功能強大的視覺處理算法軟件。但目前在算法方面還無法達到該要求,存在一個科研人員稱作“機器人被綁架”的問題:如同人被矇住雙眼被綁架到一個新地方不認識路一樣,如果意外碰了或踢了機器人一下,導致它意外滑動一些距離,機器人之前看到的場景消失,被快速切換為其它景物,此時機器人就無法重新自主定位、不知自己在哪裏了,隨之而來的就是迷路了。造成該問題的原因是目前機器人視覺系統的分析能力不足,只能依賴增量式地圖導航。所謂增量式地圖,即機器人通過計算看到的同一景物在當前時刻和前一時刻之間發生的位移和移動方向推算機器人的運動量,並將各個時刻觀察到的位移持續累加解算自己的運動軌跡。這種導航技術缺點非常多、很容易被幹擾。
針對該問題,空天信息創新研究院科研人員正在研製一種基於圖像內容的全局地圖定位技術。應用這種技術,機器人只需被主人領着在各個屋子中走一圈,為每個屋子和走廊拍攝一組照片構成地圖,隨後即可自主定位,通過將當前視場中看到的景物與地圖照片中的景物匹配,即可得知自己在哪,就像人眼自主判斷自己的位置一樣,並能根據實時定位的結果準確解算出自己的運動軌跡,實驗結果如下圖所示。
情感識別讓機器人貼心
“情感”是人們對機器“人”的另一個重要需求。何謂“人”?即要有七情六慾,即使機器人不能做出七情六慾一樣的豐富表情,但至少要能觀察出自己主人的情感。根據主人情緒的變化及時提供相應的服務,這是最基本的要求。要是主人悲傷時機器人在一旁還用生硬語調與主人對話,這樣冷冰冰的機器人是不會受到歡迎的。
對於“情感”這一目標,機器人首先要依靠視覺系統觀察出主人的情緒,然後才能察言觀色地為主人提供最適合的服務。
儘管目前有眾多的視覺情緒識別軟件和手機App提供給大家使用,只要用手機端正着拍下自己的臉、手機就會立即顯示人的情緒,但能具有情緒識別功能的機器人卻鮮有出現。究其原因,主要是因為機器人多數時間只能看到非配合的側臉,機器人不可能要求主人一直正面對着自己、也不能一直位於主人的正面盯着,否則就會對主人日常生活造成嚴重干擾。所以機器人一般只能位於主人的側面,對側臉“察言觀色”。而現有技術大多隻能解決正臉情緒識別,當面對的是側臉時,非配合的人臉在自然狀態下姿態多變,任意方位的人臉都可能被視覺傳感器拍攝到,這些側臉在成像時會包含很多變形。五官和臉皮的情緒特徵會被弱化甚至消失,情緒識別的準確度被嚴重干擾。因此,如果不能解決對任意姿態人臉、尤其是側臉的情緒識別,機器人是難以被廣大用户接受的。
針對該問題,科研人員正在研製一種能夠識別任意姿態人臉的情緒識別技術。該技術的核心是將任意姿態的人臉重建為正臉、消除非配合人臉造成的干擾,以重建的正臉為基礎可以實現準確的情緒識別,實驗結果如下圖所示。
機器人自主導航和識別人情緒這兩項工作已經獲得了比較好的實驗結果。現在的主要科研任務是提升核心算法的穩定性,最終目標是在任意複雜的家庭環境中都能讓機器人實施準確的導航定位、對任意姿態面部姿態的家庭成員都實施準確的情緒識別。
幾十年前,兒童時代的我們看着科幻電影、科幻小説描述“明天的未來世界”時,總會期盼着“到時候我就能有一個這樣的機器人了”。經過科研工作者們幾十年的努力,“明天”即將成為“今天”,兒時夢想的“聰明”機器人即將實現,它們可以時刻温馨體貼地陪護我們的孩子們,如同守護天使一樣!