關於語音交互,你瞭解多少?
編輯導讀:隨着智能音箱、智能家居等智能硬件的普及,語音交互熱度也不斷飆升。本文從交互模式的發展出發,梳理分析了語音交互的優勢、存在的問題和設計要點,並展望了語音交互的未來發展,希望通過此文能夠加深你對語音交互的認識。
隨着人工智能技術的發展,語音交互逐漸成為我們主流的交互方式之一,一方面是因為語音交互更加自然,一方面也得益於技術的發展。從智能音箱到智能手機,語音交互正在被大眾所接受。
一、交互模式的發展自從工業革命以來,人機交互就逐漸進入人們的視野。
- 開始是傳統的按壓交互,一個機械按鍵,按下去以後機器會有相應的反饋,就像現在手機的開機鍵。
- 然後就是鼠鍵交互,通過鼠標+鍵盤這個組合,映射到可視的顯示器上,點擊來進行交互。
- 緊接着是觸控交互,觸摸屏的普及,人們開始習慣在屏幕上戳戳點點,這就是我們每天都在使用的觸摸交互。
- 一直到現在,在以上兩種交互的基礎之上,又衍生出了語音交互和手勢交互,這都是得益於大數據和人工智能的發展,這就是我們常用的智能音箱和手機助手。
- 未來最有可能被普及的就是意識交互,計算機可以識別人腦的想法,從而直接進行反饋,之前看的Facebook有一個輸入法就可以通過腦電波輸入,最近又有埃隆·馬斯克的腦機接口演示,感覺這一天離我們越來越近。
現在語音交互在技術上也越來越成熟,識別的準確率和處理的效率越來越高,也已經有了很多落地的產品,足以證明語音交互在現在的可行性。隨着5G和物聯網的普及,語音交互會有更大的應用場景,讓所有的物體都會説話,真是一件不能再酷的事情了。
二、語音交互的優缺點從最開始的按壓交互,到現在的語音交互,中間經歷了幾百年的時間,但是按壓交互依然沒有被完全替代,像手機上的音量按鍵,電腦上的鍵盤等,在我們身邊隨處可見。語音識別和自然語言處理技術這麼成熟,為什麼我們不能完全由語音控制呢?
這就要説到交互的基本原則,也就是什麼樣子的交互設計用着爽:
- 簡單:儘可能的降低用户的學習成本
- 精準:能夠準確的完成我們想做的事情
- 自然:符合人體工程設計,看起來像一個正常人
我們先看鼠鍵交互和觸控交互,鼠鍵交互相比觸摸交互,最大的優勢是精準,而簡單和自然就不如觸控交互了。觸摸是人類的天性,相比於鼠標的映射更加簡單,學習成本低,操作起來也更自然,不用正襟危坐的在電腦前,隨時隨地都可以操作。這也是為什麼手機的交互方式碾壓電腦的原因,但是電腦因為有更精準的特點,也會一直存在。
沒有什麼方式能夠比直接説話來的更簡單,更自然,更不需要學習成本,但是語音交互最大的問題是不夠精準。首先是受環境的影響,導致語音識別的準確率較低;再者就是表達一個意圖的説法千變萬化,更本無法覆蓋全;最後就是語音交互是一個開放域的事情,需要處理很多意外的情況。這裏還沒有考慮有些場景不適合語音交互,比如會議場景,家人睡覺的時候等。
語音交互的優點和他的缺點一樣突出,這也就導致語音交互最終無法取代其他的交互模式,多種交互模式會長期並存。所以我們需要結合實際場景,充分發揮語音交互的優勢,而不是一味的追求語音交互。
由於技術的限制,語音交互的精確性不高,這也導致語音交互在未來很長一段時間裏,不會成為唯一的交互方式,而是和多種交互模式並存,可能會處於一種輔助的狀態。
在設計語音交互的時候,可以按照三步進行梳理。
1. 確定交互場景先要考慮當前場景是否適合語音交互。適合語音交互的場景有以下幾個特點:
- 環境噪音少,或者噪音處於一個穩定可控的狀態;
- 使用環境私密,或者當前環境交互沒有心理負擔;
- 對指令下發失敗容忍度高,或者有補救的方案;
- 使用對象雙手被佔用,或者距離操作按鈕很遠;
- 觸發的指令意圖簡短且明確。
根據以上特點,我們發現手機的智能助手滿足以上條件,因為手機的使用場景足夠豐富,幾乎覆蓋生活的方方面面,那麼總會有場景完全適合語音交互,所以大家都在嘗試做自己的語音助手。我們常見智能音箱和車載助手,也完全符合。
2. 確定交互反饋其次要考慮語音交互後的反饋,要能夠保證信息的準確傳達。簡單可以把語音交互夫人反饋分為三種:
(1)聽懂了的反饋:這個比較好理解,相對比較容易設計。只要知道用户所表達的意圖,我們就可以給出一個明確的反饋,一般會結合視覺和聽覺同時反饋給用户,並執行對應的指令。
(2)沒聽懂的反饋:沒聽懂需要分層次,是完全沒聽懂,還是聽懂了一點,還是感覺聽懂了,但是不確認,這都算在沒有聽懂裏面。如果是完全沒有聽懂,一般反饋內容分為兩部分,一是表示沒聽懂,另外需要引導用户説機器人會的內容。比如“XXXXXXX”,沒有對應的處理方案,對於機器人就是沒有聽懂,可以回覆“這個我沒聽懂,您可以對我説’打開空調’。”
如果是聽懂了一點,只聽出一個關鍵詞,或者是説話的語氣,也可以做一些回覆。比如“打開XX”,沒有聽清後面的設備,那麼就可以回覆“您想要打開什麼設備呢?”,然後根據反饋再做多輪迴復。
如果是聽懂了,但是不確認,就可以直接進行反問,讓用户進行二次確認。比如“打開空條”,感覺用户是想要説“打開空調”,就可以直接反問“您是要打開空調嗎?”,然後根據反饋再做多輪迴復。
(3)異常狀態的情況也有很多,但是我們全都需要有反饋。比如噪音、斷網等情況,要提示用户當前狀態,避免用户頻繁交互而沒有結果。
最後還要設定語音交互和其他交互方式的關係。往往一個設備不會只搭載一種交互方式,而是多種交互方式相結合。手機就是一個典型的多種交互方式結合的產物,所以要考慮語音和觸控之間的關係,比如是否要語音支持手機關機,語音指令是否支持打斷當前任務等等。
做語音交互的產品,首先要明確是否適合語音交互,其次再分層次的解決語音交互中的反饋,最後設計清楚語音和其他交互的關係。
四、語音交互的未來説到語音交互,很多人會説這是最符合人類的交互方式,因為我們感覺人和人之間都是語音交互。其實並不是這樣的,我們説話的時候,是帶有表情和動作的,我們把這種豐富的交互模式叫做多模態交互。
多模態交互才是語音交互的未來。現在我們傳統的語音交互,只是簡單的獲取了用户的文本信息,基於字面意識去做處理,高級一點的會利用上文聊過的信息,再往前一步,會根據用户畫像做反饋。多模態交互不僅僅需要文本信息,同樣需要視覺,音頻等信息,然後根據不同的權重,作出合理的反饋。
其實在人與人對話的時候,除了字面意思外,還有很多隱藏的的信息,面對不同身份,不同關係的人,可能反饋的內容都不一樣。所以需要給機器設定人設,還要對用户進行分類,有時候甚至需要做到千人千面。
語音交互相比於傳統的交互模式,更依賴於算法和數據,所以語音交互的未來是需要技術突破的。
我們生活中有多種多樣的交互方式,每一種交互方式都有它的優缺點,所以很多傳統的交互方式會一直存在。而語音交互是最簡單,最自然的交互方式,但同樣也是精準度最低的交互方式。這也就註定了語音交互將長期處於一個協助觸控交互的狀態,不過有些精準度要求不高的場景,也可以實現純語音交互。
未來語音交互繼續發展,將會進一步對人羣進行分類,並結合多模態信息反饋。
本文由 @我叫人人 原創發佈於人人都是產品經理。未經許可,禁止轉載
題圖來自Unsplash,基於CC0協議。