不知不覺,Siri 已經推出了八年之久。雖然在即將推出的 iOS 14 正式版中,蘋果表示 Siri 知識面的廣度是三年前的二十倍,但似乎除了每一次 UI 界面帶來的外觀變化,大家對於 Siri 智能化方面的提升感知並不明顯,對於中國用户而言,Siri 唯一一次變「聰明」的表現可能八年前對於中文的支持。
當然這也可能與大家花在 Siri 上的時間不夠多有關,畢竟目前 Siri 的智能化提升還未達到「化腐朽為神奇」的地步,無非就是在你説到某個笑話時,能更自然地和你對答,而不是生硬搬來網絡搜索結果。
最近關於「Siri 給貓取名」的段子就成為社交媒體討論的焦點。
在視頻中有人試着讓 Siri 為家裏的貓取個名字,在回答了 Siri 提出的三個問題之後,提問者的確得到了一個隨機的名字。雖然最後 Siri 表示這三個問題對名字的生成沒有影響,但通過加入對答的環節,讓提問者產生一種真的和智能語音助手「對話」的體驗。
除此之外,你還可以讓 Siri 給你講段子,例如涉及到「你有寵物嗎?」「生命的意義是什麼?」「你相信上帝嗎?」等提問時,Siri 都會給出有趣的回答。在今年春節期間,Siri 還針對農曆鼠年加入了交互彩蛋,比如在提問者問到:「嘿 Siri,我的鼠年關鍵字是什麼?」「嘿 Siri,你有吃年夜飯嗎?」時也會給出個性化的答案。
這種更自然的對話體驗能視為 Siri 變「聰明」的佐證嗎?
我覺得還得分兩方面看,一方面只看「講段子」這個場景,我們的確能看到 Siri 智能的一面,畢竟這種對答的體驗更加接近正常人交流,但同時這些「抖機靈」的回答大多要通過人工提前干預,例如設置答語,設置觸發關鍵詞 / 關鍵句等,一旦提問者用了其他含義相近的同義詞替代了關鍵詞,一般就無法觸發,這樣來看的話其實很難稱得上的人工智能。
所以當「調戲 Siri」的新鮮感過去之後,Siri 還是會被遺忘在角落裏。要真正培養起用户的使用習慣,重點還在於「智能化」,然而語音助手要和「智能」沾上邊其實不是易事。
一般而言,語音助手的運作主要包含三個步驟,首先是將語音指令轉化為文字指令,然後通過機器學習或者神經引擎「理解」背後的需求,最後輸出結果。對於大部分語音助手來説,目前在第一步也就是語音指令轉化方面已經十分成熟,轉換準確率也比較可觀,但難點在於加入更多語言的支持。以 Siri 為例,目前可選的語言有 20 種(不同方言算為一種),而 Google Assistant 支持的語言卻已經多達 30 種。
其次,語音助手們還需要理解文字指令的意義,這才是最難部分。任何智能產品背後都需要強大的數據支持,擺在 Siri 面前的問題是,它能調動多大的數據庫?這些數據庫又是否有足夠的能力和動力為 Siri 服務?曾有媒體認為,如果 Siri 能成為新一代智能助手,那麼它將成為智能機器真正的入口。但對於 Siri 而言,它的入口功能能否實現卻首先取決於背後提供數據的服務商。
不過這個問題對於 Google 而言,解決起來卻簡單了很多。其長期積累的數據庫和計算能力,已經使其擁有了「知識圖譜」,讓用户在搜索結果的右側直接獲取該問題的最優答案。
此外,一旦問題涉及到更多私人領域,就難免會牽扯到隱私和人權問題,越是個性化的服務,越是需要更多私人信息作為支撐,換句話説:你願意用隱私換取便利嗎?
而且在公共場所使用語音助手還存在社交門檻,設想一下你在地鐵上,突然旁邊有人突然説了一句「嘿,Siri。下一首歌」,那種感覺一定很奇怪。特別是在更加安靜的辦公場所,這種突然和「空氣對話」的尷尬會更加明顯。
外媒就曾經説過:「(用 AirPods 語音喚醒 Siri)這一幕讓人聯想到電影《Her》……但似乎社會還沒為這種未來做好準備。」
我個人雖然不常使用 Siri,但在雙手無法騰出空間來操作手機時,我也樂於通過 iPhone 或 AirPods 的「嘿,Siri」功能來讓 Siri 替我完成一些簡單指令,這種無需手動操作的體驗有時還伴隨着一定的滿足感。
也許在不久的將來,當社會對語音助手的接受程度變高,而且語音助手也更加智能了之後,跟 AI 助手對話會變得像和朋友聊電話一樣正常,畢竟在以前人們還覺得通過藍牙耳機接聽電話是一件奇怪的事呢。
編輯於 2020-08-26 19:15:42