(圖片來源:攝圖網)
作者|朱利安·弗裏德蘭 來源|商業評論(ID:shangyepinglun)
人工智能(AI)的確是一種強大的工具。它通過調動海量信息讓我們的生活更舒適,工作更高效。有了它,我們不用再為很多費時傷神的瑣事煩心。
問題是這些煩心事能提高我們的適應能力。沒有了它們,我們無法學會調整人與人之間的關係,更無法學會調整人與周圍世界之間的關係。
在擁擠的城市裏步行、騎車或開車教會了我們如何克服一些諸如路況變化、突發極端天氣等不可預知的障礙。
每天,我們就在無數次地改變我們自己以適應世界與無數次地改變世界以適應我們之間尋求最佳平衡。這種相互適應能夠激發反思,促進道德自省並提升思想境界。
過度依賴人工智能使得上述互動成為多餘,溝通中的摩擦也不復存在。因此,我們的認知能力逐漸下降,情感體驗不斷鈍化,進而導致人類適應能力的萎縮,以及倫理價值觀的退化。
例如,讓人工智能來挑選禮物,我們就無需考慮在與親朋好友的日常接觸中他們有什麼樣的需求,並花心思為他們挑選真正貼心的禮物。
無論身處哪種社會環境、個人環境和職業環境,很多趨勢表明,我們正在把認知、情感和道德方面的負擔轉移給人工智能。
慢慢地,我們可能會失去批判性反思的意願和能力,在認知和情感方面變得更加脆弱。
1
便捷導致疏離
人工智能一個最顯著的特徵是它能夠遊刃有餘地處理日常生活中的瑣事。有了它,我們就會將越來越多的時間和注意力投入到我們認為更有意義的活動中來。
當然,把這些瑣事交給人工智能,就意味着我們在一定程度上放棄了對它們的控制權。
我們每放棄一分人為的控制,就增加了一分對人工智能系統的信任。在這一過程中,我們將不再依賴丹尼爾·卡內曼所説的“反思心智”(reflective mind),而是轉向“自主心智”(autonomous mind)。
前者做出的決定經過了深思熟慮,後者做出的決定則是條件反射使然。
自主心智固然簡化了繁瑣的日常事務,但不斷強化自主心智會導致我們的行為總體上趨向自動化,無需太多思考。這種疏離主要體現在下列六個方面。
1. 被動接受 由於我們在完成任務的過程中接受了人工智能的幫助,無需付出太多努力,因此我們有可能成為被動的旁觀者而不是積極的參與者。
例如,奈飛、亞馬遜Prime會員以及臉書所採用的人工智能系統已經幫我們事先設定了娛樂和新聞選項。
而當我們習慣於依賴人工智能系統替我們做出決定時,我們便很少接觸新的視角,偏見和誤解因此根深蒂固。
慢慢地,我們不願花費精力進行深層次的批判性思考,長期記憶逐漸退化。
2. 情感疏遠 沒有了人的參與,情感也會逐漸疏遠。最終,我們的行為失去了誠意,甚至具有欺騙色彩。
比如,在呼叫中心或銷售平台,人工智能系統的本意是幫助接線員提高對客户訴求的敏感性,其結果卻適得其反。
由於過度依賴人工智能,他們在捕捉情感線索方面的訓練減少了,興趣也減弱,反而對客户的情緒變化熟視無睹。
3. 主動性喪失 人工智能淡化了我們採取行動的意識,從而削弱了我們做決定的能力。
設想一下,一輛事先設計好程序的無人駕駛汽車在發生事故時,會不會從倫理道德的角度權衡不同選擇,例如撞人還是撞車?當然不會。
4. 責任減輕 在決策過程中把控制權拱手讓給人工智能,我們對於結果(無論是好是壞)所承擔的責任也會相應減輕。
設想一下,你有一款節食軟件,它能夠根據人工智能所設定的減肥計劃為你提供訂餐和送餐服務。如果減肥成功,你應該感謝誰?如果減肥失敗,你又歸咎於誰?
5. 無知加深 人工智能技術將我們的需求轉換為算法速記或機械化程序,其結果有可能與人為操作大相徑庭。
例如,出於對人工智能系統的盲目信任,你有可能在一個地圖軟件尚未更新的錯誤地方繞來繞去,而不是依賴你的直覺和判斷。
6. 技能弱化 藉助人工智能這一媒介完成日常事務,會弱化很多我們與物質世界接觸時所掌握的技能。一些基本的工作做起來會感覺生疏,至少在沒有幫助的情況下顯得不那麼得心應手。
例如,在自動駕駛技術得以推廣後,我們在沒有應用軟件的情況下甚至會忘了怎麼開車。
不僅如此,我們還會失去掌握新技能的動力,把希望越來越多地寄託在人工智能所提供的外包服務上。
2
摩擦互動促進自省
人工智能時代,只有激活人們的反思心智,才更有可能解決上述疏離問題並防範能力喪失的風險。
人工智能系統的研發者不妨引入“摩擦互動”體驗,通過設計“認知減速帶”迫使我們思考一些值得深度思考的決定。
例如,母親生日快到的時候,人工智能系統可以提醒我們找一個合適的時間給媽媽打個電話,或者去看看媽媽,而不只是提出購物建議。只有這樣,親子關係才能得以改善,甚至還能借此機會挑選到真正貼心的禮物。
摩擦互動也能促進道德自省。當我們不斷經歷摩擦,應對各種刺激的方式便會發生改變,道德身份逐漸形成:對自己行為的意義開始有了不同的思考和感知。
人工智能系統的設計者可以用下述道德自省的四個層面作為指導,設計出鼓勵反思行為的應用程序。
第一層次:社會反思
在這個層次,人們的行為改變主要依賴從其他觀察者中獲得的負面反饋。研究表明,負面反饋能夠遏制自私自利的行為。
例如,公用品悲劇實驗中原本自私自利的參與者,在遭到譴責後才逐漸學會約束自己的貪念,將更多的資源留給後來者。最終,所有人都願意減少個人獲利,以保證資源分配的公平公正和長期可持續性。
第二層次:自我反思
在這個層次,人們不再依賴他人的負面反饋來審視自己的行為。他們開始轉向自身,進行自我反思。他們這麼做通常是看到了別人行為的結果或考慮到自己行為的即時影響。
例如,一個人如果注意到房間裏的垃圾被清理得乾乾淨淨,自己隨地亂扔垃圾的可能性就會大大降低。相反,如果房間裏垃圾遍地,他也不大可能保持屋內清潔。
第三層次:預期性自我反思
在這個層次,人們無需他人提示便開始對其行為可能產生的負面結果進行了預測。之所以如此,是因為人們對先前行為的自我反思已經導致了內心的負罪感和羞恥感。
第四層次:前瞻性自我反思
作為道德自省的最高境界,在這個層次,人們的前瞻性越來越強,既考慮到正面影響也考慮到負面影響。他們有目的地採取一些合適的行動以期達到正面結果。
最佳情況是,這些決定的形成是一個習慣成自然的過程,以此推動人們不斷靠近他們的理想人格。這樣的心理狀態直接關係到能否在個體的自我概念的基礎上獲得更大的幸福。
在傳統的面對面互動過程中,外部的物質世界和社會環境提供了必要的摩擦,能夠促使人們通過反思改善行為。
由於人工智能消除了溝通中的摩擦,因此設計者需要開發一種能夠激發用户道德自省的工具,那就是“展示性提示”(showing notices)。
展示性提示為用户快速展示了其行為的結果,如一天的步行數和上網時長。
它可以提升人工智能的應用水平,鼓勵用户從道德自省的前三個層次,即行為的改善主要依賴內疚和羞愧等負面情緒作為動力,提升到第四個層次,即行為的改善主要依賴正面的預期,行為人清楚地意識到他們的選擇不僅會讓自身也會讓整個社會發生改變。
作者簡介:朱利安·弗裏德蘭,都柏林聖三一大學商學院(Trinity Business School, Trinity College Dublin)倫理學助理教授。
本內容有刪節
原文《別讓AI剝奪你的思考能力》刊登在《商業評論》2020年1月號
編者按:本文轉載自微信公眾號:商業評論(ID:shangyepinglun)