小心,人工智能正在剥夺你的思考能力!

小心,人工智能正在剥夺你的思考能力!

(图片来源:摄图网)

作者|朱利安·弗里德兰 来源|商业评论(ID:shangyepinglun)

人工智能(AI)的确是一种强大的工具。它通过调动海量信息让我们的生活更舒适,工作更高效。有了它,我们不用再为很多费时伤神的琐事烦心。

问题是这些烦心事能提高我们的适应能力。没有了它们,我们无法学会调整人与人之间的关系,更无法学会调整人与周围世界之间的关系。

在拥挤的城市里步行、骑车或开车教会了我们如何克服一些诸如路况变化、突发极端天气等不可预知的障碍。

每天,我们就在无数次地改变我们自己以适应世界与无数次地改变世界以适应我们之间寻求最佳平衡。这种相互适应能够激发反思,促进道德自省并提升思想境界。

过度依赖人工智能使得上述互动成为多余,沟通中的摩擦也不复存在。因此,我们的认知能力逐渐下降,情感体验不断钝化,进而导致人类适应能力的萎缩,以及伦理价值观的退化。

例如,让人工智能来挑选礼物,我们就无需考虑在与亲朋好友的日常接触中他们有什么样的需求,并花心思为他们挑选真正贴心的礼物。

无论身处哪种社会环境、个人环境和职业环境,很多趋势表明,我们正在把认知、情感和道德方面的负担转移给人工智能。

慢慢地,我们可能会失去批判性反思的意愿和能力,在认知和情感方面变得更加脆弱。

1

便捷导致疏离

人工智能一个最显著的特征是它能够游刃有余地处理日常生活中的琐事。有了它,我们就会将越来越多的时间和注意力投入到我们认为更有意义的活动中来。

当然,把这些琐事交给人工智能,就意味着我们在一定程度上放弃了对它们的控制权。

我们每放弃一分人为的控制,就增加了一分对人工智能系统的信任。在这一过程中,我们将不再依赖丹尼尔·卡内曼所说的“反思心智”(reflective mind),而是转向“自主心智”(autonomous mind)。

前者做出的决定经过了深思熟虑,后者做出的决定则是条件反射使然。

自主心智固然简化了繁琐的日常事务,但不断强化自主心智会导致我们的行为总体上趋向自动化,无需太多思考。这种疏离主要体现在下列六个方面。

1. 被动接受 由于我们在完成任务的过程中接受了人工智能的帮助,无需付出太多努力,因此我们有可能成为被动的旁观者而不是积极的参与者。

例如,奈飞、亚马逊Prime会员以及脸书所采用的人工智能系统已经帮我们事先设定了娱乐和新闻选项。

而当我们习惯于依赖人工智能系统替我们做出决定时,我们便很少接触新的视角,偏见和误解因此根深蒂固。

慢慢地,我们不愿花费精力进行深层次的批判性思考,长期记忆逐渐退化。

2. 情感疏远 没有了人的参与,情感也会逐渐疏远。最终,我们的行为失去了诚意,甚至具有欺骗色彩。

比如,在呼叫中心或销售平台,人工智能系统的本意是帮助接线员提高对客户诉求的敏感性,其结果却适得其反。

由于过度依赖人工智能,他们在捕捉情感线索方面的训练减少了,兴趣也减弱,反而对客户的情绪变化熟视无睹。

3. 主动性丧失 人工智能淡化了我们采取行动的意识,从而削弱了我们做决定的能力。

设想一下,一辆事先设计好程序的无人驾驶汽车在发生事故时,会不会从伦理道德的角度权衡不同选择,例如撞人还是撞车?当然不会。

4. 责任减轻 在决策过程中把控制权拱手让给人工智能,我们对于结果(无论是好是坏)所承担的责任也会相应减轻。

设想一下,你有一款节食软件,它能够根据人工智能所设定的减肥计划为你提供订餐和送餐服务。如果减肥成功,你应该感谢谁?如果减肥失败,你又归咎于谁?

5. 无知加深 人工智能技术将我们的需求转换为算法速记或机械化程序,其结果有可能与人为操作大相径庭。

例如,出于对人工智能系统的盲目信任,你有可能在一个地图软件尚未更新的错误地方绕来绕去,而不是依赖你的直觉和判断。

6. 技能弱化 借助人工智能这一媒介完成日常事务,会弱化很多我们与物质世界接触时所掌握的技能。一些基本的工作做起来会感觉生疏,至少在没有帮助的情况下显得不那么得心应手。

例如,在自动驾驶技术得以推广后,我们在没有应用软件的情况下甚至会忘了怎么开车。

不仅如此,我们还会失去掌握新技能的动力,把希望越来越多地寄托在人工智能所提供的外包服务上。

2

摩擦互动促进自省

人工智能时代,只有激活人们的反思心智,才更有可能解决上述疏离问题并防范能力丧失的风险。

人工智能系统的研发者不妨引入“摩擦互动”体验,通过设计“认知减速带”迫使我们思考一些值得深度思考的决定。

例如,母亲生日快到的时候,人工智能系统可以提醒我们找一个合适的时间给妈妈打个电话,或者去看看妈妈,而不只是提出购物建议。只有这样,亲子关系才能得以改善,甚至还能借此机会挑选到真正贴心的礼物。

摩擦互动也能促进道德自省。当我们不断经历摩擦,应对各种刺激的方式便会发生改变,道德身份逐渐形成:对自己行为的意义开始有了不同的思考和感知。

人工智能系统的设计者可以用下述道德自省的四个层面作为指导,设计出鼓励反思行为的应用程序。

第一层次:社会反思

在这个层次,人们的行为改变主要依赖从其他观察者中获得的负面反馈。研究表明,负面反馈能够遏制自私自利的行为。

例如,公用品悲剧实验中原本自私自利的参与者,在遭到谴责后才逐渐学会约束自己的贪念,将更多的资源留给后来者。最终,所有人都愿意减少个人获利,以保证资源分配的公平公正和长期可持续性。

第二层次:自我反思

在这个层次,人们不再依赖他人的负面反馈来审视自己的行为。他们开始转向自身,进行自我反思。他们这么做通常是看到了别人行为的结果或考虑到自己行为的即时影响。

例如,一个人如果注意到房间里的垃圾被清理得干干净净,自己随地乱扔垃圾的可能性就会大大降低。相反,如果房间里垃圾遍地,他也不大可能保持屋内清洁。

第三层次:预期性自我反思

在这个层次,人们无需他人提示便开始对其行为可能产生的负面结果进行了预测。之所以如此,是因为人们对先前行为的自我反思已经导致了内心的负罪感和羞耻感。

第四层次:前瞻性自我反思

作为道德自省的最高境界,在这个层次,人们的前瞻性越来越强,既考虑到正面影响也考虑到负面影响。他们有目的地采取一些合适的行动以期达到正面结果。

最佳情况是,这些决定的形成是一个习惯成自然的过程,以此推动人们不断靠近他们的理想人格。这样的心理状态直接关系到能否在个体的自我概念的基础上获得更大的幸福。

在传统的面对面互动过程中,外部的物质世界和社会环境提供了必要的摩擦,能够促使人们通过反思改善行为。

由于人工智能消除了沟通中的摩擦,因此设计者需要开发一种能够激发用户道德自省的工具,那就是“展示性提示”(showing notices)。

展示性提示为用户快速展示了其行为的结果,如一天的步行数和上网时长。

它可以提升人工智能的应用水平,鼓励用户从道德自省的前三个层次,即行为的改善主要依赖内疚和羞愧等负面情绪作为动力,提升到第四个层次,即行为的改善主要依赖正面的预期,行为人清楚地意识到他们的选择不仅会让自身也会让整个社会发生改变。

作者简介:朱利安·弗里德兰,都柏林圣三一大学商学院(Trinity Business School, Trinity College Dublin)伦理学助理教授。

本内容有删节

原文《别让AI剥夺你的思考能力》刊登在《商业评论》2020年1月号

编者按:本文转载自微信公众号:商业评论(ID:shangyepinglun)

版权声明:本文源自 网络, 于,由 楠木轩 整理发布,共 3032 字。

转载请注明: 小心,人工智能正在剥夺你的思考能力! - 楠木轩