楠木軒

科技世代與人類未來丨人工智能時代的倫理智慧

由 童豔紅 發佈於 科技

【論壇第7期話題】人工智能時代的倫理智慧

“科技世代與人類未來”論壇第七期首次嘗試書評形式推出,以段偉文研究員的《信息文明的倫理基礎》新書為對象展開分析評論。首先邀請中國社會科學院的段偉文研究員對此書做出介紹,然後由中國人民大學的劉永謀教授、上海交通大學的閆宏秀教授和復旦大學的楊慶峯教授做出評論,以北南聯袂、京滬對話的方式從不同角度展開探討。劉永謀教授從信息時代的人的命運和行動的“無知”特徵入手,分析了信息時代的人與技術纏鬥的必然性;閆宏秀教授指出對話的過程是釐清我們自己是誰、應該是誰的問題,是在技術之力與倫理校勘雙驅下找尋自己的過程;楊慶峯教授提出這本書顯示了以柔克剛的核心態度,呈現了以信息反射弧為基本概念的倫理思考理路。這一思考本質上產生了奇特的繞指柔的效果,藉此來對抗技術理性。

段偉文《信息文明的倫理基礎》人工智能時代的倫理智慧段偉文(中國社會科學院)

1、我是誰:加速變遷科技世代的“弱”者

我們每一個人在短短的二十年間經歷了三個時代,至於後面會經歷什麼時代,我們不可預知。有一種所謂的加速主義説法,用於刻畫當下所處的人類世,也就是科技世代。什麼是科技世代?即在近一兩百年來,人類的行動和行為,對地球有一種改變的力量,正在不可逆地改變地球的地質面貌,使人類進入加速變遷的軌道。

在科技這樣強大的力量面前,我們每個人其實是一個弱者。正如我們所知,人和技術是相伴而生的,每一代人都跟他所遭遇的技術有某種融合的方式。

每個人都生活在不同的技術空間之中,隨着當代技術的加速變遷,人們要做一個抉擇就是如何面對科技創新,尤其是以硅谷為源頭的科技創新,它有一個很重要的特點是顛覆性或突破性。

創新使得世界不再是過往的世界,我們也不再是從前的我們。那麼如何使人性依然可以規定技術前行的方向,而不是臣服於強大的技術變遷的邏輯?從小我們就説要努力學習,好趕上技術的步伐。但你有沒有發現,現在每一個人都是過時的,甚至我們生下來都是過時的。在這樣一個情況下我們該怎麼辦?

在很多年前,麥克盧漢説過這樣一句話:先是我們創造工具,然後是工具創造我們。

信息時代是一場前所未有的社會倫理試驗,在信息網絡空間中,人們從現實世界中的物理自我嬗變為數字自我,迫使我們不得不直面一系列全新的價值挑戰,探尋人工智能時代的倫理智慧。

比如,在沒有互聯網之前,你到哪兒去了、你怎麼樣,那一定是要有人碰見你,才會知道;但現在你要是説你要到哪兒去,有人會跟你共享位置……

2、智能時代的7種生存武器

智能時代的七種生存武器是什麼?

第一種武器,信息網絡空間與注意力生態重構

什麼叫注意力生態重構?在古老的社會時代,每天開門七件事,柴米油鹽醬醋茶。現在,每天都面對着不同的一千零一扇門。

我們正處於分心成癮的時代,各種信息流隨時影響着我們的注意力。在信息網絡空間,我們的專注度在消解,注意力也在消散。諾貝爾經濟學獎獲得者赫伯特·西蒙曾經指出:隨着信息的發展,有價值的不再是信息,而是注意力。

比如現在搜索信息都搜得很好的,一會兒是薛寶釵、林黛玉……突然有一天在網上誰搜不到了,我會想這個人為什麼搜不到了?他是不是出了什麼問題。所以就是這樣,好像是你想什麼就是什麼,但是實際上不是你想什麼就是什麼,而胡思亂想多了,最後你的注意力就有限了。

為什麼網絡有那麼大的吸引力,為什麼它能夠讓我們分心,從某種角度來講,網絡上的一些行為,你仔細想一想,點贊,鼠標點擊,或者是打遊戲的時候一些手指這樣戥,這實際上是非常符合自閉症兒童的一個行為習慣。

自閉症兒童為什麼對外在的世界不感興趣,是因為他自己找到了一套痴迷的行為模式,而且在這種行為模式裏邊他能夠得到一種獎勵,這樣的話他的大腦神經就會分泌一種多巴胺,產生一種愉快的體驗。

網絡空間的注意力生態問題最重要的一點是會在一定程度上導致所謂的信息時代的自閉症。那麼我們就要通過重構注意力生態,去克服自閉症。

第二種武器,數字痴迷與虛擬生活的自我倫理

數字痴迷就像數字野火一樣的在那兒燃燒。什麼叫野火一樣燃燒?你要讓小孩不玩遊戲,那完全就是野火燒不盡、春風吹又生,為什麼?因為他的思維被改變了。

從科學上來講,打遊戲會不會讓你變傻,或者説會不會讓你注意力成問題,還沒有形成有依據的科學定論。但是,現在有些遊戲,它確實是按照你成癮的樣子設計,想辦法讓你成癮。

好比比爾蓋茨在未來之路上面講過的數據緊身衣。但我講的數據緊身衣是智能手機、智能手環、可穿戴設備,是你的智能緊身衣。根據這些設備所呈現的數據——每天走多少步等等,這就是所謂的數據緊身衣。從某種角度講,把你的行為特徵,包括各種數據採集起來,可以更好地開發人性化產品。

這裏有一個很重要的問題,數字野火,它為什麼會燒到你家的小孩呢?因為在孩子半歲或者兩個月的時候,你給他接觸這些電子產品,有沒有恰當的控制方法,就產生了從小草根部就開始燃燒的“野火”。

你和你的孩子在數字時代能不能夠自控,那就要用到自我倫理。什麼叫自我倫理?通過自己行為的主動的調節,讓我的生活更加幸福。而你現在的幸福,你現在的快樂,不應該影響到你將來的快樂。如果你現在快樂過度,那麼將來你可能覺得別的東西沒意思。這將會讓你成為一個信息世界的自閉症兒童。

在這裏很重要的一點就是要抓住可以自控的窗口期。現在有很多網絡成癮、遊戲成癮,那麼這些情況基本上來講它不是單純地由網絡造成的,很大程度上是由你的社會地位、心理、家庭關係等各方面造成的。

所以説這樣一些人中你可能需要給他更多的愛,更多的關心,但是最好是在他沉迷於網絡成癮之前,或者處於自控窗口期的時候,你去教育他,那時是效率更高。一旦他進到那個裏面去了以後,就比較難了,這是一個。

再説數字痴迷,或者説這樣一種網絡成癮、遊戲成癮,它是服強不服弱。如果你很有錢,家裏條件很好,你的自由轉圜的空間比較大,那麼你遇到的矛盾就少,相對來説你回過來或走出來的可能性比較大。因為根據痴迷的程度可分為沉迷和痴迷兩種,網絡的沉迷、遊戲的沉迷,大部分人都會有一個沉迷的階段,但是有極少數人可能會有沉溺階段。但相關研究到現在不論是心理學還是神經科學上並沒有定論。

第三種武器,差異革命與解析社會的能動構建

當你看到微信推送廣告,那為什麼給他推的就是奔馳寶馬的廣告,給你推的就是摩拜單車的廣告?實際上是因為他把你的一些個人行為被記錄下來,然後進行一種自動化的分析。這樣一種自動化的分析就像17世紀,笛卡爾提出解析幾何這一精確分析運動軌跡的方法一樣,數據智能可以對人的行為軌跡加以記錄和解析,並實施相應的引導和調控。現在各種數據驅動的智能化平台,就是用數據分析的工具,來解析每一個人的數據記錄,然後對他進行一種相應的引導。

在這樣一個情況下,根據這些數據就有了大量的數據畫像。數據畫像是什麼?就是標籤。你如到過什麼地方,跟什麼人在一起吃過飯等等。這些內容,它相當於是一個非常複雜的數據集合,數據的集合的每一條,它都可以根據這個把你歸到哪一類,然後對你進行精細的、精確的測度,這樣測度完了以後,人和人之間的差別就出來了。

這些對數據的評價,也就是對人的評價,由此造成的差異,有可能會導致一些偏見,會造成歧視或不平等。比如你要去應聘,如果你的親戚和朋友裏面在某個公司工作,那麼很有可能它的人事部門的算法會把你對公司的瞭解程度之類的分數加得比較高,或者直接給你一個加分,而另外的人就沒有這樣一個加分。

通過數據來分析或解析每一個人,是福還是禍?對於個體而言,很重要的一點就是,每個人要把你想到的技術濫用的壞處説出來。對於文明碼之類的行為評分體系,應該意識到:不是人的所有的行為都能量化;不同的量之間是不能夠隨便相加的。因此,用數據評分的辦法來評價人的某方面的行為要注意它的適用性和限度,特別是要注意不能簡單地將各種行為評分加起來作為區分好人壞人的工具,這其中的權重和數據選擇有太多的主觀因素,容易造成偏見和歧視,其實質是數字官僚主義。

第四種武器:基於行動者網絡分析的倫理審計

行動者網絡理論是由法國社會學家拉圖爾提出的一個科技社會分析理論,大意是要理解科技的實質,就要追蹤科技活動所涉及的人與非人(包括人工物、制度、文化等),將它們視為各種相互影響和共同構建科技的行動者,通過對行動者的利益、意圖、價值、行為等的分析,動態地剖析科技發展的過程、機制與後果。舉一個簡單的例子,去年以來有很多地方都在用人臉識別技術,很多大學和單位的門衞也在用人臉識別。那我們想想一下,這些人臉識別的場景和高鐵站、飛機站之類的場景實際上是不一樣的,進而思考這些應用有沒有必要。同時,還可以看到,由於今年以來疫情防控的需要,在很大程度上強化了這種需求。

此外還有很多問題也可以通過行動者網絡展開進一步的分析。如人臉識別在不同場景的應用,對哪些人有利,對哪些人不利,對哪些人它可能沒有明顯的好處,也談不上不利?實際上我們都知道,人臉識別從準確度來講,對成年人來説比較準確,相對來説差錯率比較低;對於小孩的差錯率可能比較高,因為小孩他還在成長。這樣一來,人臉識別不僅會因為不夠精確而給兒童帶來更多不便,並且兒童的面部數據在隱私權方面更為敏感,這就意味着對兒童的使用應該更加審慎。

由此,藉助行動者網絡分析,就是要把技術背後的人和利益找出來。比方説AI醫療,那麼現在很多大醫院都在推人工智能,如將人工智能用於影像識別,替代專家識別癌症等。但哲學家和社會科學家會還是可以通過行動者網絡分析,提出一系列的疑問,一是這會不會提升醫療成本。二是這樣會不會讓小醫院處於被淘汰的地位,而小醫院都淘汰了以後,社會上只剩下大醫院,那麼對於人民羣眾來説是不是更有利?還有就是,對於那些因為這種應用而可能面臨失業的醫生來説,有沒有人考慮他們的利益,給予培訓和轉崗方面的必要救濟。我講的這些思考、分析和探討就是倫理審計,其關鍵就是通過對行動者網絡的揭示,把技術背後的人和利益找出來。

第五種武器:非對抗性的倫理策略與信任再造

什麼叫非對抗性?就是要對新技術的過程和後果進行一種理性的分析、反思和行動。就信息技術而言,它的產生就是為了克服控制的危機而推動的控制革命。信息與數字技術的發展帶來了很多便利和創新,但生活在每一個人都有一種焦慮,都有什麼樣的焦慮?就是在這個信息和智能社會中,人們越來越多地被技術管理。

以前的社會管理比較簡單,主要是由門衞或者是街道帶紅袖箍的老太太這些人管。但是將來,我們會越來越多地面對看不到的人的管理或看不到人的治理。這種管理和治理的普遍應用,難免導致所謂的機器官僚主義或數字官僚主義,比方説如果你沒有智能手機、沒有健康碼、不會相關操作,就有可能受到排斥,會遇到各種不應有的不便。面對這樣情況怎麼辦?非對抗性的倫理策略就是,我們既不拒絕技術,又不簡單地停留於對技術的批判,而是不徐不急,拿出耐心和韌性,傻傻地跟它纏鬥。

比方説,現在很多算法,用於各種依據數據進行的決策,但從一般的評估模型到深度學習,算法作出決策的過程往往如同一個黑箱,不會或不能合理解釋它作出決策的理由。這種算法黑箱影響到人們對智能技術本身的信任,為了使人信任算法,就要打破黑箱,讓機器的智能決策和行為變為可解釋的,發展可解釋的人工智能。

如何實現可解釋的人工智能呢?有一種方法是引入反事實條件解釋。什麼是反事實條件解釋,舉個例子,如果要解釋我為什麼沒有被某個公司錄用,可以指出其原因是我不滿足條件A——而另一個其他條件跟我一樣且滿足A的人被錄取了。還有在用智能算法決定不給你貸款的時候,也可以通過反事實條件解釋説明原因。

人工智能的發展要為社會廣泛接受,需要構建一種機制,形成一個從算法可解釋轉化為可信任的自動呈現過程。為了提升人工智能的可解釋性和可信度,研究人員開始在算法等人工智能應用中引入自我解釋。根據“谷歌大腦”研究員蔡嘉莉(Carrie Cai)團隊的研究,不同的解釋會讓用户對算法能力作出不同的評價。

在該研究中,研究人員向用户展示了一個用於識別手繪草圖的人工神經網絡Quick Draw的自我解釋界面。為了説明機器學習算法為何無法識別一個手繪的牛油果草圖,研究者讓系統在顯示界面上以圖解的方式向用户呈現出兩種解釋。一種是“標準”解釋,向用户展示了智能系統正確識別過的其他牛油果的圖像。另一種是“比較性”解釋,向用户展示了類似形狀物體的圖像,比如梨或土豆。接受標準解釋的用户感覺人工神經網絡更為可信,接受比較性解釋的用户則認為這種人工神經網絡雖然存在侷限性,但更有“親和力”。不論是那種自我解釋,都有助於用户認識智能系統的能力,看到機器智能的限度乃至盲區。

第六種武器:彌合分歧的認知補償與價值外推

什麼叫彌合分歧?實際上就是我們在遇到一個不清楚的事情時,容易發生爭執。有時候是因為信息少,但在很多情況下,信息並不少,依然莫衷一是。造成這些分歧的主要原因是,我們沒有從“信息”的本質來理解它。

“information”這個詞主要翻譯為“信息”之前,還有一個詞叫“情報”。在信息時代,處理信息的首要原則,就是你不要做傻白甜,不要説它説啥就是啥,而是它説任何一個東西,你都要打一個問號,要問一個為什麼。這個叫做要做認知上的強者。什麼叫做認知上的強者?就是你要有情報意識,對各種信息學會有條理的、理性的懷疑,這樣你就可以做認知上的強者。

另外一個策略叫做價值解纏策略。什麼叫價值解纏策略?就是對於那些有爭議的知識,要把價值與事實分開,特別是要學會拒斥那些不合常理的迷信和沒有事實作為基礎的知識。比如説,中醫有五千年的傳統了,中醫很好,人們會因為中醫獨特的傳統價值而相信中醫。在這種情況下,應該按照中醫的方法和原則,比方説望聞問切和辨證施治所進行的治療活動,可以視為更可接受的。但是我們對於神醫,只有誇大的價值而缺乏在中醫自身體系內的可接受性,吹得再神,也不要管它。

同時,我們可以採取所謂的價值外推的策略。什麼叫價值外推的策略?就是我們始終除了要站在個人、團體和族羣的角度評價事物的好壞高低,還要站到整個人類社會乃至超越人類的角度來看問題,要學會站在不同的文化和從不同的未來願景看待事物,學會相互理解。

第七種武器:智能化社會試驗與未完成的倫理

面對智能化科技所帶來的高度不確定的未來情景,必須以倫理的智慧,確立創新的速度和限度,在顛覆性的創造和顛覆性的毀滅之間找到一個人類文明可以承受的界限。

儘管中國不一定所有的領域處於領跑地位,但是在很多領域已經或將要跑在前面了,以前的科技倫理風險和問題都發生在發達國家,而現在越來越多地發生在我們身邊,科技倫理問題對我們來説將變得越來越重要。所謂科技勇闖無人區,就意味着科技倫理必須與創新並行甚至要預先有所設計和考量。因為科技倫理是開放性的風險和挑戰,我們需要在思想上要構建一種價值的導航儀和倫理的反射弧。

談到倫理,難免涉及一些較高的價值訴求,比方説如何在人工智能時代尋找人的尊嚴。但也要看到,從古到今從來也沒有一個道德完美的世界,沒有一個道德的理想國。過去沒有,現在沒有,將來也不一定會有。那麼,我們能夠追求的是什麼?就是儘量地減少倫理風險和負面問題,儘量地減少科技應用對人造成的傷害。

基於此,我造了一個詞,叫倫理負債,即現代以來,為發展科技付出的倫理代價。值得我們思考的是,科技時代人的行為和人的活動對於大自然和人自身有哪些倫理負債?科技的倫理負債不是籠統的,而是具體的,可能表現為人與人在技術活動中得失的鴻溝。比方説,很多網絡平台、社交媒介以及智能應用的發展,因為缺乏倫理考量、設計和審計,普遍存在着在用户不知情的情況下蒐集和濫用用户數據的現象,難免以侵犯個人隱私和損害個人權益為代價。我們應該思考的是,這些科技的應用可能可以減少倫理負債,要讓技術開發者和技術應用的主導者意識到,科技造成的倫理負債將可能導致普通用户對科技的不信任,影響科技的長遠進步。

科技帶來的倫理負債除了會導致各種可見或可衡量的負面影響之外,還會對人的意志和願景造成顛覆性的影響。對此,如果説人們希望在人工智能時代保持作為人的尊嚴的話,需要警惕兩種會影響到人之為人的志氣的傾向。

其一,要徹底擺脱普羅米修斯的羞愧。什麼叫普羅米修斯的羞愧?普羅米修斯就盜來天火、給人類帶來技術的神。普羅米修斯的羞愧是什麼?就是現在人們在機器面前越來越有一種自愧不如的羞愧。比如,我們計算沒有計算機準,眼睛沒有望遠鏡看得遠,認路不如手機導航,就算識別人臉也趕不上機器等等。實際上,人們並不需要也不應該有這樣的羞愧,為什麼?因為機器再厲害,它是人類創造出來的。

其二,要拋棄第四連續或者是奇點臨近的“鬼話”。所謂第四連續也就是弗洛裏迪所説的第四次革命,它其實是對科技對人及其外在世界的關係的影響的概括,是某種後見之明。其中,第一次是所謂哥白尼連續或革命,打破了地球與其他宇宙天體之間的差異性,使得人們認識到,地球並不特殊,而與宇宙連為一體。第二次連續是達爾文革命,指出人和猴子是連在一起。第三次連續是弗洛伊德革命,説理性和非理性是連為一體的。

那麼,第四次連續可以説是控制論革命,弗洛裏迪強調的是智能革命或圖靈革命。其大意是人和機器要連為一體,人和機器合二為一。但在這種連續與合一發展到奇點臨近之類的後人類思想時,似乎意味着人應該被淘汰,不論是否情願,最終要為機器的達爾文式進化讓路。也就是説,機器會戰勝人類,機器會統治人類,我覺得這些不是“人話”而是“鬼話”。

3、新中華未來主義的兩條基本路線

那麼我們怎麼辦,網上有一個講述中國人擁抱數字技術等新興科技的視頻,冠以所謂的中華未來主義,大意是説,面對新興科技,中國人在勇敢地往前衝,不管它所帶來的代價,包括倫理問題、道德問題等。如果那麼在乎其中可能存在的偏見,單從文化批判的角度來看,有很多地方值得進一步探討。

實際上,其啓示在於,現在我們需要一種新中華未來主義。新中華未來主義是什麼樣子?我認為有兩條基本路線。

第一,自主賦能與自強不息的君子之道。這個君子不一定是什麼儒家的君子,而是我們現代中國人意義上的君子。應該相信,我們現在的文化總體上遠遠比古老的文化要輝煌燦爛,不能活在輝煌的過去的陰影裏,要有這個自信。

第二,自發自助與兼愛共生的義夫之道。在墨翟和公輸般的攻防戰中,墨子搞了一些兵棋演繹,説不論你怎麼進攻,我都可以防衞。墨子實際是一個早期的自助自發的羣體主義的倡導者和實踐者,並且在不同的區域和社羣之間去做聯結。在聯結的過程中,他們很講究役夫之道,役夫就是販夫走卒。在現在看來,所謂役夫之道,就是要站在普通人的角度來思考問題,調動他們的能動性和創造性。

4、尋找自由女神像之旅

最後,我給大家分享一點我個人的獨有的經歷。在2018年期間我在紐約尋找自由女神像的故事。當時已經是傍晚,我按照手機地圖上的路線規劃,從紐約坐了地鐵坐,去看自由女神像。有趣的是,下了地鐵以後,天已經黑了,我獨自在空無一人的道路上走了一個多小時,才走到岸邊看到遠處一個島上的自由女神像,在手機拍下的照片上只留下些模糊的光點。

我們再來下面這兩個圖片。在左邊這張由安迪·沃霍爾的波普藝術作品中,自由女神看起來很宏大。但是我在紐約發現的女神卻是華爾街的銅牛像對面的這個小女孩。這個小女孩在幹什麼呢?她勇敢地插着腰,代表中小股民斥責華爾街的牛。而我就是希望我們像墨子一樣,站在販夫走卒的那邊,站在牛的對面,跟這個勇敢的小姑娘,也就是我所找到的“自由女神”站在一起。

在無知中纏鬥劉永謀(中國人民大學)

書快結尾的時候,段偉文寫道:“耐人尋味的是,智能化時代人類最需要的不再是知識論而是無知學,即人們迫切需要了解的是怎樣在無知的情況下作出恰當的決策。”這句話提綱挈領地總結了信息時代人的命運和行動的根本特徵:無知。

在某種意義上説,知識面向的是過去:當某人、某物或某事成其之所是,才能談論知道它們的“什麼”。比如評論曹操是梟雄,或者認定地球上的重力加速度是9.8米/秒,必須以過去的經驗為基礎。一旦轉向未來,無知就會包圍着我們。所有對未來的想法都是從過去推斷未來,其中關鍵在於:未來與過去仍舊相同,或者説,世界是規則的。但是,規則律是一種形而上學的信仰,無法得到科學證明,比如9.8米/秒重力加速度在未來可能變化。即使萬有引力定律的非時間性,嚴格地説也不能完全確定,世界演化到新階段時它存在崩潰的可能性。

當人們歡呼信息社會到來,絕大多數人沒有意識到自己迎接的是一個全新的無知文明。1946年第一台電子計算機問世,1969年作為互聯網基礎的阿帕網建成,之後賽博空間和電子信息暴漲,表面上知曉很多聞所未聞的“奇怪”知識,卻發現它們卻並沒有讓我們對於如何行動或選擇有多少實質性的幫助。到智能革命方興未艾之時,人類手足無措的處境已更加凸顯:我們甚至不知道機器人會不會滅絕人類,同時又被技術-資本的強大邏輯推動着向“無知之境”狂奔。

實際上,不光AI技術,其他新科技如納米科技、基因工程和人體增強等,都帶有強烈的未知性。為什麼呢?以往知識的目標是解釋和理解過去,用來“知道”什麼,現在知識的目標是預測和控制未來,用來“治理”什麼。當代新科技使得整個社會日益深度科技化,正如工業革命以來不能容忍作為荒野的自然,人類今日不再能容忍偶然和無規律的社會。顯然,消除對社會的未知,最好的辦法是設計和規劃社會,包括設計和規劃組成社會的每一個個體。

詭吊的是,對無知的痛恨沒有消滅它,相反使得無知瘋漲。從本質上講,信息文明試圖建構敏鋭而有力的社會神經系統,智能文明試圖在此基礎上加上強大的反饋運動系統。舊時代的知識世界是理想化的世界,人類滿足於在概念中應付世界;而新時代的無知世界是真實的世界,人類用大數據、全數據、長數據來替換物理世界。結果卻如蘇格拉底早已指出的:知道得越多,必定未知更多。

“無知的世界”便是《信息文明的倫理基礎》嘗試仔細描述的、我們身處其中的當代社會歷史境遇,亦可稱之為“數字幻術”的世界:“數據對人的行為的絕對理解是一種永遠不可能實現的幻術,巨量的大數據實驗所捕捉到的不是鮮活的人類生活,而是由數據廢氣構造的世界的殭屍版本。”

段偉文首先追溯信息網絡空間的緣起,並歸結出它的3個基本向度:對象性、意向性和交互性。就對象性而言,網絡世界已經成為海德格爾筆下籠罩一切的“座架”,萬事萬物都被編碼為波普爾所稱的“世界3”,即客觀知識的世界,最終塑成為虛擬資本主義的新邊疆。就意向性而言,網絡世界不僅僅是容納野蠻生長的信息之巨大容器,而且成為“一種生長性的人(此在)的意向空間”。就交互性而言,段偉文總結人們在賽博空間“共在”的3個特點:(1)複製:在網上對原本與複本的區分意義不大;(2)虛擬:所有網上在場都是虛擬的;(3)出位:大家既在網上又不在網上,在線和離線不過在一念之間。

接着,《信息文明的倫理基礎》分析網絡空間中的2個基本理論問題,即網絡空間的知識權力結構,以及個人在網上的生存狀況。網絡的知識權力結構可以總結為一種動態的雙螺旋構造,即相互作用的“技術螺旋”與“市場螺旋”。技術螺旋的動力是信息過載:信息過載導致技術改進,技術改進又使得傳播內容和速度大為增加。市場螺旋的動力是價值:網絡用户數量增加,整個網絡的市場價值不斷增加,反過來吸引更多的用户。在雙螺旋運動中,網絡知識權力空間得以急速擴展,個體在其中面對着異化和沉淪的巨大風險,比如權力宰制、自我幻象、數碼焦慮、虛實莫辯和信息沉溺等等。

在書的後面部分,段偉文集中對虛擬現實、大數據和人工智能等信息與通信技術(ICT)最重要的組成部分進行專門論述,討論它們面對的倫理問題和應對問題可能採取倫理策略。他認為,信息理論的主旨是“克服由信息資源佔有的不對稱所可能導致的負面效應,同時使信息行動者在信息生態共生中獲得更大的福祉”,因而信息倫理機制構建的主要環節是“從信息生態的整體視角出發,尋求信息權利的合理分配機制”。信息文明的倫理構建無法一勞永逸,而是不斷處於變化、調適和再平衡的動態發展之中。

因此,在段偉文看來,這將是一場無休無止的纏鬥或爭勝,此即他所謂的“倫理反射弧”的實質。纏鬥不是敵對,前者是非對抗性的。以信息平等為核心的網絡倫理秩序,總是充斥着權力實踐和反權力的挑戰,權力與反權力不可根除,無時無刻不彌散於賽博空間的每一個角落。纏鬥的雙方並非敵人,而是爭勝的對手,一邊纏鬥又一邊承認大家屬於共同的賽博聯合體。

在我看來,纏鬥是介於過去與未來、已知與未知之間的“當下”的必然選擇。活在當下,乃是活在“半懂不懂”或者“不懂裝懂”之中。我們轉向未來,但無知學尚未建立,只能是適度地有節制纏鬥:既不甘於過去拘泥現狀,又不願意未來陷入殘忍甚至毀滅。所以,纏鬥本質上是一種審慎生活或生存之創造。

説老實話,“倫理反射弧”並不能讓人滿意,但是考慮到創造之複雜和困難,很難給出更為詳細的理論刻畫,暫且接受段偉文的這種説法。網絡空間存在淪為“殭屍世界”的風險,可以批評數據主義、算法權力和“控制革命”,但無論如何,賽博空間中的創造活動時時都在發生,人人都在參與,並且永遠不會停息。換言之,不能否認,網絡空間是當代世界最有生命力的組成部分。

(本文的刪節稿發表在《中國科學報》,2020年9月10日)

重新認識自己:在技術之力與倫理校勘中找尋自我

閆宏秀(上海交通大學)

智能技術的泛在性與深度滲透一方面是人類智慧的表徵,另一方面卻又讓人類對自己的智慧表示擔憂。當今技術的發展迫使我們需要仔細思考我們該如何有智慧地活下去,避免文明的脆斷與自我的迷失。恰如段偉文教授在《信息文明的倫理基礎》一書的跋中所寫:“今天我們如何認識這個世界並進行價值對話?”這種對話至少滿足我們有對話能力和該對話是有價值的兩個基本條件。也就是説,要進行這種對話的前提條件就是我們還知道我們是誰以及我們還能力思考我們是誰,這個對話的過程是我們在釐清自己是誰,這個對話的結果是我們想謀劃或規劃一下我們自己應該是誰,並且這種謀劃或規劃是有價值的。從本質上講,這種對話就是技術時代的人類在技術之力與倫理校勘的雙重驅動下找尋自己。

1、技術之力:認識自己的新場景

我們生活在技術造就的世界之中。我們的文明與技術息息相關,如工業文明、信息文明;我們甚至用技術來劃定時代,如舊石器時代、新石器時代、青銅器時代、計算機時代、智能時代等。技術不僅僅是作為工具進入人類社會,更是作為人類生存的方式進入到對人的塑形之中。在技術與人的互動之中,技術之力在構成人類生存場景的過程中,開啓了人類認識自己的新場景。

當技術以族羣或者匯聚的形式出現時,一項新技術的介入可能會燃爆某種境況。“隨着互聯網、電子商務和社交新媒體的出現,接上大數據這個自來水龍頭之後,這一曾經獨孤求敗的屠龍刀才有了用武之地。”反觀這段話具有極強畫面感的表述,在大數據技術自來水水龍頭的給力下,智能社會如虎添翼。但若因這個水龍頭失靈而帶來的水漫金山,當數據洪流帶着泥沙砸過來,且這些數據還是智能的,那人類該怎麼辦呢?

在技術之力面前,人類應該保有自己的獨特判斷力。在日常生活中,我們會在人與技術的博弈中彰顯一下自身的智慧。如,在從A地到B地的過程中,我們會藉助導航系統,並通過自己的判斷力進行取捨,智慧地選取覺得最優化的一個方案。這種取捨貌似是人類智慧的主場,事實上是我們在人與技術的共融場景下,用自己的智慧與技術之力進行某種平衡。若我們還可以平衡的話。換句話説在智能時代這樣一個新的技術語境下,我們力圖給自己留出有用的空間。那麼,怎麼留出空間呢?

我在這書中找答案,答案在很多地方都有。不妨看這麼一段,我覺得這是本書相當霸氣也相當有想象空間的答案。“在走向智能社會的開端,人應該回歸人類最古老的智慧——不僅承認自己的無知,而且時刻與對世界的‘真相’的全盤揭示保持一定對距離,給人們反思自我和對前瞻未來留下微妙而必要對縫隙。”説其霸氣留出空間的一個必要條件是——是因為承認人類要自己的無知;説有想想空間基於作者所言的“保持一定的距離”。這個縫隙是多寬?距離是多少?大家都知道有個詞是零距離。若是零距離,則人類認識自己到底認識的是什麼?又該如何認識自己?

2、該如何認識自己?

認識自己作為一直縈繞人類的問題,也是一個恆久卻又常新的問題。這絕非易事,康德關於人的四個哲學追問,即我能認識什麼、我應當做什麼、我能期望什麼、和人是什麼一直是哲學界長期思考的話題。在智能時代,信息與數據的暗流中,這個問題更加魔幻。當今,我該如何認識我自己呢?

通過數據透視我自己,在數據與我的認知之間進行認識自己之旅。書中通過權力宰制、自我幻象、數碼焦慮、虛實莫辨、信息沉溺等新技術帶來了自我認識中的無根基的信息化身份認同,並形成另一個它視角的自我。曾經有《聞香識女人》,現在呢,是不是可以依數據識人?手機數據是不是助推了對自己的認知?打開手機,看看自己的體重曲線、走路步數、睡眠指數等各種數據指標,我們可以開啓對自己的健康認知,再進入到對自己的全方面認知等。從中可看出,在某種程度上,是技術讓我認識我自己。

就在技術開啓自我認知的過程中,另一個問題相伴而至。這個問題是認識的是哪個自己?且不説,整容、或人類增強後的自己,我們在人工智能時代,通過數據透鏡認識的是肉身、數據人、抑或身體聯網的人?在書中,作者對人給出了多種畫像。當下數據處理的默認狀態或者缺省值是記錄,那麼,會依據時間軸形成一個自我的描述。這個描述可以説是另一個數據自我與我的博弈,是一種平行式的生活,多出了一個平行的我。但事實,多元自我非但不太可能帶來自我的統一,反而更可能導致自我的分裂。

3、倫理校勘是否可以讓我們還能認識自己?

前英國皇家學會會長、著名天文學家、劍橋大學的馬丁·里斯認為:每一項創新確實在一開始都藴含着不確定性,都與風險相伴,甚至可能是一種冒險。也正是因為科學技術自身的不確定性,使得倫理的維度被視為科學技術發展的一個重要因素。在技術時代,倫理校勘真的可以守護我們的本質嗎?

書中坦言:“一般而言,針對科技應用和研究的完整的規制體系主要包括技術標準、倫理規範和法律規定三個層面。但鑑於虛擬現實屬於新興科技,客觀上具有技術超前和法律之後的特徵,則使得倫理規範成為規制體系的關鍵環節,一方面追趕技術發展,使倫理規範嵌入技術標準,並與之相互整合,以實現負責任的研究與創新,另一方面為後續法律規定劃定價值底線與權益邊界。”所以,在對於我們還能認識自己的回答中,我們需要倫理智慧,但這並不意味着是倫理智慧是破解該問題的唯一方式。

面對技術之力的無處不在,《信息文明的倫理基礎》將技術之力以哲學的視角呈現出來,在這種呈現中,自我的迷失也迎面而來。毫無疑問,人類不願意迷失。因此,技術的發展過程,事實上也是人類自我認識與自我表達的一個過程,而倫理校勘的恰恰是在讓人類在這個過程中找尋自我。

(本文的刪節稿表在《上海科技報》2020年10月16日第6版)

以柔克剛:以倫理建構的方式對抗技術理性

楊慶峯(復旦大學)

面對現代技術對於生活世界的控制,我們該如何應對?最近,《信息文明的哲學研究》叢書(王站、成素梅主編)的推出對這一問題給予了整體式回應。信息哲學家段偉文的《信息文明的倫理基礎》(以下簡稱《基礎》)更是呈現了以信息倫理反射弧為基本概念的倫理思考理路。這一思考本質上是一種柔性的接納,因此產生了奇特的“繞指柔”效果。“何意百鍊鋼,化為繞指柔”,作者的思考恰恰展現了這樣一個過程。從著作整體架構來看,作者指向了信息空間、大數據知識、人類深度智能化等技術形式,藉助現象學反思、藉助倫理學等哲學工具展開了深挖和批判,為不臣服於技術邏輯而展開運思。在這種嚴肅概念思維分析的背後,透露着一種道德柔情。即便面對技術理性的跋扈,也更多是想到的美好一面。

1、《基礎》一書所提的問題

《基礎》一書提出了兩個首尾呼應的問題。在開頭,作者提出瞭如何使得我們不臣服於技術變遷邏輯的問題。“人類必須作出的終極價值抉擇是,在創新使得世界不再是過往的世界,我們不復是從前的我們時,如何使人性依然可以在框定技術前行的方向,而不是臣服於技術變遷的邏輯。”(p1)作者已然清晰地看到一個變化:創新驅動的時代,過去的世界已然過去、過去的我們不復存在。從時代看,我們的時代發生着翻天覆地的變化,僅僅從交通方式來看,車馬行走變成了高鐵飛機,甚至人們期盼着未來的瞬時傳送的方式。這個時代以加速和空間拉近開啓了變成地球村的節奏;從人的存在來看,我們已然發生了悄然的變化。這種變化以進化的方式呈現出來。“我們”從非洲走出來,然後變成了地球的主人,從偶然地藉助天火,到現在可以自由地控制化學燃燒反應。在這個過程中,我們經歷了什麼?服從於技術邏輯。以計算機芯片來説,始終在摩爾定律的框架中前行。但是,人類的發展卻不止於此,隨着人工智能的發展,摩爾定律失效了,人們可以掌控技術邏輯的發展。這一問題隱隱顯示出作者力圖在人類與技術邏輯和技術世界之間的關係中找到一種平衡。

在結尾,作者更是提到了一個當前新冠疫情這一重大危機帶來的啓示:“信息化與智能化昭示了無止境的科技未來,但是人們必須認真思考如何應對文明脆斷的可能?”這一問題的提出,讓我們彷彿聽到了文明發展之樹枝在技術衝擊下發出的脆斷之聲。我們該如何看待文明脆斷的可能性,這是這一問題的意義所在。在自然發展過程中,災難性遺忘總是不可避免地。比如個體記憶消退和被刪除後導致的災難性後果;人類文明在全球化衝擊下已經遭遇的斷裂。這兩個問題的提出很尖鋭地指向了人與技術的關係,技術邏輯導致了人類文明的脆斷可能性。我們把這兩個問題統稱為技術理性問題,而反思者真正要面對的問題是如何對抗技術理性的無邊蔓延。

2、上述問題的實質

“控制的危機”是作者2017年曾經提到的問題。“技術變遷的邏輯”則是《基礎》對於整個技術危機本質的診斷。“憑藉法力無邊的機器智能,過去和現在已經不能滿足技術無與倫比的控制力量,計算的洪流在未來已來的鼓點種入侵未來。”(p2)這一問題有哲學上的依據。“思”需要做的就是對抗技術化的控制。而反抗的根本是思考現代技術與理性的關係。按照海德格爾的説法,現代技術是現代性的極致形式,這道出了現代技術與理性之間就是一種內在的等同關係。哲學家們對於現代技術的控制本質已經給出了不同層面的反思,比如黑格爾將現代技術看做是精神外化的形式之一;海德格爾指出現代技術的本質是座架,這一觀念是形而上的直接指向存在顯示形式。技術的控制也是理性的控制,二者的同一是哲學家帶給我們的重要觀念。所以,從哲學史的角度看,反思理性運行成為最為關鍵的事情。在這一基礎上,對理性極致代表形式的技術進行反思就成為應有之義。

再回到《基礎》書中,作者提出的“信息倫理構建”是反思理性的一種重要形式了。這一反思嚴格地説屬於理性內在的反思,也就是通過倫理形式來反思理性自身。在其整個文本7章內容裏面,有五章直接展現了這種倫理反思的不同對象。比如在第二章展現的是對知識理性的信息倫理反思、第四章是對技術理性的倫理反思、第六章和第七章是對數據理性和智能理性的倫理反思構建。在整個邏輯中,貫穿着兩條線:一是理性形式的變遷,從知識到技術,技術又表現為從信息到數據和智能的變遷,這可以與人類科技的四次革命變遷變遷形成呼應。二是倫理向度的彰顯與倫理邊界的構建,以反射弧為發端的倫理構建。

在諸多技術形式中,信息網絡空間引起了筆者的極大興趣。為了對抗這一理性形式,作者採用了現象學的闡述方法。他重點揭示了信息網絡空間的三個基本向度:對象性、意向性和交互性。在信息技術與信息經濟敍事中,採取的就是將空間看做是容納並處理對象的場所;從現象學角度看,信息網絡空間是一種生長性的人的意向空間。(p38)信息網絡空間是一種實時的重疊共識。通過層層剖析,信息網絡空間的結構完全透明。這一章與第五章,倫理向度似乎向內收斂起來,信息網絡空間自身的向度與大數據認知與社會歷史維度的構建成為最後落點。

3、倫理構建的總體商榷

對於倫理內在的反思來説,其不是一種激烈的對抗,而是顯示着繞指柔的意象特徵。作者儘管採取了不同的分析工具,這些工具中和適用,長於揭示問題,而批判性較弱。主要通過2個方面表現出來。

第一,“不臣服於技術變遷的邏輯”。對於技術邏輯的本質揭示,我們看到的是一種充滿激情的抨擊。“數據對人的行為的絕對理解使一種永遠不可能實現的幻術,巨量的大數據實驗所捕捉到的不是鮮活的人類生活,而是由數據廢氣構造的世界的殭屍版本。”(p16)這顯示了一種理工科出身學者的情懷。但是,激情過後,那種理性的對抗並沒有保留下來。我們看到的不是一種建構式的態度,而是一種否定式的表達:“不臣服於技術變遷的邏輯”。“不”與“臣服於”充分地顯示了這種態度。根據一般寫作的規律,引論一般都是在最後寫就。《基礎》的引論、餘論和跋的內容均發表於2020年以後。最終,鮮明的批判最後停留在“不臣服”的否定性表達上。

第二,柔性規範。技術神話其實質使曠日持久和規模不斷拓展的社會倫理實驗。以往的道德規範難以應對,“只能在其技術實踐和體驗中,逐漸構建起相應的倫理反射弧,進而試圖在各種柔性規範的基礎上,制定剛性的和可執行的法律規範。”(p3)在作者這裏,倫理反射弧始終是柔性規範,有別於剛性的法律規範。其作用更多是説服和感化。

最後,回到最初的問題:用什麼樣的方式對抗技術理性?就對抗而言,我們終究還是會想到一個關鍵的人物,利科。他選擇了記憶作為對抗理性傲慢的工具。“記憶現象,和我們如此緊密地聯繫在一起,最為頑強地抵抗着徹底反思的傲慢。”與之相比,記憶是對理性的對抗與拯救。而相比之下,倫理的方式始終是柔性的和充滿關懷的,從本質上看,倫理內在地同一於理性,而且尚需要法律的補救。從根本上來看,《基礎》並不是對抗意義上的著作,因為思想的剛性經過百次錘鍊已然演化為實踐的柔性,顯示出其獨特的道德柔情。

(本文來自澎湃新聞,更多原創資訊請下載“澎湃新聞”APP)