"破壁人"AI亟需補完計劃
©新熵原創
作者 | 伊頁 編輯 | 明非
破壁人,是《三體》中的人類叛徒——地球三體組織,為了識別出面壁者內心真實想法而安排的人。
侵略者三體人思維透明、無法撒謊,只能利用人類身份的破壁人,來瓦解地球人最後的希望,面壁計劃。
現實社會文明中,每一個人的內心真實想法,其實也在被高速發展的人工智能,即AI技術所窺見。
《三體》中的地球難逃被殖民的命運,現實中的人類又該如何避免,未來可能會發生的AI支配?
去年年底,谷歌AI倫理部門的聯合負責人Gebru發推表示自己被公司開除。只因身為黑人女性的她,一篇引發爭議的論文內容指出,不加區分地使用現有數據訓練人工智能,會進一步加深 AI 語言模型中對少數邊緣羣體的偏見。
AI中涉及的倫理偏見現象一直貫穿至今。早在2015年就有谷歌相冊將兩個深膚色的人標記為“大猩猩”的事件。新冠疫情期間又爆出AI技術將手持測温計的深膚色人員圖像標記為“槍”,而將相同條件下淺膚色人員的圖像標記為“電子設備”。
當AI沒有沿着技術研發之初,所設想的為人類服務、促進社會發展的道路前行,反而屢次觸及文明社會倫理道德的紅線,這個“破壁人”顯然需要一個補完計劃來修正其軌道。
AI倫理的進一步研究和落地,就成了計劃的關鍵。
新興技術或事物的橫空出世,由於場景應用經驗不足、普羅大眾認知落後等緣由,被視作洪水猛獸遭受歧視並不罕見。
歷史上,美國加州就曾出現過,要求汽車司機在接近馬匹的300英尺外停車等待,讓馬車先行通過的不平等法規。
但新科技的妖魔化,最終還是抵擋不了,人類社會對美好生活的追求。AI技術也註定成為,影響人類生活現狀的第四次工業革命的核心單元。
市場探索、行業規範、學術科研、國家監管,多方主體關於AI倫理道德問題的生態研究及建設,就需要發揮相應的作用,急需行動起來。
AI倫理需多個維度補完
自古以來,先哲們就非常強調人類倫理秩序與技術的和諧發展。柏拉圖在對希臘神話的解讀中,就指出普羅米修斯給人類所帶來的技術,與赫爾墨斯所帶來的秩序,共同構成了完整的文明社會。
控制論之父維納,其著作《人有人的用處》中,關於自動化技術和智能機器,得出過一個危言聳聽的結論:“這些機器的趨勢是要在所有層面上取代人類,而非只是用機器能源和力量取代人類的能源和力量。”
這類激進的論調,以及大多文藝作品中,對於未來人造機器掌控世界的擔憂,不免有些誇張,但也絕不是杞人憂天。
事實上,目前AI發展最大的問題,早已不是技術上的瓶頸,而是AI與人類的關係問題,這也催生了AI倫理學和跨人類主義倫理學的課題。
2018年,時任微軟全球執行副總裁沈向洋博士在其主持編撰的《未來計算:人工智能及社會角色》一書中提出了AI開發的六大原則:公平、可靠和安全、隱私和保障、包容、透明、責任。
隨後,有另一家科技企業,百度也提出了AI倫理四原則:安全可控;促進平等;教人學習、讓人成長,而非取代人、超越人;為人類帶來更多的自由和可能。
而在去年,人工智能垂直頭部企業,商湯科技聯合上海交通大學清源研究院發佈《AI可持續發展白皮書》,為解決人工智能治理問題提出了一個新觀念和新思路。
其中提出的協商包容的AI倫理原則、普惠利他的AI惠民原則、負責自律的AI產融原則、開放共享的AI可信原則,對於建立AI可持續發展體系,推動數字經濟領域治理研究,貢獻良多。
歸納來看,AI倫理問題涉及涵蓋如下幾個維度:
AI安全可控:包括“AI模型安全”,數據和訓練的不完整性,會導致模型偏見和可解釋性缺乏。如果模型存在心理、統計等偏見,會造成算法歧視;而如果模型結構不能解釋不夠透明,那麼公眾對其信任度會下降。“AI數據和隱私安全”,使用者善意地去使用技術,但仍然可能會被黑客找到漏洞。訓練完畢的模型有可能會遭到黑客的竊取,或者被反向還原暴露用户數據隱私。“AI系統安全”,系統威脅分為兩類,一類是硬件設備被破解,造成採集數據泄露;另一類是軟件系統漏洞被利用,從而在採集或傳輸過程中被竊取數據。
AI公平平等:不同區域的人、不同等級的所有人在AI面前是平等的,不應該有人被歧視,包括有功能障礙的人羣也應該能夠平等地使用人工智能;
AI信息透明:儘管人工智能技術具備自動識別理解現實世界,從現實場景中挖掘信息的能力,但只有在告知人且獲得同意的基礎上,才能收集、保存和使用這些信息。
AI行為問責:人工智能不應作為獨立的主體存在,具備自主權利,人類需要始終為使用人工智能造成的結果負責。
作為銜接前沿技術與民生應用的市場主體,國內外的企業,均已在AI倫理生態研究的大道上,邁出了強有力的步伐。
今年3月,《中華人民共和國國民經濟和社會發展第十四個五年規劃和2035年遠景目標綱要》全文正式發佈。在共19篇65章的綱要全文中,“智能”“智慧”相關表述達57處。
市場先行摸索,政策配套跟進,理論學研支撐,國內的人工智能行業發展,已然領先於世界。
中國的AI行業得益於全球最大的市場環境,儲備了非常豐富的數據資料,以及在技術場景落地的過程中,對大量一手數據進行分析學習並得到持續訓練。
國內企業亦在行業發展,AI倫理道德生態建設工作中功不可沒。在具體行動上,商湯科技作為最早湧現出的一批先驅代表,就在其內部設立了三重安全防護:倫理委員會、安全委員會、產品委員會。2019年商湯科技以組長單位的身份,領銜27家企業機構共同組建人臉識別技術國家標準工作組,全面啓動人臉識別國家標準制定工作。
一年之後,全國信息技術標準化技術委員會人工智能分技術委員會正式成立,商湯科技作為計算機視覺企業代表當選為首批委員單位。從單項人臉識別技術,參與到AI技術各個應用領域的國標制定工作之中。
同時,其牽頭主編的《信息安全技術 生物特徵識別信息保護基本要求》國家標準也正式立項。
國家層面行業標準的建立,就為全部行業內的參與單位,劃定了行為邊界和規範。AI的安全使用,就不再是一句空談無法落地。
隨着標準覆蓋範圍的擴大、細則的完善,AI技術才能真正成為可信賴、可控制、可依靠的市場化產品服務。
制定規則並非畫地為牢,AI產業的可持續發展同樣至關重要。2020年的疫情衝擊,更加凸顯AI技術的多元化場景積極作用。
迴歸到普通消費者,日益感知強烈的個人隱私安全問題上,數據保護也是AI倫理補完計劃中的要害所在。
近兩年,商湯科技相繼獲得ISO/IEC 27701:2019 隱私信息保護管理體系證書、ISO29151個人身份信息保護實踐指南認證、ISO27001信息安全管理體系認證,以及公安部“網絡安全等級保護2.0”三級要求等權威認證,成為首批同時獲此四大認證的人工智能企業,並代表中國企業加入全球範圍內首個系統化定義了隱私信息管理體系(PIMS),成功對接國際上最權威、最被廣泛接受的隱私保護標準。
不僅如此,商湯科技一直力推的AI基礎教育、AI智慧醫療,在國計民生領域,利用先進技術推動資源的普惠分配,讓每一個社會成員都能享受到科技進步的紅利。
這也恰好體現了AI倫理中的公平、平等原則。在多維度建設AI倫理生態,補完AI倫理發展空缺方面,AI企業應當仁不讓。
產學研一體實踐理論結合
人工智能作為一項人類探索未知領域的前沿科學技術,就如同始祖、先輩對於火焰熱力、電氣磁力的探索利用,需要經歷無數次實踐、論證、總結的循環往復。
辯證唯物主義認識論問題的著作《人的正確思想是從哪裏來的?》中就詳細闡述了實踐與認知的辯證關係。
正確思想的獲取,需要經歷兩次飛躍。一次是實踐感性認識的不斷積累,量變引起質變,形成理性認知;第二次則是拿理性認知投入到新的實踐當中,經過結果成敗的檢驗,方能掌握行之有效的辦法和規律。
AI技術發展過程中的補完工作,AI倫理體系的生態建設,亦要遵循這一路徑。
在當下社會大分工的市場環境中,企業更多面向適應市場需求的產品研發改進工作,學術科研單位則是專注於技術成果的研發,這就導致中間缺少一道技術轉化成產品,產品成果反哺上游研發的橋樑。
日前,在商湯科技和上海交通大學的支持下,上海交大中國法與社會研究院和清源研究院共同成立計算法學與AI倫理研究中心。
該研究中心的合作就是典型的產學研一體化模式,AI產業內的大企業和具有技術優勢的科研院所、高校實施強強聯合,形成有利於科技成果市場化的聯合體,便能加速AI倫理生態建設工作的有效落實,進而推動整個產業的進步發展。
上海交通大學中國法與社會研究院有着豐富的學術資源,並在風險社會與複雜系統理論、大數據治理和人工智能治理的比較制度分析、智慧司法等領域有深厚底藴。而商湯科技則能夠為法學與人工智能的交叉研究提供技術支撐和產業界資源。
兩者的有機融合,可以讓計算法學與AI倫理研究中心成為在新興計算機系統研發、智能生態圈構建、圍繞數字經濟的規則博弈、人工智能立法等方面成為國內頂級、國際知名的學術重鎮和高端智庫。
據悉,研究中心將針對隱私保護、算法公正、網絡安全、城市及社會的數字化治理、智慧法院、認知科學與類腦計算、科技與法律及政策等重大課題進行深入研究,並搭建計算法學交流與合作平台。
因此,才能從產業和學術兩個角度,深入地挖掘AI倫理問題產生的根源和背景,然後從源頭去針對性地解決隱患,並把 AI倫理滲透到整個學術界和產業界當中。
當然,完整的AI倫理生態,不僅僅侷限於產業和科研雙方,國家相關監管部門的支持和市場大眾消費者的認知提升,也是AI補完計劃不可缺少的兩環。
前者需要完善相關立法,加強技術與產品的管理力度,後者則應該主動提高對於前沿技術的客觀認知。
AI技術產品的市場應用,已經處於從小規模驗證走向了大規模應用的階段,根據現有經驗謹慎推導,完善相關事前、事中、事後的審查、處罰機制,才能為更大範圍的普及推廣,杜絕倫理問題產生的可能。
同樣,作為消費端的市場大眾,理應樹立正確的科學價值觀,既不能盲目追求新鮮潮流,又不該固步自封拒之於千里之外。尤其是作為產學研體系內的專業人士,更需要以身作則堅持正確的AI倫理觀,主動引導普羅大眾的認知行為。
相信在各方的不懈努力下,越來越多像計算法學與AI倫理研究中心這樣類型的主體出現,將進一步促進監管主體和普通民眾的同步跟進,國內AI倫理的生態建設將日趨完善,獨步全球。
被視作人類“破壁人”的人工智能,在得到AI倫理體系的補完之後,也能迴歸中性工具的角色,不再具有未來威脅的可能性。
但到了那時,新的“破壁人”又會以何種形式出現,就仰賴於人類自身的想象力了。