「發展」的AI倫理治理觀:既要「揚善」,也要「除惡」
在中國的交通曆史上,有兩個看似荒誕、卻極有啓示意義的著名事件:
1865年,清朝同治四年,英國商人杜蘭德在北京宣武門外鋪設了一條長約500米的小型鐵路。這是中國的第一條鐵路,很快引來了圍觀人羣的驚呼聲。人們看到一個龐大無比的蒸汽機頭帶着幾節車廂緩緩駛來,無需人力拉動,着實神奇。雷峯網
但對蒸汽機頭的一無所知還是使人們心懷恐懼,清廷官員更是嚇得一身冷汗,跑去向慈禧告狀,言杜蘭德所修的龐然大物乃是一條鐵龍,能上天入地,破壞大清朝的龍脈!慈禧一聽,也嚇得不輕:“這是要亡我大清!”立即下令拆除。雷峯網
除了「無知」,按照兩廣總督毛鴻賓的説法,反對修建鐵路還有另一個原因,就是火車會擠掉馬車的生存空間,從而中斷民間的貿易:“此(鐵)路一開,遂為外國火車獨行之路,中國馬車既難與之並駕齊驅,更不堪其橫衝直撞,勢將斷絕往來商民交割。”雷峯網
此乃事件一。
近一百年後,江蘇常州也發生了類似的工具迭代競爭事件:
1946年,江蘇常州計劃在城區推行公交汽車,但此時城內仍有3000名黃包車車伕。城區公交汽車的推行必然威脅到黃包車車伕的生存空間,因此,3000名黃包車車伕發起大罷工遊行。
當年10月,罷工遊行事件到了白熱化的節點。10月25日下午,聚眾車伕前往市政府抗議,途徑府橋時,與一輛紅頭雪佛萊公共汽車相遇。情緒中的車伕眾人攔下公交車,往車上扔擲石塊,雙方亂成一片,最後護車士兵在混戰中開槍射擊,造成一人當場死亡,三人重傷不治,當地政府不得不緊急叫停城區公共汽車。
如今回顧,這兩件事看起來十分不可理喻,但在人工智能時代,它的啓示(或教訓)仍是深刻的:第一,不要低估大眾對未知新興科技的擔憂與牴觸;第二,一項技術在人類社會的全面開花,必須考慮、保護甚至提升人類的自身權益,以人為本。
近日,商湯科技所提出「發展」的AI倫理觀,也是從人的角度出發。
與早期的「AI倫理」不同,商湯所提出的發展AI倫理觀,不僅強調對技術負面影響的約束,還強調人工智能對社會與個人的正向價值。
更重要的是,商湯認為,在發展與落地人工智能技術的過程中,「AI倫理」要考慮行業變革的飛快性,在技術發展的不同階段採取不同治理框架,實現社會的發展平衡。
簡而言之,就是:緊跟時代,以人為本,既要「揚善」,也要「除惡」。
1、AI治理的複雜性
近幾年,隨着人工智能在日常生活中的不斷滲入,這項神奇的技術也逐漸向世人展示了自己的正邪兩面。
先看「善」的一面。
這兩年,新冠疫情爆發,被廣泛使用的無感測温、無感通行,便是基於感知識別的人工智能技術。嫁接於各個計算機軟硬件的AI技術,如智能圖像處理、便捷支付、對話機器人等等,也極大地便利了人們的日常生活。
舉個例子。此前商湯也研發智能避障眼鏡,幫助視力障礙者在户外行走時獲得交通信號、環境障礙物等語音提示,改善視障人士的生活。
人工智能不僅在實際的應用中帶來了極為直觀的價值,在學術研究上也產生了令人矚目的影響。比如,前段時間,DeepMind用機器學習證明了兩大困擾人類科學家數十年的數學猜想,登頂Nature。人工智能學家將AI與物理、生物、化學等基礎研究相結合、並取得卓越成果的例子亦不勝枚舉。
但與此同時,由於深度學習算法的「黑盒子」特徵,以及人工智能系統在現實生活落地中所體現的不穩定性、不可控性等,誤用、或濫用人工智能給人類社會帶來的傷害也不容小覷。
在這樣的背景下,建立AI的倫理體系實為大勢所趨。為了促進AI技術的良性發展,各方力量承擔起了不同的角色。比方説,據聯合國統計,全球目前一共出台了超過150份有關AI治理的報告方案,學術界也掀起了「可信AI」、「負責任AI」與「AI向善」等多個新興話題的研究熱潮。
那麼,科技公司應該如何承擔起AI可持續發展的責任?作為AI產業的先行者,商湯有自己的思考。
首先,AI技術要不要發展?答案無疑是肯定的。正如商湯科技副總裁、商湯人工智能倫理委員會的主席楊帆所説:
「解決技術倫理最簡單直接的方法,看起來似乎是不搞技術創新,那麼自然就不會存在數字科技的諸多問題。然而,國家要發展,社會要進步,人們的生活質量要改善。前沿科技的發展對家、國、天下都非常重要。如果有顧慮就放棄發展,就是因噎廢食。」
「技術發展與技術治理,本身就是制約與平衡的關係,繮繩勒得太早、勒得太死,會制約技術的發展;在技術演進的過程中,適時地收一收繩子、收住技術的底線和邊界,才能讓技術發展與應用,走得快、走得遠。如今,AI已經走出實驗室,隨着AI通用大裝置的日漸發展,機器猜想將帶給我們更多的可能,倫理治理由此將更為重要。」
楊帆還表示:「沒有理論可以完美得解釋技術,但我們要了解技術應用的邊界。通過AI倫理治理,既是規避AI技術的負面影響,引導技術的正向發展,推動公司與行業的可持續發展;同時,這也是業內領先公司、以及所有AI從業者們所應當承擔的社會責任。」
從成立之初,商湯的使命便一直沒有改變:堅持原創,讓AI引領人類進步。也就是説,在商湯將AI落地的過程中,AI的服務對象不應該侷限於一個特定的羣體,而應該面向整個人類社會。
楊帆提出,AI治理是一個多目標、多維度的平衡過程。比如,防疫期間,保護集體利益的目標與尊重個人行程隱私的目標要權衡;健康碼快速人羣分類進行針對性防治與老年人數碼產品使用問題要權衡等等。
多維目標的權衡,意味着AI治理的難度在增加。為此,商湯倫理委員會整理國際主流的治理觀點、以及產業一線的實踐經驗,提出了AI治理的三大核心:技術可控、以人為本與可持續發展。具體來説,每個核心的表現大約如下:
可持續發展:保護環境、保護和平、包容共享、開放協作、社會認知、敏捷治理……
以人為本:保護人權、保護隱私、人類可控、公平無歧視、造福人類……
技術可控:可驗證、可審查、合法性、可信任、可解釋、安全可靠、公開透明、負責任……
2、制度式的「技術可控」
值得注意的是,商湯科技在「AI倫理」的參與過程中,不僅是停留在倡議或報告類的書面工作上。商湯的「關鍵行動」,是率先將「AI倫理」的治理工作貫徹在產品與業務的運營過程中,使之成為商湯企業管理中的一環。
2020年1月,商湯成立了人工智能倫理委員會,從企業的組織架構上滲透「AI治理」的觀念。
對內,委員會審核商湯的所有落地產品線,對員工進行倫理通識培訓,提高員工在日常工作中的倫理意識;對外,與其他組織合作,共同開展AI倫理的研究工作。
圖注:商湯倫理委員會的職責介紹
另外,該委員會的成員不僅包括商湯內部的核心骨幹,還有許多外部專家參與其中。而且,為了保證委員會所作決策的客觀與中立,該倫理委員會有一條硬性規定,即外部委員不能少於1/3的席位。
今年上半年,該委員會上線了倫理審核系統,從實際的運營「把關」中踐行了「技術可控」的核心AI治理原則。
該線上系統的設置,結合參考了國內外在技術倫理方面眾多的政策制度和研究成果。審核體系從數據風險、算法風險與社會風險三大維度出發,設置十餘個板塊,近30道題目,從尊重人權、向善性、無偏性、隱私保護、可靠性、透明及可解釋性、問責性等等角度,對項目進行詳細拆解,考察其倫理水平。
圖注:商湯倫理審核系統的運維
目前,倫理審核已經嵌入商湯立項審核流程,進行線上評審,並根據評分對被審核的產品進行風險等級劃分。對於倫理風險較高的產品,該系統會予以駁回,提出中斷開發、下線或整改的要求。若無法通過整改,則不予以立項上市。
圖注:商湯倫理審核流程
比如,曾經有「AI算命」的客户需求找到商湯,提出用計算機視覺技術識別人體特徵、手掌掌紋等信息,自動給出用户的人生運勢等預測。識別這些信息和特徵,技術上來説並不難,但這顯然不符合商湯的價值觀,即使預見可以有所收益,這樣的項目也無法立項成型。
楊帆的看法是:「技術有所不為,而後才能有所為。」雖然一個高盈利的AI產品可能會因為風險問題被淘汰、從而對公司營收會造成直接影響,但從長遠的角度來看,這是必要的。
目前,這套系統已經全面覆蓋商湯存量產品與新增申請立項產品,形成了內部的產品項目從立項、發佈、運營全生命週期的倫理風險控制機制。倫理審核結果會伴隨產品研發和發佈的全過程,若發佈階段產品有重大變化,則需要重新審核説明。
據商湯披露,從該系統上線至今,已有 10% 的產品被責令整改或下線;在對新增項目審核中,有 5% 的項目被打回整改,或駁回立項,累計放棄價值數百萬的商業利益。
「光有概念、有想法是不夠的,AI倫理治理既需要高屋建瓴的指引原則,也需要具體而微的評估指標。系統的建立就是根據這些指標維度建構人工智能倫理風險評估體系,將指標具體化、操作化,為企業的技術治理與風險管控提供支持。」楊帆表示,
而在實踐中,AI倫理管理系統,通過系統的方式將風險識別、評估、處理、 監控及彙報等各環節都進行了覆蓋,明確各產品全生命週期中各個主體的風險管控責任,讓技術可控有章可循、有規可依、有據可查。」
今年11月,商湯因倫理方面前瞻性思考和實踐,獲得了《哈佛商業評論》2021年度拉姆·查蘭管理實踐獎。這也是國內首個因為在技術倫理與治理方面的實踐而獲得的頂尖商學院媒體授予的企業。
3、「發展」的AI倫理觀
「技術可控」並非目的,而是手段。
説到底,人工智能企業在技術創新中「有所不為」的最終目標,不是為了停止人工智能技術的研究與創新,而是以一種良性的、可持續的方式在現實生活中發展人工智能,緊跟時代需求,使其為人類、為社會造福。
今年,在倫理審核之外,商湯也繼續保持其在人工智能技術上的創新,推出AI大裝置等人工智能基礎設施,「倫理治理」與「技術創新」雙管齊下,為行業做貢獻。
「無論是技術本身、還是技術治理上,商湯都是開放而堅定的長期主義者。AI倫理治理是一個需要持續關注與投入的話題。人工智能倫理的發展,需要多方合作、共同探索。」
據瞭解,目前,商湯科技已與清華大學人工智能國際治理研究院、上海交通大學、上海人工智能實驗室、上海科學學所、數據法盟等共10家機構展開合作,圍繞敏捷治理、數據安全、人工智能算法的可解釋性等方面開展聯合研究,平均每年推動五個專項課題的研究,產出10+專項研究報告。
當越來越多力量參與其中,「AI倫理」就不再只是一句口號,而會演化成實際的行動,貫徹人工智能的發展始終,最終推動人工智能在人類社會的全面落地。
彼時,人類與AI才算得上是真正的「和諧共存」。而這,也正是「發展」AI倫理觀的願景所在。
筆者注:
恰在筆者行文期間,美國財政部以所謂“侵犯人權”為藉口將中國、俄羅斯等五個國家15名個人及10個實體列入制裁名單,其中包含商湯科技。這也是繼2019年被列入“實體清單”後,商湯再度遭到美國無端打壓——尤其,該項決定的宣佈日期就在商湯原計劃的香港上市發行定價日。這樣對商湯精準的打擊,其用心不可謂不明顯。美國財政部的這一行為,將正常的商業和科技活動政治化,嚴重破壞了正常的市場規則與秩序。
此時再想到商湯科技倫理委員會主席楊帆所説:“要不要發展AI?當然要。國家要發展,社會要進步,人們的生活質量要改善。前沿科技的發展對家、國、天下都非常重要。”願中國硬科技發展崛起!
參考鏈接:
1、https://www.sensetime.com/cn/news-detail/41164352?categoryId=72
2、https://mp.weixin.qq.com/s/FOxOhEkWIXv5ypzHPkXIWw