楠木軒

強大的AI如何治理?中科院研究員曾毅:企業要為長遠願景做準備

由 烏雅竹雨 發佈於 科技

人工智能作為一項顛覆性技術,正如水電一般融入人類日常生活的方方面面,也開始引發部分人思考如何更好地將這項技術為人類所用。6月初,美國經歷了一場大規模的反種族歧視示威,包括IBM、亞馬遜和微軟在內的科技公司,紛紛主動叫停了可能帶有種族偏見的人臉識別,重新審視人工智能技術應用紅線,引發外界廣泛關注。

同樣的,大洋彼岸,在突發的新冠肺炎疫情中,AI電話人羣篩查、人臉身份識別在國內發揮了巨大作用,也引發人們對於新技術的隱私保護顧慮。如何對這項強大的新技術進行規範,成為學界、業界、監管層和公眾共同關心的問題。

近日,《每日經濟新聞》記者採訪了中國科學院自動化所研究員、北京智源人工智能研究院AI倫理與可持續發展研究中心主任曾毅,他同時是科技部新一代人工智能治理專業委員會委員。“剛剛頒佈的民法典,關於個人隱私、個人數據相關的保護已經得到加強。”曾毅向記者透露,從前沿研究的角度來講,人工智能立法在科技部、若干省市等都有專門的研究計劃部署,相關高校和產業都在協作制定可行的草案,北京市也在籌劃推動與人工智能相關的立法工作。

中國科學院自動化所研究員曾毅  圖片來源:受訪者供圖

迫切需要加強從業者倫理培訓

美國近期的反種族歧視大遊行,也引發了抵制人臉識別的算法偏見。大眾再次意識到,前沿科技與羣體權益之間的矛盾如此刺眼。

《每日經濟新聞》記者曾參加過多次關於人工智能治理的研討會,在討論人工智能治理時,偏見、隱私這兩個關鍵詞被反覆提及。

由於人類文化以及成長環境不同,每個人都有鮮明的個性,對於特定事物的判斷,人類個體很難做到不偏不倚,人在訓練機器模型時就會出現偏差,這就會導致AI的偏見。穿着紅色衣服的面試者,在某些人看來是熱情開朗,有些地區的個體卻不這樣認為。

另一方面,人工智能企業是數據的大户,要使用大量的數據訓練模型,這就需要在可信的環境下進行。據曾毅介紹,幾乎所有人工智能行業的從業者和技術專家在加入人工智能企業之前,沒有經過任何的人工智能倫理培訓或教育,這方面迫切需要加強。

國內領先人工智能企業曠視首席運營官、AI治理研究院院長徐雲程認為,正是由於AI技術的普遍性與其對於社會影響的深刻性,促使社會各界在AI商業化比較早期的時候,就開始探索AI治理的這條道路。“人工智能行業一直有一個觀點,不能先發展後治理,應該是邊發展邊治理。”

從全球來看,人工智能規範很難有統一的標準,人工智能的倫理和治理之間很難形成共識。曾毅介紹稱,聯合國有非常多的關於人工智能治理和倫理方面的努力,在不同國家的努力中尋求共識,與不同文化的基本哲學思想和價值觀息息相關,這是根源。

聯合國教科文組織牽頭全球193個會員國推薦專家來構成一個全球的人工智能倫理的特設專家組,形成了全球人工智能倫理的草案,目前已經發布,並處於徵求意見的階段。曾毅作為中國的代表,擔任三個工作組中倫理工作組的共同組長,努力推動全球AI技術普惠、縮小各國之間的差距。

AI企業需要發揮更積極的作用

人工智能企業作為以盈利為目的的商業機構,如何建立一套適宜企業自身發展需求的AI治理體系,既以負責任的態度承擔企業社會責任,又不阻礙甚至是促進業務發展,這是擺在像曾毅這樣的學者面前的重要研究課題,也是曠視這樣的AI企業在進行AI治理落地時的重要考量。

圖片來源:攝圖網

曾毅一直在倡導人工智能企業關注可持續發展,建議相關企業要為長遠願景做準備。“當GDPR(通用數據保護條例)發佈時,歐洲幾乎沒有人工智能企業歡迎,因為他們覺得這需要花費大量額外的工作,也看不到直接的收益。所以,幾乎所有的人工智能大公司都反對,小公司也反對。”曾毅對《每日經濟新聞》記者表示,在GDPR實施了以後,幫助企業符合規範,企業開始發現用户大量增長。在這個階段,用户會選擇更加相信符合標準的企業的互聯網應用。

GDPR從隱私保護與安全角度出發,對違反者的罰款,最高可達其全球年營業額的4%或2000萬歐元,取兩者中較高值。

企業的AI治理一直都是各方關注的焦點。只有企業的落地和實踐,才能讓各種社會層面的監管或共識得到切實推進。在國際上,2016年,亞馬遜、微軟、谷歌、IBM和Facebook聯合成立了一家非營利性的人工智能合作組織(Partnership on AI),蘋果於2017年1月加入該組織。在科技巨頭們的共識裏,與其靠外界強加約束AI發展,不如先成立倫理委員會自主監督。

曠視則在2019年8月成立了“曠視人工智能道德委員會”,作為公司人工智能治理事項最高的決策機構,這也是中國首家成立該項組織的AI企業。

曾毅總結稱,這兩年的經驗表明,人工智能倫理這件事情一定不是單單某一方就能推動的。它既不能完全由企業來推動,也不能完全由學界推動,它一定是共同的,包括媒體、公眾、專家以及政府層面。它需要真正協同的機制,在這個機制裏,企業需要發揮一個主觀能動和更積極的角色。

“它不是就技術講技術的問題,涉及倫理、經濟學、法學等諸多領域,是真正的交叉學科的領域,而且需要海內外協同。”徐雲程贊同曾毅的觀點,她説:“我們並不會把人工智能技術的發展、商業應用和法律制定、標準制定對立起來,相反,越多的交流越能讓這個產業良性化、健康化、可持續化發展。”

國內人工智能立法已有計劃

6月15日,“中國人臉識別第一案”在浙江杭州市富陽區法院開庭審理,引發公眾關注。對簿公堂的是浙江理工大學副教授郭兵和杭州野生動物世界。因動物園改裝系統,明確若不註冊人臉識別將無法入園,也無法辦理退卡退費。因不願意使用人臉識別,持有年卡的郭兵將其告上法庭。

郭兵的訴訟無前例可循。曾毅對《每日經濟新聞》表示,之前已經有了《人工智能北京共識》和科技部《新一代人工智能治理原則》,中國提出的人工智能原則和西方的衝突並沒有那麼大。全球各個地區在討論人工智能的倫理和治理形成共識時,聯合國在其中發揮了重要作用。

曾毅介紹道:“世界衞生組織也成立了健康領域人工智能倫理治理的專家組,我代表中國參加了這個專家組,這個專家組的主要目標是針對廣泛的健康領域,制定人工智能倫理和治理的WHO原則。”曾毅表示,在疫情期間,該組織的主要工作是制定關於密切追蹤者應用,類似健康碼系統相關的倫理原則,這在5月底發佈了。

AI治理是個深刻的話題,之前並沒有成熟的模式可以遵循。在曾毅看來,AI治理是多方利益相關方的責任和問責的問題,涉及每一個人工智能產品的全生命週期,涉及設計、研發、使用、部署各個層面。

在國內層面,曾毅向記者透露,從前沿研究的角度來講,人工智能立法在科技部等機構都有專門的研究計劃部署,相關的高校和產業都在協作制定,北京市也在推動和人工智能相關的立法工作。

從互聯網時代開始,為了追趕風口,國內眾多互聯網應用似乎都經歷過野蠻生長階段,犧牲了用户眾多權益,最後在監管層的管控下逐漸歸於理性。現在人工智能行業的發展又站到了新起點,如何規範好前沿技術成為所有人工智能企業面對的命題。