楠木軒

為人工智能健康發展設置“安全閥”

由 宿秀榮 發佈於 科技

本文轉自【科技日報】;

人工智能已不再是高大上的概念,而成為在生產生活的方方面面快速滲透的技術應用。在為我們帶來各種便利的同時,它所觸及的倫理和法律問題也開始凸顯。

全國政協日前召開雙週協商座談會,專門就人工智能發展中的科技倫理與法律問題進行協商議政。在充分調研的基礎上,此次座談會對相關問題進行了深入探討。

要高度重視人工智能健康發展

“我國人工智能發展勢頭迅猛,但發展機遇與風險並存,(人工智能)對人類社會發展也可能帶來重大風險和潛在威脅。”全國政協委員、社會和法制委員會副主任陳智敏在座談會上表示,要高度重視人工智能健康發展和風險防範。

全國政協常委、湖南省政協副主席張大方在座談會上提出,應警惕人工智能發展所帶來的社會公平問題。在他看來,人工智能主要以大數據和深度學習為基礎,而往往數據的缺失、數據的質量、算法的歧視和人工的變化,會導致一些偏見出現。

人工智能應用中的個人隱私保護問題,在此次座談會上備受關注。

“人工智能需要大量個人數據支撐,其中很多是個人隱私。隱私信息一旦泄露,可能對消費者人身、財產安全及企業、公共利益造成嚴重威脅。”全國政協委員、九三學社重慶市委會副主委黃愛龍提出。

全國政協委員、上海眾人智能科技有限公司董事長談劍鋒認為,在海量大數據中,尤其需要關注的是不可再生性數據,比如人臉、指紋、DNA等生物特徵數據,以及個人醫療檔案數據等。“這些數據具有唯一性,是無法更改的,一旦被採集到不安全的網絡上,極有可能帶來災難性後果。”談劍鋒説。

不僅如此,人工智能發展引發的就業問題、人工智能紅利形成的“數字鴻溝”“貧富鴻溝”等社會財富分配問題也在座談會上得到討論。

技術防範+倫理規範+法律規制

全國政協副主席、民盟中央常務副主席陳曉光在作主題發言時指出,應充分認識人工智能科技倫理與法律建設的戰略意義。

“人工智能的健康發展,必須回答人工智能到底該由誰掌控、人工智能發展的基本準則是什麼、人工智能發展的禁區在哪裏等問題,必須通過建立理性的倫理規則和法律規範為人工智能發展的風險防範設置‘控制閥’。”陳曉光表示。

陳曉光認為,總的來看,人工智能治理需要在充分發揮技術手段的基礎上,注重倫理與制度的結合,逐步形成“技術防範+倫理規範+法律規制”的綜合規制體系。

此次座談會上,科技部副部長李萌提出多項在新形勢下加強人工智能倫理法律工作的相關建議。

李萌建議,全面增強人工智能技術創新能力。其要義之一是強化人工智能安全可信、隱私保護等方面技術研發,建設跨領域的人工智能測試平台,強化倫理治理和風險防範的技術支撐。

此外,他還建議支持地方開展重點領域的立法試點。“聚焦當前的突出問題,在人臉識別、語音合成、自動駕駛、服務機器人等應用進展較快領域支持地方開展立法試點,為國家層面的立法積累實踐經驗。”

倫理治理工作正穩步推進

李萌在座談會上介紹,目前我國人工智能倫理治理工作正穩步推進。

“黨中央高度重視人工智能倫理法律問題,《新一代人工智能發展規劃》專門對人工智能倫理法律作出部署。科技部會同相關部門共同落實人工智能發展規劃,各項工作取得積極進展。”李萌表示。

他介紹了圍繞推動人工智能倫理治理重點開展的相關工作。

比如,建立統籌推進機制,成立由15個部門構成的人工智能規劃推進辦公室,統籌推進包括人工智能治理在內的任務落實;起草發佈治理原則,提出和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理等八項原則;啓動實施社會實驗,開展長週期跨學科的人工智能綜合影響社會實驗等。

不僅如此,還積極拓展交流合作空間,組織推薦專家參加聯合國教科文組織的人工智能倫理標準制定。在加強倫理法律問題研究方面,李萌介紹,在科技創新2030—“新一代人工智能”重大項目中,組織開展了人工智能倫理和立法問題研究。