曠視印奇:理性關注堅持行動 AI治理需要知行合一

  4月30日,上海市科學學研究所舉辦了《全球人工智能治理年度觀察2019》英文版全球發佈會。該報告由上海市科學學研究所團隊牽頭,聯合國際合作伙伴共同完成,以人類命運共同體理念,通過全球作者、全球編輯和全球讀者推進全球溝通與合作。其中,中國人工智能企業曠視聯合創始人兼CEO印奇作為國家新一代人工智能治理委員會委員和企業代表,在該報告中發表了題為《直麪人工智能治理挑戰,身為一家中國企業的思考和探索》的署名文章。

曠視印奇:理性關注堅持行動 AI治理需要知行合一

  圖:曠視印奇在《全球人工智能治理年度觀察2019》英文版中發表署名文章

  據瞭解,《全球人工智能治理年度觀察2019》英文版是全球首份由全球業內頂級專家共同參與撰寫的人工智能治理報告,也是首份由我國智庫發起全球參與的人工智能治理報告。包括清華大學戰略與安全研究中心主任傅瑩女士、圖靈獎獲得者John Hopcroft教授、諾貝爾和平獎獲得者Irakli Beridze先生、歐洲議會議員Eva Kaili女士、AAAI2021主席楊強教授和AAAI2020主席Francesca Rossi女士等50位來自當前全球人工智能治理的研究重鎮或重要組織機構的專家撰稿參與。

  人工智能是20世紀以來最為深刻、最有影響的技術革命和社會進步。它在深度挑戰傳統生產方式和經濟關係的同時,也在廣泛改變着現代人的日常行為和社會生活。印奇在文章中表示,作為人工智能時代的“馭火之術”,AI治理需要被更廣泛的認知和踐行,需要知行合一。同時,印奇認為,把人工智能治理作為重點工作來抓已經是各方的普遍共識,這不僅是政府及相關機構的責任,企業作為AI技術研發與應用的主要力量和一線實踐者更應當有所作為。因此,印奇也在文中呼籲社會各界,共同以長期主義的態度,直面AI治理挑戰,一起用人工智能造福大眾。

  事實上,曠視早已基於自身實踐,在AI治理方面進行了探索。如在2019年,曠視就率先公佈了《人工智能應用準則》,從正當性、人的監督、技術可靠性和安全性、公平和多樣性、問責和及時修正、數據安全與隱私保護六個維度,對人工智能正確有序發展做出明確規範。希望從人工智能企業自身的角度,規範、引導人工智能技術正確運用和健康發展。同時,曠視還成立了由創始人、核心高管以及外部專家組成的AI道德委員會,希望以此踐行科技向善,與各方探討AI治理相關的共性問題。

  在今年1月,曠視人工智能道德委員會新增下設AI治理研究院,回溯了全球十大AI治理事件,希望就全球人工智能治理的共性問題,與社會各界、專家學者們展開討論研究,共同推動人工智能健康生態的構建。不僅如此,曠視還聯合北京智源人工智能研究院,針對數據安全和隱私保護等AI治理重點議題開展研究,預期將形成一套面向數據全生命週期保護,針對採集、傳輸、存儲和使用四個環節的AI基礎平台,並建立一套相關的AI數據安全與隱私保護機制。同時,曠視承建圖像感知國家新一代人工智能開放創新平台,希望通過平台的開放合作把AI治理的研究成果和企業應用實踐經驗與產業界分享。

  基於曠視自身的AI治理實踐經驗,印奇還在文中總結了企業有效推動AI治理落地的經驗,希望共同推動AI治理進程。他指出,第一,企業需要對AI治理保持理性的關注,同時展開具有建設性的討論;第二,企業需要對重點議題進行深度的研究;第三,企業需要固定的組織來監督協同,確保堅持不懈的行動。

版權聲明:本文源自 網絡, 於,由 楠木軒 整理發佈,共 1395 字。

轉載請註明: 曠視印奇:理性關注堅持行動 AI治理需要知行合一 - 楠木軒