歐洲科學院院士郭毅可:未來AI不是靠錢堆出來的,需要用東方文明特有的智慧

歐洲科學院院士郭毅可:未來AI不是靠錢堆出來的,需要用東方文明特有的智慧

人工智能(AI)正以前所未有的深度和廣度向人類社會滲透,曾經存在於科幻小説和電影中的“人機二元世界”已在逼近真實。立足當下,未來人工智能將何去何從?在今天由中國科學院上海高等研究院主辦的“智能無界,圖新未來”上海人工智能大會上,英國皇家工程院院士、歐洲科學院院士、英國帝國理工學院數據科學研究所所長郭毅可教授在線上主旨報告中提出,對於未來的人工智能,“我們不求機器做得多,但求機器做得對。”

以技術創新引導AI遵循人類社會倫理

隨着AI的進化和發展,相關的隱私和安全問題受到了人類社會的空前關注。

當大數據為我們的衣食住行帶來種種便利時,人們也不禁擔心數據背後的個人隱私被盜取和利用。微眾銀行首席人工智能官楊強教授在報告中介紹了一種新算法,可以只在個人手機上進行此類隱私數據的計算,最後輸出一個系統所需要的結果,這樣可以最大限度保護個人隱私。

歐洲科學院院士郭毅可:未來AI不是靠錢堆出來的,需要用東方文明特有的智慧

▲楊強教授在論壇上做報告

“當大量數據流通起來之後,大家開始思考一個更為本質的問題:為何要交換數據?”楊強認為,其實最終人們需要從數據中得到的是價值,由此不難想見,完全可以讓數據留在本地,轉而通過一定的技術體系輸出價值。如果這一理念得以實現,將有望產生新一代的數據市場。

目前,專家已經在進行各種嘗試。比如,針對深度信息泄露,美國麻省理工學院的韓松教授最近建立了一個新的模型,這種模型可以讓對方猜不出信息提供者的隱私。這些嘗試實際上是在引導AI以遵循人類社會倫理的姿態與人類社會相融合。

用東方文明特有的智慧來包容、研究和應用AI

郭毅可認為,作為人工智能發展的基本要素之一,社會倫理將是未來AI發展必須優先思考的根本問題,“我們不求機器做得多,但求機器做得對。”比起“做得多”,“做得對”更困難,但也更重要。

近年來,關於AI“黑箱”的質疑不絕於耳:機器協助審判是否存在偏見?新聞生成算法是否存在選擇性?算法定價是否涉嫌操縱市場?AI的交友推薦究竟增加還是減少了社會關係的同質性?當人們還沒能弄清這些問題時,AI已經滲透到社會生活的方方面面。

由此可見,在讓機器“做得更多”之前,先要確保它“做得對”。郭毅可援引美國加州大學伯克利分校計算機學教授斯圖亞特·羅素“可證明有益人工智能的三大原則”——利他主義、謙遜法則、學習能力,來説明AI前沿學者們的努力,“這些研究不是技術問題,也不僅僅是科學問題,而是一個哲學問題”。

比如,如何判斷機器做得對不對,顯然不能簡單用效用最大、最優來評價。“讓機器擁有值得信任的素質,使智能系統有能力向人類解釋其行為,都是發展未來人工智能必須考慮的因素。”郭毅可表示,人機二元世界的到來指日可待,“我們不要神化它,也不必害怕它,但不可輕視它,更不能濫用它”。因為AI就是實實在在的算法,是我們不可避免要走向的未來,它會改變我們的社會,“實現這樣一個未來,並不是靠錢堆出來的,而要用東方文明特有的智慧來包容、研究和應用它,使之成為人類社會新的存在”。


作者:許琦敏
圖片:主辦方提供
責任編輯:任荃

*文匯獨家稿件,轉載請註明出處。

版權聲明:本文源自 網絡, 於,由 楠木軒 整理發佈,共 1238 字。

轉載請註明: 歐洲科學院院士郭毅可:未來AI不是靠錢堆出來的,需要用東方文明特有的智慧 - 楠木軒