外媒:人工智慧已能就自身錯誤發出警告

外媒稱,人工智慧正在飛速發展,以至於該領域的最新技術成果已經幫助創建出了知道何時不能信任人工智慧的神經網路。

據阿根廷布宜諾斯艾利斯經濟新聞網11月26日報道,這種深度學習神經網路旨在模仿人類的大腦,並能夠同時權衡不同的因素,從而以人類分析無法達到的水平,在資料基礎之上確定具體模式。

報道稱,這一點之所以非常重要,是因為當今,人工智慧被用於直接影響人類生活的各個領域,例如汽車、飛機的自動駕駛或完整的運輸系統,此外還用於醫學診斷和外科手術。

儘管人工智慧一時還不會像電影《我,機器人》中的那樣具有毀滅性,也不會像電視劇《黑鏡》中那些臭名昭著的狗那樣,但能夠自主行動的機器已經在我們的日常生活中出現了,而且它們的預判可能會變得更加準確,甚至知道它們自身何時會發生故障。這對於改善其執行狀況以及避免發生科幻小說中的核災難來說,是至關重要的。

報道稱,麻省理工學院計算機科學與人工智慧實驗室(CSAIL)的計算機科學家亞歷山大·阿米尼說:“我們不僅需要生成高效能模型的能力,而且還需要了解何時不能信任這些模型的能力。”

阿米尼與另一位計算機科學家達妮埃拉·魯斯一起加入了一個研究團隊,致力於推動這些神經網路的發展,以期在人工智慧領域內取得前所未有的進步。

他們的目標是讓人工智慧對自身的可靠性產生自我意識,他們稱之為“深度證據迴歸”。

報道指出,這種新神經網路代表了迄今為止開發的類似技術的最新進步,因為它的執行速度更快,對計算的需求更低。該神經網路的執行可以在設定信任度的情況下與人類決策同步完成。

“這個想法很重要,並且總體上來說是可用的。它可用於評估基於自主學習模型的產品。透過評估模型的不確定性,我們還可以瞭解該模型預計會出現多少錯誤,以及還需要哪些資料來改善該模型,”魯斯介紹說。

該研究團隊透過將其與具有不同準確性水平的自動駕駛汽車進行比較來說明這一點。例如,在決定是否透過路口還是等待的情況下,神經網路對其預判缺乏信心。該網路的能力甚至還包含有關如何改善資料以做出更準確預判的提示。

阿米尼說:“在影響人類安全並造成生命危險的情況下,我們開始看到越來越多的神經網路模型走出研究實驗室,進入現實世界。”(編譯/田策)

來源:參考訊息網

版權宣告:本文源自 網路, 於,由 楠木軒 整理釋出,共 910 字。

轉載請註明: 外媒:人工智慧已能就自身錯誤發出警告 - 楠木軒