外媒稱,人工智能正在飛速發展,以至於該領域的最新技術成果已經幫助創建出了知道何時不能信任人工智能的神經網絡。
據阿根廷布宜諾斯艾利斯經濟新聞網11月26日報道,這種深度學習神經網絡旨在模仿人類的大腦,並能夠同時權衡不同的因素,從而以人類分析無法達到的水平,在數據基礎之上確定具體模式。
報道稱,這一點之所以非常重要,是因為當今,人工智能被用於直接影響人類生活的各個領域,例如汽車、飛機的自動駕駛或完整的運輸系統,此外還用於醫學診斷和外科手術。
儘管人工智能一時還不會像電影《我,機器人》中的那樣具有毀滅性,也不會像電視劇《黑鏡》中那些臭名昭著的狗那樣,但能夠自主行動的機器已經在我們的日常生活中出現了,而且它們的預判可能會變得更加準確,甚至知道它們自身何時會發生故障。這對於改善其運行狀況以及避免發生科幻小説中的核災難來説,是至關重要的。
報道稱,麻省理工學院計算機科學與人工智能實驗室(CSAIL)的計算機科學家亞歷山大·阿米尼説:“我們不僅需要生成高性能模型的能力,而且還需要了解何時不能信任這些模型的能力。”
阿米尼與另一位計算機科學家達妮埃拉·魯斯一起加入了一個研究團隊,致力於推動這些神經網絡的發展,以期在人工智能領域內取得前所未有的進步。
他們的目標是讓人工智能對自身的可靠性產生自我意識,他們稱之為“深度證據迴歸”。
報道指出,這種新神經網絡代表了迄今為止開發的類似技術的最新進步,因為它的運行速度更快,對計算的需求更低。該神經網絡的運行可以在設定信任度的情況下與人類決策同步完成。
“這個想法很重要,並且總體上來説是可用的。它可用於評估基於自主學習模型的產品。通過評估模型的不確定性,我們還可以瞭解該模型預計會出現多少錯誤,以及還需要哪些數據來改善該模型,”魯斯介紹説。
該研究團隊通過將其與具有不同準確性水平的自動駕駛汽車進行比較來説明這一點。例如,在決定是否通過路口還是等待的情況下,神經網絡對其預判缺乏信心。該網絡的能力甚至還包含有關如何改善數據以做出更準確預判的提示。
阿米尼説:“在影響人類安全並造成生命危險的情況下,我們開始看到越來越多的神經網絡模型走出研究實驗室,進入現實世界。”(編譯/田策)
來源:參考消息網