美軍啟用人工智慧倫理原則

據美“情報與偵察”網站5月4日報道,五角大樓已正式公佈人工智慧五大倫理原則,即負責、公平、可追蹤、可靠和可控。無論作戰還是非作戰人工智慧系統,均須遵守上述原則,否則美國防部將不予部署。

“負責”,指開發者和使用者須對人工智慧系統的開發、部署、使用和造成的結果負責。根據官方指導檔案,在開發階段,開發者需為人工智慧系統確定合理的活動界限。以自動駕駛系統為例,必須確定其劇烈運動的上下界限,以免在使用時導致事故發生。在部署階段,使用者應為人工智慧系統建立清晰的指揮鏈條,並明確操作者、指揮者的身份,避免發生混亂。

“公平”,指五角大樓應最大限度減少人為偏差對人工智慧系統的影響。眾所周知,機器學習的過程就是對人工輸入資料的分析過程。如果輸入者心存偏差,所輸入資料必然不全面,人工智慧系統就失去了公平的學習環境。比如,人臉識別系統要提高識別率,需要對大量面部影像進行對比和判斷,如果被輸入的面部影像只侷限於某一性別或某一種族,勢必導致人臉識別系統的準確率下降。

“可追蹤”,指人工智慧系統在其使用週期內的透明性,即從開發、部署到使用的各個環節都要留下準確的記錄,比如研發手段、資料來源、設計程式、使用檔案等。技術專家或使用者可對此進行研究。一旦發生故障,他們可從研發資料庫或文件查詢源頭,及時、快速予以排除,避免人工智慧系統失控。

“可靠”,五角大樓給出的定義是“安全、穩定和有效”。具體而言,人工智慧系統的可靠性建立在“可追蹤性”基礎上,即當系統出現不穩定現象或效率下降時,技術人員應對系統資料庫和感測器記錄進行回溯追蹤,找出與正常狀態的不同之處並進行處理。比如,當自動駕駛系統出現不安全或不穩定苗頭時,技術人員須第一時間調閱開發者為其規定的活動界限並與實際界限對比,對變化因素進行及時糾正。正常情況下,可靠的人工智慧系統會在無法做出判斷的情況下與操作人員或後方資料庫進行溝通,以確定最終結果。

“可控”,指人工智慧系統探測和避免意外發生的能力。五角大樓認為,可控的人工智慧系統應具備足夠的抗干擾能力,並在發生意外或其他針對人類的惡意行為時,透過自動或手動方式停止工作。這種能力在設計階段就要嵌入人工智慧系統。比如,一部自動駕駛車輛本不需要方向盤,但設計人員仍會安裝方向盤,就是為確保發生意外時乘坐者能夠切換為手動駕駛。

版權宣告:本文源自 網路, 於,由 楠木軒 整理釋出,共 951 字。

轉載請註明: 美軍啟用人工智慧倫理原則 - 楠木軒