2021年,神經科學AI有這幾大趨勢
新的一年正向我們招手。延續優良的革命傳統,又到了發佈最新一期AI專家預測報告的時候。各位受訪專家將結合自己的所感所知、實驗室發現以及企業動態為我們預測新一年中人工智能技術的發展方向。
閒言少敍,我們馬上進入本期預測主題。
Arash Rahnama博士, Modzy公司應用AI研究負責人:
正如AI系統的進步向前飛速發展一樣,敵對方欺騙AI模型以誘導其做出錯誤預測的能力也在不斷增強。深度神經網絡極易受到其輸入素材(對抗AI)所施加的細微對抗因素的干擾,而且人眼幾乎無法感知到素材中的異常。這類攻擊無疑給AI模型在關鍵任務環境中的成功部署構成了巨大風險。按照目前的發展速度,除非組織立即在AI安全工作中建立起主動對抗防禦體系,否則2021年很有可能成為重大AI安全事件頻發的元年。
2021年也將成為可解釋性全面實現的一年。隨着組織不斷集成AI方案,可解釋性將成為機器學習管道中建立用户信任的核心前提。只有切實理解機器學習根據真實數據做出判斷的依據,才能在人與模型之間建立起可靠的信任關係。反之,我們將無法對基於AI的決策產生信心。總而言之,可解釋性對於AI應用邁入下一階段將起到至關重要的作用。
可解釋性與之前提到的對抗性攻擊訓練方法相結合,同樣會在人工智能領域掀起一場新的革命。可解釋性將幫助我們瞭解哪些數據影響到模型預測,特別是偏差的產生原因——而這些信息將可被用於訓練出穩定性更強、可靠性更高、足以抵禦攻擊影響的健壯模型。這種關於模型運作原理的戰術性知識,將幫助我們在整體上提升模型質量並保障模型安全。AI科學家們將重新定義模型性能,其中涵蓋的不再只有預測準確性,同時也包含對不確定性環境變化的判斷偏差、穩健性以及通用能力等指標。
Kim Duffy博士, Vicon公司生命科學產品經理
僅着眼於未來一年,我們是很難對人工智能(AI)與機器學習(ML)的發展態勢做出準確預測。例如,在臨牀步態分析當中,研究人員着眼於患者的下肢運動以識別導致街及跑步障礙問題的根本原因。在這方面,AI與ML等技術的應用尚處於起步階段。Vicon公司在我們最近的《對人類運動的深入瞭解》報告中強調了這一點,並提到要真正利用這些方法在臨牀步態研究領域有所進步,至少還需要數年時間。有效的AI與ML方法需要輔以大量數據,才能配合適當的算法有效訓練出模型的趨勢與模式識別能力。
2021年,我們可能會看到更多臨牀醫師以及生物力學研究人員在數據分析層面採用AI與ML方法。過去幾年以來,我們已經看到步態研究領域出現了越來越多的AI與ML學術文獻。相信這股勢頭將在2021年得到延續,臨牀與研究小組之間將開展更多合作,藉此開發出有助於自動解釋步態數據的機器學習算法。最終,這些算法有望加快在臨牀層面提出干預措施的速度。
需要再次強調,機器學習的實際成果與收益不大可能在這麼短的時間內得以顯現。但在處理步態數據時,我們仍會越來越多地考慮並採用這些方法。例如,步態與姿態研究協會主席在最近探討量化運動分析的臨牀影響時就表示,有必要在大數據基礎之上使用機器學習等方法,藉此提升量化步態分析的研究效率,進而為臨牀決策提供更全面的解讀思路並減少主觀性因素。步態與臨牀運動分析學會也對AI/ML這一新興技術組合大加讚賞,這同樣會鼓勵更多臨牀研究團體將二者納入研究範疇。
Joe Petro, Nuance Communications公司CTO
2021年,AI技術將逐步退出炒作週期,未來AI解決方案的承諾、主張與發展願景將更多體現在可證明的進步以及可量化的產出當中。結果就是,將有更多組織將更多精力投入到解決特定問題之上,並切實構建解決方案以提供可轉化為實際投資回報的成果,而不再停留在PPT演示或者為了研發而研發的層面。在新一年中,誰能幫助客户切實解決亟待處理的複雜性挑戰,誰就能在AI/ML領域保持競爭優勢。這樣的客觀現實不僅會影響到科技企業的研發資金投入方向,也會影響到技術從業者規劃學習路線及職業生涯的實際思路。
隨着AI在技術領域的各個層面不斷滲透,人們也會越來越關注AI道德問題,並深刻理解AI產生意外偏見性結果時所暴露出的深刻內涵。消費者將更加了解自己的數字足跡,瞭解自己的個人數據如何被交互系統、行業及品牌所使用。這意味着與AI供應商合作的企業需要提高對客户數據處理方式審查工作的關注力度,同時明確是否存在利用個人數據牟利的第三方行為。
Max Versace博士, Neurala公司聯合創始人兼CEO
新的一年,我們將能夠以成本更低廉、體型更小巧的硬件部署AI解決方案。2020年是充滿動盪的一年,面對難以捉摸的經濟前景,之前的資本密集型複雜解決方案必然會朝着輕量化(也許只體現在軟件層面)低成本解決方案轉移。這種方式將幫助製造商在短期之內實現投資回報,且極大降低前期投入需求。這還將賦予企業更強大的供應鏈與客户需求波動性應對能力——面對新冠疫情的深遠影響,這種靈活性已經成為全球範圍內各個行業爭取生存的必要能力。
人類也將把注意力轉向人工智能“為什麼”會做出自己的判斷。在討論AI的可解釋性問題時,大家普遍比較關注偏見及其他道德問題。但隨着AI的發展,在結果變得更為精確、可靠的同時,人們也會更多質疑AI做出判斷的依據。我們不可能完全相信自己無法理解的自動系統。以製造場景為例,AI不僅需要準確判斷產品屬於“良品”或者“次品”,還要拿出令人信服的理由。只有這樣,人類操作員才會對此類系統建立起信心與信任感,最大程度與其建立合作。
新的一年,新的預測。一切展望的答案,都將在來年揭曉;準確與否,讓我們拭目以待。
最後,祝大家新年快樂!