少樣本學習新突破!創新奇智入選ECCV 2020 Oral論文

近日,創新奇智有關少樣本學習(Few-shot Learning)的研究論文《Prototype Rectification for Few-Shot Learning》被全球計算機視覺頂會ECCV 2020接收為Oral論文,入選率僅2%。

ECCV全稱為European Conference on Computer Vision(歐洲計算機視覺國際會議),與ICCV和CVPR合稱為全球計算機視覺三大頂級會議,每兩年舉辦一次。據大會官方介紹,本屆會議共收到5025份有效投稿,共接收1361篇,錄取率為27%,其中1361篇接收論文裡面,有104篇Oral以及161篇 Spotlight,分別佔比2%和5%,堪稱史上最難ECCV。

創新奇智CTO張發恩表示:“當前的深度學習技術對資料具有極大依賴性,如何減小資料依賴,利用較少的資料取得理想的識別效果成為當下亟待突破的技術難點。少樣本學習旨在從已有類別的資料中學習先驗知識,然後利用極少的標註資料完成對新類別的識別,打破了樣本資料量的制約,在傳統制造業等樣本普遍缺失的領域具有實用價值,有助於推動AI落地。”

創新奇智本次發表的論文指出,少樣本學習的瓶頸在於資料稀缺引起的偏差,主要包括類內偏差和跨類偏差,並提出相應方法有針對性地減小兩項偏差,該思路經過嚴格的理論證明其合理性,並透過大量實驗證明了方法的有效性,在少樣本學習通用的資料集中達到了最優的結果。

 

以下為論文解讀:

少樣本學習新突破!創新奇智入選ECCV 2020 Oral論文

(論文初版arXiv地址為:https://arxiv.org/abs/1911.10713 。 後續Camera Ready版本將於近日更新,補充了更多資料集上的表現。

1、概述

少樣本學習(Few-shot learning)旨在從大量有標註資料的類別中學習到普遍的規律,利用學習到的知識,能夠使用少量的有標註資料(如一張或五張)完成對新類別的識別。原型網路是少樣本學習中一類非常有效的方法,其針對不同的類別提取出對應的類原型,然後根據樣本與類原型之間的距離進行分類。由於新類別的樣本數量極少,原型網路所計算出的類原型存在一定的偏差。本文指出了制約原型網路效果的兩個關鍵因素:類內偏差和跨類偏差,並且提出利用偽標籤的方法減小類內偏差,利用特徵偏移的方法減小跨類偏差,進一步透過理論分析指出原型網路準確率的理論下界,證明偽標籤的方法可以提高理論下界從而提高整體準確率,最後,實驗結果表明,本文的方法在miniImageNet和tieredImageNet上達到了最高水平的結果。

主要貢獻

  • 本文指出了原型網路在少樣本學習中的兩項制約因素:類內偏差(intra-class bias)及跨類偏差(cross-class bias)。

  • 本文利用偽標籤和特徵偏移,進行原型校正和減小偏差,簡單有效地提高了少樣本分類的表現。

  • 本文分析了理論下界與樣本數量之間的關係,從而驗證了所提方法的合理性,並給出了偏移量的推導過程。

  • 本文所提出的方法在通用的少樣本資料集miniImageNet和tieredImageNet上達到了最優的結果。

2、方法

少樣本學習新突破!創新奇智入選ECCV 2020 Oral論文

2.1 基於餘弦相似度的原型網路(CSPN)

本文利用基於餘弦相似度的原型網路(Cosine Similarity Based Prototypical Network,CSPN)得到少樣本類別(few-shot class)的基礎類原型。

首先在基礎類別(base class)上訓練特徵提取器和餘弦分類器,餘弦分類器定義如下:

少樣本學習新突破!創新奇智入選ECCV 2020 Oral論文

其中Fθ是特徵提取器,W 為可學習權重,τ為溫度引數。在模型訓練階段使用如下損失函式:

少樣本學習新突破!創新奇智入選ECCV 2020 Oral論文

預訓練結束後,使用下式得到few-shot class的基礎類原型:

少樣本學習新突破!創新奇智入選ECCV 2020 Oral論文

2.2 原型校正中的偏差消除(Bias Diminishing for Prototype Rectification)

在樣本較少的情況下,比如K=1或K=5,計算所得基礎類原型與理想的類原型之間存在一定偏差,減小偏差可以提高類原型的表徵能力,從而提高分類準確率,本文指出如下兩種偏差以及對應的減小偏差的方法。

類內偏差(intra-class bias)

少樣本學習新突破!創新奇智入選ECCV 2020 Oral論文

即真實類原型(第一項)和使用少量樣本計算的類原型(第二項)之間的偏差。真實的類原型往往是不可得的,可得的是利用少量有標註的資料集(support set)計算得到的類原型,為了減小這兩項之間的偏差,本文提出利用無標註的資料集(query set)重新計算類原型。首先透過計算query set中的樣本與基礎類原型之間的餘弦相似度獲得query sample的偽標籤,然後將top-z confident的query sample加入support set中,並根據下式重新計算,得到修正後的類原型P'n:

少樣本學習新突破!創新奇智入選ECCV 2020 Oral論文

跨類偏差(cross-class bias)

少樣本學習新突破!創新奇智入選ECCV 2020 Oral論文

即整個有標註資料集support set和無標註資料集query set之間的偏差。為了修正跨類偏差,本文在無標註資料中加入偏移量ξ, ξ的具體計算方式如下:

少樣本學習新突破!創新奇智入選ECCV 2020 Oral論文

2.3 理論推導Theoretical Analysis

本文透過以下理論推導,解釋了上述方法的合理性以及該方法是如何提高少樣本分類表現的。

理論下界

在原型網路中,假設最終的準確率與類原型和樣本間餘弦相似度之間呈正相關,即最終最佳化目標可以表示為:

少樣本學習新突破!創新奇智入選ECCV 2020 Oral論文

再結合使用一階近似、柯西施瓦茨不等式等方法進行推導驗證,可以得到模型的理論下界:

少樣本學習新突破!創新奇智入選ECCV 2020 Oral論文

可以看出模型最終效果和樣本數之間呈正相關,因此可以透過引入無標籤樣本來提高模型理論下界,即增大T 可以提高模型表現。

有關偏移量ξ的推導過程詳見論文,在這裡就不敷述了。

3、實驗

3.1實驗結果

本文在少樣本學習的兩個公開資料集 (miniImageNet, tieredImageNet) 上進行了實驗,與其他方法相比,本文提出的BD-CSPN在1-shot及5-shot的設定下均達到了最佳效果。

少樣本學習新突破!創新奇智入選ECCV 2020 Oral論文

 

少樣本學習新突破!創新奇智入選ECCV 2020 Oral論文

3.2消融實驗

本文透過消融實驗進一步驗證了模型每一部分的有效性。

少樣本學習新突破!創新奇智入選ECCV 2020 Oral論文

表中從上到下分別為:不使用原型修正的方法,單獨使用跨類偏差修正,單獨使用類內偏差修正以及同時使用類內偏差和跨類偏差修正的結果,可以看到減小偏差對最終結果有明顯的提升。

少樣本學習新突破!創新奇智入選ECCV 2020 Oral論文

本文進一步分析了原型校正中無標註樣本的樣本數量對於最終結果的影響,如圖2(a-b)所示,隨著無標註樣本的增多最終效果有持續的提升,圖2(c)中虛線為透過計算所得到的理論下界,可以看到本文的實驗結果和理論相符。

少樣本學習新突破!創新奇智入選ECCV 2020 Oral論文

本文采用不同的網路結構作為特徵提取器,驗證了原型校正的方法在不同網路結構下均有明顯提升。

總結

本文提出一種簡單有效的少樣本學習方法,透過減小類內偏差和跨類偏差進行原型校正,從而顯著提高少樣本分類結果,並且給出理論推導證明本文所提方法可以提高理論下界,最終透過實驗表明本方法在通用資料集中達到了最優結果,論文被ECCV 2020 接收為Oral。本文中提出的演算法已經在創新奇智的實際場景中落地應用,可以從海量非結構化資料中根據極少數種子資料(1張至5張)挖掘出所需要的同類資料,可以極大的提升資料收集速度和準確率,降低成本。


雷鋒網雷鋒網

版權宣告:本文源自 網路, 於,由 楠木軒 整理釋出,共 2886 字。

轉載請註明: 少樣本學習新突破!創新奇智入選ECCV 2020 Oral論文 - 楠木軒