參與:魔王、張倩
還記得那個用論文外觀判斷論文質量的研究嗎?在那份研究中,身為頂會領域主席的作者 Jia-Bin Huang 被自己開發的系統拒了稿,引來了大批社區成員的圍觀。最近,他和合作者提出了一項新的計算機視覺方法,可以讓廚房「水漫金山」,讓天空下起「綵球雨」……
不止如此,想要貓主子不嫌棄自己拍的醜醜視頻,這個方法也能拯救你!
這項研究由來自華盛頓大學、弗吉尼亞理工學院和 Facebook 的研究者合作完成。
其中第一作者羅璇現為華盛頓大學現實實驗室博士,她本科畢業於上海交通大學,導師為盧宏濤教授,研究方向為立體匹配,曾在新加坡國立大學跟隨顏水成鑽研深度學習。
第二作者 Jia-Bin Huang 為弗吉尼亞理工學院助理教授,研究方向為計算機視覺、計算機圖形學和機器學習。曾擔任 WACV 2018、CVPR 2019、ICCV 2019、BMVC 2019 和 BMVC 2020 會議的領域主席。
這項研究主要探究瞭如何生成準確度和幾何一致性更高的視頻重建結果,目前該論文已被計算機圖形學頂級會議 SIGGRAPH 2020 接收,代碼也將在未來開源。
論文地址:https://arxiv.org/pdf/2004.15021.pdf
項目網站:https://roxanneluo.github.io/Consistent-Video-Depth-Estimation/
用手機拍攝的視頻可以做 3D 重建嗎?
基於圖像序列進行 3D 場景重建在計算機視覺社區中已有幾十年的研究歷史。毋庸置疑,最簡單的 3D 重建捕捉方式就是利用智能手機手持拍攝,因為這類相機很常見,還可以快速覆蓋很大的空間。如果可以利用手機拍攝的視頻實現非常密集、準確的重建,這類技術將變得非常有用。但要做到這一點困難重重。
除了重建系統都要處理的典型問題,如紋理單一區域、重複圖案和遮擋,基於手機拍攝的視頻實現重建還面臨着來自視頻本身的額外挑戰,如較高的噪聲水平、抖動和動態模糊、捲簾快門變形,以及移動對象(如人)的出現。
出於這些原因,現有的方法通常會遇到很多問題,如深度圖中有缺失區域(見下圖 b),幾何和閃爍深度不一致(見下圖 c)。
如何解決?
這篇論文提出了一種新的 3D 重建算法,可以重建單目視頻中所有像素的密集、幾何一致性深度。他們利用傳統的 structure-from-motion(SfM)方法來重建像素的幾何約束。
與傳統重建方法使用特殊先驗的做法不同,該研究使用的是基於學習的先驗,即為單圖像深度估計訓練的卷積神經網絡。在測試時,他們微調了這個網絡,來滿足特定輸入視頻的幾何約束,同時保留其為視頻中受約束較少的部分合成合理深度細節的能力。
定量驗證結果表明,與之前的單目重建方法相比,該方法可以達到更高的準確度及幾何一致性。從視覺上看,本文提出的方法也更加穩定。該方法可以處理具有中等程度晃動的手持拍攝視頻,可以應用到場景重建以及基於視頻的高級視覺效果。
但該方法的侷限在於算力消耗太大,因此暫時無法用在實時的 AR 場景中。不過,論文作者也表示,會將速度的提升作為下一步的研究目標。
方法
圖 2:方法概覽。
如上圖 2 所示,該方法以單目視頻作為輸入,目的是估計相機位姿以及每個視頻幀的深度和幾何一致性深度圖。「幾何一致性」不僅意味着深度圖不會隨着時間的推移而閃爍(flicker),還意味着所有的深度圖都是彼此一致的。也就是説,我們可以利用像素深度和相機位姿在幀與幀之間準確地投影這些像素。例如,一個靜態點的所有觀察結果都應該映射到世界座標系中一個單獨的普通 3D 點上,且沒有漂移(drift)。
隨意捕獲的輸入視頻為深度重建增加了一些挑戰。由於它們大多是手持拍攝的,相機也沒有經過標定,因此經常出現動態模糊、捲簾快門變形等問題。簡陋的光照條件也會造成額外的噪聲及模糊。而且,這些視頻通常包含動態移動的對象(如人或動物),而很多重建系統是專為靜態場景設計的,這就形成了一個大的衝突。
在有問題的場景部分,傳統的重建方法通常會生成「孔洞」(如果強制返回結果,會估計出噪聲非常大的深度)。但在這些方法對返回結果比較有信心的部分,它們通常會返回非常準確且一致的結果,因為它們嚴重依賴幾何約束。
近期基於學習的方法彌補了這些缺陷,它們利用一種數據驅動的強大先驗來預測輸入圖像的合理深度。然而,對每一幀單獨應用這些方法會導致幾何不一致和短暫的閃爍。
本文作者提出的方法結合了以上兩種方法的優點。研究者利用了幾種現成的單圖像深度估計網絡,這些經過訓練的網絡可以合成一般彩色圖像的合理深度。他們利用從視頻中藉助傳統重建方法提取的幾何約束來微調網絡。因此,該網絡學會在特定視頻上生成具有幾何一致性的深度。
該方法包括以下兩個步驟:預處理和測試時訓練。
預處理
預處理是從視頻幀中提取幾何約束的基礎。
該研究首先使用開源軟件 COLMAP 執行傳統的 SfM 重建流程。
為了改善對動態運動視頻的姿勢估計,研究者使用 Mask R-CNN 來獲取人物分割結果,並移除這些區域以獲得更可靠的關鍵點提取和匹配結果,因為視頻中的動態運動主要來自於人物。這一步可以提供準確的內部和外部相機參數,以及稀疏點雲重建。
研究者還利用光流估計了視頻幀對之間的稠密對應關係。相機標定(camera calibration)和稠密對應共同構成了幾何損失。
測試時訓練
在這一階段,研究者微調預訓練深度估計網絡,使其生成對特定輸入視頻更具幾何一致性的深度。
在每次迭代中,該方法使用當前的網絡參數採樣一對視頻幀並估計其深度圖。然後對比稠密一致性和利用當前深度估計結果得到的重投影,從而驗證深度圖是否具備幾何一致性。
最後,研究者評估了兩種幾何損失:空間損失和視差損失,並將誤差進行反向傳播,以更新網絡權重(權重對所有幀共享)。
用這種方式迭代地採樣很多對視頻幀,損失得到降低,網絡學會估計具備幾何一致性的深度,同時能夠在約束較少的部分提供合理的正則化。
該方法得到的改進通常很大,最終深度圖具備幾何一致性,與整個視頻的時序一致,且能夠準確勾勒出清晰的遮蔽邊界,即使是對於運動物體也是如此。有了計算得到的深度之後,研究者就可以為遮擋效應(occlusion effect)提供合適的深度邊界,讓真實場景的幾何與虛擬事物進行交互。
該方法效果如何?
與其他方法的對比結果
研究者對比了當前最優的深度估計算法,這些算法分為三個類別:
傳統的多視角立體視覺系統:COLMAP [Schonberger and Frahm 2016];
單幅圖像深度估計:Mannequin Challenge [Li et al. 2019] 和 MiDaS-v2 [Ranftl et al. 2019];
基於視頻的深度估計:WSVD [Wang et al. 2019a](兩幀)和 NeuralRGBD [Liu et al. 2019](多幀)。
量化對比結果和視覺對比結果見下圖:
圖 4:該研究提出的方法與 SOTA 方法的量化對比結果。
圖 5:與 SOTA 方法的視覺對比結果。
該研究提出的方法可以從手機攝像頭隨意拍攝的視頻中生成具備幾何一致性且沒有顫動的深度估計結果。
控制變量研究
表 2:控制變量研究。該量化評估結果表明該方法的設計重要性。
圖 6:該方法的設計對輸出結果的貢獻。
圖 7:使用長期時間約束和視差損失的效果分析。
在公開基準上的量化結果對比
表 3:在 ScanNet 數據集上的量化對比結果。
表 4:在 TUM-RGBD 數據集上的量化對比結果。
表 5:在 KITTI 基準數據集上的量化對比結果。
方法侷限性
那麼該方法有沒有侷限性呢?