金磊 楊淨 發自 凹非寺量子位 報道 | 公眾號 QbitAI
當互聯網大佬們集體唱歌,會擦出怎樣的火花?
現在,火爆抖音的AI特效,一鍵就可以實現夢幻聯動。
瞧!馬雲、馬化騰、馬斯克等大佬們,正在集體演唱神曲《螞蟻呀嘿》。
不光演唱,表情也是十分的賣力(傲嬌的小眼神很是傳神啊)。
完全看不出是被迫的樣子呢。(手動狗頭)
效果之魔性,引得網友直呼:
短短的幾秒,要用一生去治癒…..
還有網友表示,最近是咋滴啦?!一打開抖音,好像捅了螞蟻窩。
温馨提示:聽音樂讀本文,效果更佳哦!
Dragostea Din TeiO-Zone - Disco-Zone (+3 Bonus)
大家一起《螞蟻呀嘿》!
這款AI特效,只需要一張照片,就可以火速讓anyone“螞蟻呀嘿”。
正因為這麼便捷,果不其然,馬上成為了抖音網友們的“新寵”。
各路名人開始搞起!
首先登場的是四大天王:劉德華、張學友、郭富城和黎明!
或許天王們太久沒有同框過了,網友們用這種方式將他們“召集”在一起,也是別有一番風味。
“永不過時”的《還珠格格》,也趕上了這趟潮流列車。
王者峽谷裏的英雄們,網友們也是沒有放過。
不得不感慨二次元的顏值,不論怎麼惡搞、變形,還是能保持俊美的樣子(程咬金除外)。
除了上面這種九宮格模式外,高端的操作還可以實現集體同框。
於是,“愛玩”的德雲社就以這種方式亮相了。
不知道是不是因為特效太過逼真、還是脖子有點短(不是),竟然還有人以為是真的。
第一眼我以為是特效。
當然,此等名場面,怎麼少得了量子位本位!集體《螞蟻呀嘿》表演,隆重登場!
OK,各種效果、各種玩法已經展示完畢。
接下來,是時候上手實操了!
如何製作專屬的“螞蟻呀嘿”?
首先需要準備三個工具:
Avatarify、任意一款加速器APP、剪映(可有可無)。
第一步,打開加速器,啓動加速模式。
第二步,打開這款軟件Avatarify,選擇一張照片即可進入選擇特效頁面(臉正一點食用效果更佳)。
然後向下拉,找到布拉德·皮特的特效即可。
是不是很簡單?
不過有點遺憾的是,暫時只有蘋果手機才OK(安卓用户淚目)。
一個人演唱“螞蟻呀嘿”的效果就已經實現了。
如果想要多人演唱、九宮格那樣式兒的,那就需要剪映來加持了,這裏就不詳細展開了。
當然,這款軟件除了《螞蟻呀嘿》之外,還有很多模板可選。
例如,李開復老師便友情上演了一首《Only You》。
隨着這波潮流,Avatarify及其他相關軟件,已經超過微信、拼多多、抖音的下載量,登頂蘋果App Store免費榜“前三甲”!
什麼原理?
那麼問題來了。
AI,是如何搞定各位大佬來唱歌的呢?
讓一張照片動起來,人臉跟着音樂一起擠眉弄眼,需要一個叫做一階運動模型(First Order Motion Model)來搞定。
技術原理借鑑了去年意大利特倫託大學的一項研究,入選了NIPS 2019。
當時的例子是這樣的。
以川建國同志為參考,來自《冰與火之歌》的演員照片瞬間做到了神同步。
不光是臉動,一個模特換pose、奔騰的馬也都不在話下。
模型框架主要由2部分構成,運動估計模塊和圖像生成模塊。
運動估計模塊的目的,是預測一個密集的運動場。研究人員假設存在一個抽象的參考框架,並且獨立估計兩個變換,分別是「從參考到源」和「從參考到驅動」,這樣就能夠獨立處理源幀和驅動幀。
而這兩種變換,通過使用以自監督方式學習的關鍵點來獲得。利用局部仿射變換對每個關鍵點附近的運動進行建模。
隨後,密集運動網絡結合局部近似得到密集運動場。
這個網絡還能輸出遮擋的mask,指示哪些圖像的驅動部分可以通過源圖像的扭曲(warping)來重建,哪些部分應該被繪製(根據上下文推斷)。
在生成模塊按照驅動視頻中,提供的源對象移動的圖像進行渲染。
此處,研究人員還使用一個生成器網絡,根據密集的運動對源圖像進行扭曲,並對源圖像中被遮擋的圖像部分進行着色。
訓練階段,研究人員採用了大量的視頻序列集合來訓練模型,這當中包含了相同類別的對象。
隨後在測試階段,研究人員將模型應用於由源圖像和驅動視頻的每一幀組成的對,並執行源對象的圖像動畫。
最終在質量評估中,這一方法在所有基準上都明顯優於當前先進技術。
此前類似研究也很火爆
這種AI特效能夠如此火爆,甚至“破圈”,讓大家玩得不亦樂乎,最主要的原因是方便——不需要任何編程知識,便可完成。
但在此之前,其實這種AI特效在圈裏也是有火過,但都需要一定的計算機能力才可以實現。
比如,一張名人照片和一個你説話的視頻,就可以讓夢露學你説話。
還有,印度程序員開發的實時動畫特效。你一動,蒙娜麗莎跟着你一起動~
那麼現在,你被“螞蟻呀嘿”洗腦了嗎?
快去體驗下吧。
參考鏈接:
[1] https://avatarify.ai/[2] https://github.com/AliaksandrSiarohin/first-order-model