從今天開始,ACL 2020正式進入主會議日程!首日全體大會分為三個部分:開幕式、主席演講、以及主題報告。
其中 Dan Jurafsky, Joyce Chai, Natalie Schluter, Joel Tetreault開幕式報告,介紹了這屆ACL 論文情況;Hinrich Schütze 在主席演講中,介紹了ACL 評審制度的改革:增加ACL Archives, 接收因為25% Cut制度而被拒的論文;主題演講則由Kathleen R. McKeown 帶來,報告題目為《Rewriting the Past: Assessing the Field through the Lens of Language Generation》。
1
ACL論文情況:投稿創歷史新高
ACL2020今年的論文提交數量創了新紀錄,ACL2019 共接收了2906篇論文,今年則收到了來自57個國家的3429篇論文,比2019年增長了18%。下圖展示了自2010年以來ACL的論文提交數量。
在短短10年中論文,ACL的論文提交數量增長了近3倍。
下圖展示了提交數量超過200篇論文的5個領域。機器學習領域幾乎每年都提交了近300篇論文,其它4個領域包括:對話和交互技術、機器翻譯、信息提取和NLP應用。
今年提交的論文涉及25個主題,其中包含4個新主題:第一,道德和NLP主題,包含評估了NLP應用程序在社會中普及時相關的倫理學假設和後果的論文;第二,對NLP模型的解釋和分析主題;第三,理論和形式主義主題;最後一個主題是盤點我們探索過的領域和我們將要探索的領域。
今年總共接收了778篇論文,創歷史新高,其中長論文570篇,短論文208篇。論文總接收率是22.7%,與最近的三次ACL會議相近,長論文接收率為25.4%,短論文接收率為17.6%。下圖展示了自2017年來ACL的論文接收率情況。
今年評審委員會的規模創歷史新高,有9497個審稿人註冊。最終2519名被選為主審稿人以及458名被選為次審稿人,299名被選為領域主席,40名被選為高級領域主席。
在主審稿人中,至少有四次評審經驗的審稿人數量僅佔35%(下圖中藍色和黃色部分)。因此,絕大多數審稿人經驗相對較少。對於這一做法,ACL給出的解釋是,因為評審質量不僅僅取決於那些有經驗的人,也要為未進入過該領域的人積累更多的經驗。這是一次新的嘗試,探索如何通過指導和培訓新的審稿人來提高審閲質量。
據悉,共有280名領域主席和290名新人審稿人蔘加了該計劃。在審核期間,特別是在討論過程中,領域主席直接與通訊作者聯繫,最後大會組委會會向領域主席和論文作者們尋求評審反饋。
下圖是主要會議時間表,每個會議時長1小時。每篇論文都分配了其中兩個會議。因此,你可以觀看他們的預先錄製的演講,然後觀看會議以直接與作者互動。這些會議還包括演示文件和研討會。此外每天還有一個2個小時的全體會議(Plenary Session),大會的獎項都在全體大會中公佈。
全體大會中會舉辦多個獎項的頒獎典禮,包括終身成就獎、傑出論文獎、時間考核獎和最佳論文獎。
全體會議的一大亮點是主題演講。今年ACL請來了來自哥倫比亞大學的Kathleen R.McKeown教授,以及來自MIT的Josh Tenenbaum教授在會議上發言。
2
主席演講:評審制度改革
Hinrich Schütze 還做了主席演講,隆重感謝了ACL的大會主席以及程序主席,簡要回顧了ACL的關鍵人物,同時也對ACL的審稿制度的改革進行了説明。
Hinrich Schütze表示,這是ACL第一次組織完全的在線會議,非常感謝Joyce Chai、Dan Jurafsky、Natalie Schluter、Joel Tetreault這四位主席,他們對ACL 2020 虛擬會議的召開起到了不可磨滅的作用。
同時ACL 還有一些關鍵的人物,做了非常多的後勤任務,如下張PPT所示,正是他們的存在,才組成了專業的組織。
在視頻中,Hinrich Schütze還點出了負責可持續發展關鍵人物的Tim Baldwin,他指出,雖然可持續發展是一個新的角色,但是它的作用非常重要。
同時,Schütze還提到,由於一些原因,今年一整年對於ACL來説可能會一直面臨財務危機,感謝David Yarowsky和Priscilla Rasmussen 在財務方面的支持。
今年的ACL在IT 基礎設施方面有些非常重大的進步,這要感謝信息主任Nitin Madnani。
在感謝完“TACL”之後,Schütze介紹了ACL的審稿制度改革,整個方案分為短期和長期,短期方案在6月份通過,長期方案只是一項建議。
在短期方案中一個比較特殊的點是:會建立 ACL Archives,建立的動機是有很多好的論文因為沒有它們沒有達到25%的削減標準(因為它們沒有達到25%的削減標準)。這裏給出的建議是除了接收25%,還要發表額外的10%在ACL Archives。
當然,這是同行審議的另一種選擇,這會導致35%的論文被接收,當然也沒有人強制你在ACL Archives 上發表論文,一切都是自願的,一切都在實驗中。另外,值得一提的是,ACL Archives是獨立於主會議之外的。
在最後,Schütze也介紹了接下來一些會議的舉辦時間與地點,包括EACL、NAACL、EMNLP等,Schütze還説,雖然這些會議有可能是線上舉行,但還是希望有幾場“實在”的線下會議。
3
主題報告:Rewriting the Past
在報告《Rewriting the Past: Assessing the Field through the Lens of Language Generation》中,Kathleen R. McKeown提到:近年來,自然語言處理領域通過使用神經網絡取得了巨大的進步,幾乎完全讓這個領域變了模樣。
當前需要審視了自然語言處理領域的現狀及其與過去的聯繫,並且關注多種形式的語言生成。具體包括:神經網絡在哪些方面特別成功?過去的方法在哪些方面可能仍有價值?以及如果要超越“當下”,需要轉向什麼方向?為了回答這些問題,McKeown對眾多自然語言處理領域的專家進行了訪談。
McKeown表示,當他在1982年還是一位PHD學生的時時候,讀過Warren Weaver寫的一本關於機器翻譯的思想的書,當時看起來不起眼,但是卻是現在統計學和神經機器翻譯研究背後的靈感來源。
書中提到,語言生成在一定程度上是rewriting,這有很多形式,可以是從結構化數據彙總進行生成,也可以是輸入文本到輸出摘要的rewriting等等。
而機器翻譯也正是從一種從語言的輸入rewriting到另外一種語言的輸出。那麼這語言生成形式未來會走向哪裏呢?
McKeown 表示:他沒辦法很好的回答,所以他與機器翻譯以及語言生成等方面專家進行了交談,試圖想找到該領域未來的走向。整個訪談分為過去、現在和未來三個維度。
McKeown的第一個問題是:神經網絡當前最大的成就是什麼,它們真正成功的地方在哪裏?
McKeown先列舉出了當前的神經網絡的進展文章,例如抽取模型(Extractive models)中的LSTM Seq2Seq、RNN plus history、BERT for summarization等;摘要模型中的Attention based copy and coverage、BART:LSTM pre-trained language model等。上述這些工作非常複雜,也非常成功,那麼神經網絡的成功之處到底在哪?
MIT的Regina Barzilay表示,神經網絡最大的成功就是催生了許多實用模型,這些模型的正在被數百萬人使用,而我們之前的一些工作更多的是一種“研究模型”。
亞馬遜AI的Ramesh Nallapati表示,當前在自然語言處理領域,即使背景知識很少的人也能部署模型,畢竟只要把他們當做“黑盒子”就行了。
康奈爾理工學院的Sasha Rush表示,他之前一直以為“翻譯”是經驗驅動型的領域,但是自從有人向他展示了基於注意力的翻譯模型後,他完全轉變了之前的看法。
MIT的Jacob Andreas表示,廣義上的語言生成應用,無論是無條件的還是有條件的,神經網絡比我們以前的結構化輸入少得多。
微軟研究員Michel Galley表示,“總結”和翻譯是一種語義保存,當然了,深度學習雖然有改進,但在做語義保存的過程中也會有信息損失。另外,對話領域在深度學習出現之前,一直是靠經驗直覺。
亞馬遜的Dilek Hakkani-Tur表示,從他第一次看到機器翻譯中使用注意力機制開始,學習並“注意”對話歷史的某些部分對追蹤對話狀態、生成與對話歷史一致的響應等有很大的幫助。
Yejin Choi表示,NLP中的預訓練模型取得了巨大的成功,對他個人來説,這些模型在生成連貫性文本方面的能力也非常強,這讓他非常興奮。
除了上述觀點,其他觀點有:神經網絡是擬合高度非線性函數的唯一途徑;對NLP的最大的影響來自單詞語義的表徵, 因此,我們不能僅將單詞視為小字符串,否則只能分析少量標籤數據;神經網絡方面最有潛力的是表徵學習。
在上述專家發表完觀點,McKeown總結道:深度學習已為機器翻譯、文本摘要等領域創造了具有魯棒性的方法,並且其成功背後的機制也多種多樣,包括注意力、預訓練語言模型、詞嵌入、表徵學習等 ,並根據大數據擬合高度非線性的函數。
第二個問題:回溯過去,語言學、哲學、以及心理學為NLP領域提供了怎樣的認知方法?
McKeown表示,過去有很多這方面的文章,在提供程序約束(pragmatic constraints),中心理論將“注意力集中”相關聯,以及在指稱表達和語篇連貫方面提供了助力;哲學理論在表達藝術以及暗喻方面也提供了“推理”功能。
在20世紀90年代的時候,NLP的熱門方法是大數據分析,傾向於用語料庫分析詞選擇和詞約束。這時候語言形式主義使用了功能性統一語法(functional unification grammar)。
1990~2000年這十年間是統計NLP的領域,這期間統計指標成了評價標準,隨後研究方向轉向了機器學習,生成模型和支持向量機成了主流方法。之後,NLP又有了結構性轉變,最主要的標誌是用經驗方法處理自然語言。
那麼在這期間,我們學到了什麼呢?第一,系統建立在跨學科理論的基礎上的;第二,處理自然語言的過程在那個需要將數據擴展到精心設計的語料庫中;第三,NLP經歷了全面的改革;第四,即使是新的統計方法也體現了跨學科理論。
第三個問題:未來的NLP會轉向哪個方面?
首先,要向其他學科和傳統人工智能學習;再者,我們遇到更難的問題時候,有一箇中間表徵非常重要;其次,詞嵌入是否是正確的語義層次的總結?顯然我們需要衡量最重要的東西;最後,也許符號或語義知識會很有用。
未來還有很多需要解決的問題,例如如何處理更小但更有趣的數據集?我們該怎樣設計新穎有意義的任務?
在演講的最後,McKeown總結道:現在對我們來説有個好消息是,穩健的語言生成模型現在已經是可得的;而未來的算法要從任務中學習而不是從數據集中學習。值得一提的是,跨學科的方法已經在領域內產生了巨大的影響。
ACL 2020原定於2020年7月5日至10日在美國華盛頓西雅圖舉行,因新冠肺炎疫情改為線上會議。為促進學術交流,方便國內師生提早了解自然語言處理(NLP)前沿研究,AI 科技評論將推出「ACL 實驗室系列論文解讀」內容,同時歡迎更多實驗室參與分享,敬請期待!