不拆分單詞也可以做NLP,哈工大最新模型在多項任務中打敗BERT發佈於: 經典2022-02-28標籤: WordBERTZH哈工大WordBERTTransformer豐色 發自 凹非寺量子位 | 公眾號 QbitAI眾所周知,BERT在預訓練時會對某些單詞進行拆分(術語叫做“WordPiece”)。比如把“loved”、“loving”和“loves”拆分成“lo