語言的特殊性表現了人的特殊性。人工智能會被收購嗎?
文本/陳根
語言作為人與生俱來的能力,可以幫助人們傳遞很多重要的信息。正是因為人類獨特的語言能力,人類才顯得特別。這也是人工智能還在努力突破的技術枷鎖。
原因是世界上有成千上萬種不同的語言和方言,既有相似之處,也有不同之處。另外,每個單詞和句子都會給人一種語義,這種語義會給每個人不同的反饋。語言的復雜性給機器學習帶來了挑戰。
比如,對于相同的語義,不同的語言和方言對應的反饋可能是不一樣的,甚至對于成長在不同環境中的同一個語言群體,不同年齡、不同情緒狀態的同一個人。
最近,斯坦福大學人工智能實驗室(SAIL)發表了一篇博客,介紹其兩篇ACL 2020論文。這兩項研究基于近年來BERT等神經語言模型的突破性成果,指出了一個新的潛在方向:利用語言解釋輔助學習NLP甚至計算機視覺任務。
簡單來說,它是針對自然語言處理(NLP)和計算機視覺領域的許多困難任務。他們首先用語言解釋這些任務,然后用深度神經網絡模型學習這些語言解釋,然后幫助解決這些任務。
事實上,BERT和其他現代深層神經語言模型已經顯示出解決許多語言理解任務的潛力。因此,SAIL在這兩篇論文中提出用神經語言模型來緩解這些基本問題。這些神經語言學模型要么旨在確定相關領域的語言解釋,要么使用能夠解釋語言解釋的一般“知識”進行預培訓。
第一篇論文研究如何利用語言解釋來構建文本分類器,即利用自然語言解釋來幫助解決單一任務。在此基礎上,研究者提出了ExpBERT模型,該模型使用為文本隱含任務訓練的BERT模型。BERT在這個過程中輸出的特征可以替代語義解析器提供的指示性特征。
在第二篇論文中,作者提出了一種被稱為語言成形學習/LSL的方法,即在訓練中使用語言解釋可以促進模型學習,不僅可以對有用表征進行分類,還可以對語言解釋進行預測。
語言的精致體現了人類的精致。人工智能要克服語言的技術束縛還有很長的路要走,但是研究已經在路上了。在人工智能獲得語言能力之前,社會會精心設計其技術,這是科技時代不可避免的問題。