日本AI的現狀與「Deep Learning」的課題
科學 技術- English
- 日本語
- 简体字
- 繁體字
- Français
- Español
- العربية
- Русский
2016年3月,美國Google旗下的DeepMind公司開發的「AlphaGo」壓倒世界頂級棋手獲勝的新聞證實了AI的快速進化,在全球掀起軒然大波。
「AI」一詞說來簡單,但它的歷史卻不算短。世界第1臺電腦,是英國數學家圖靈(Alan Mathison Turing)在第二次世界大戰期間發明的解碼器。他最早的想法是開發一臺能夠代替人類計算者(Computer)的機器——電腦(Digital Computer)。電腦在誕生之初,就已經反映了人類想要製造擁有人類智慧的機器的慾望。事實上AI的基礎概念,是圖靈在1947年發表的一篇論文裏提出的。之後到了1956年,研究這一領域的科學家召開了「達特矛斯會議(Dartmouth Conference)」,從此「AI(Artificial Intelligence)」這個詞語才開始廣為人知。順便一提,日本的「AI學會」創立於1986年,起步比國外的AI研究晚了整整30年。
「機器學習」與「神經網路」
AI學會誕生的1986年,正好處於第2次AI潮的全盛期,這時討論的AI概念,為方便行文,筆者暫且稱之為「第2代AI」。圖靈時代提倡的AI(姑且稱之為「第1代AI」)是模仿神經回路的「神經網路」(神經元之間的所有相互連接)的設想,當然它的外延更廣泛一些。然而第2代AI,則是符號處理和知識資訊處理成為了主流。日本便是從這個時候開始投入大量的預算,致力於開發AI,在此之後,包括日本在內,全球的AI概念已經偏向於符號處理和知識資訊技術處理了。即使到現在,全球9成以上的AI研究人員都屬於這種第2代AI的研究者。第2代AI的研究碩果累累,給全球技術的進步做出了巨大貢獻。例如World Wide Web就是第2代AI研究成果的應用結果,Google之類的搜尋引擎也是如此。
然而進入21世紀,電腦的計算能力實現飛躍式提升之後,長久以來被忽略的「機器學習」領域也很快地呈現出了活力。機器學習是一種演算法,它可以讓電腦對特定事件的資料進行解析,從其結果中學習它的傾向,並用於以後的判斷和預測。雖然這種方法早就存在,但隨著電腦計算能力的不斷提高,實用性的機器學習才逐步得以實現。此外,隨著計算能力的提高,通過大量資料讓以往學習能力弱的多層神經網路進行機器學習也成為了可能。這就是Deep Learning。
日本國內沒有研究「Deep Learning」的人才
整個90年代,機器學習都處於弱勢地位,所以機器學習的研究者也寥寥無幾。Deep Learning的研究者更是少之又少。為數不多的Deep Learning高手紛紛被美國Google、Facebook、Microsoft和中國百度等企業研究所招攬至麾下。
因此如今對Deep Learning有著長期研究基礎的專家實屬鳳毛麟角。這點在日本也不例外。更糟糕的是目前日本大學和研究機構可以說幾乎沒有做Deep Learning研究的專家。
當然,受最近幾年AI潮的影響,各大學和研究機構都迅速做出反應,開始致力於Deep Learning研究人員的培養。可惜現實卻是無論在哪所大學,位高權重的教授大都是第2代AI的研究者,他們對Deep Learning(筆者稱之為「第3代AI」)的研究能力跟初學者相差無幾。機器學習的專家與Deep Learning的專家之間還有些微妙的見解分歧,這也給這種混亂局勢雪上加霜。
舉個例子,大家就能知道長久以來日本學界有多麼輕視或蔑視Deep Learning。
2016年6月,筆者應經濟產業省的邀請,在AI學會的全國大會上,就Deep Learning的分科會議做了兩個企劃。然而在實際給分科會議取名時,同席的學術圈研究者提出了異議。他說:「如果名字裏加上Deep Learning的話,估計就沒人來聽了吧。」
這種論調聽著似乎有些荒唐,但這確實就是僅僅1年前的學界對Deep Learning的認識。就在日本研究者裹足不前之際,歐美和中國早已奪取先機,不斷有成果發表問世。
Google「神經網路翻譯」的衝擊
去年的AI學會全國大會上,從人數來看,參加了名字含有Deep Learning或機器學習的分科會議的人,確實只占全體人員的10%多一點。然而對AI研究者來說,去年秋天卻發生了重大事件。那就是Google「神經網路翻譯」的問世。
神經網路翻譯不使用以往任何一種自然語言處理式的手法,而是僅對對譯的對應關係進行學習,是一種依靠神經網路學習的翻譯方法。這種看似簡單粗暴的翻譯方法,卻有著高人一頭的準確度,讓研究者們大跌眼鏡。
尤其是在日本,自然語言處理和機器翻譯的研究占據主流。第2代AI研究者對於智慧的定義是「能夠對概念進行邏輯地理解和再構築」,一直寄望於靠邏輯來解決問題。自然語言處理是通過處理自然語言,來逐步逼近人類智慧的一種方法,這當然也算是一種非常有意義的研究。
然而Google的神經網路翻譯完全放棄了這種自然語言處理的方法,而是讓機器作為一個完全的黑匣子來學習語言。如果這種方法生成的譯文準確度更高的話,那麼長久以來致力於處理自然語言的研究者們就失去了存在的意義。
顛覆圍棋AI常識的「AlphaGo」
圍棋界也發生了一件與神經網路翻譯一樣的大事件。正如開篇提到的,2016年3月,DeepMind公司開發的「AlphaGo」成功擊敗了職業9段棋士。而這個會下圍棋的AI也是用完全不同於以往的方法進行開發的。
「AlphaGo」具有判斷局勢的Value-Network和判斷套路的Policy-Network的雙層深層神經網路。然後就是不斷讓它學習過去的棋譜,與自己對戰,以此磨練棋藝。這種方法叫做深度強化學習,是現在的主流方法之一。
在此之前的圍棋AI是通過程式設計寫入圍棋規則和定式,在很大程度上需要依賴人腦思考,下達指令,才能下棋。圍棋AI的程式師會研究人類棋士如何打敗對手,並結合單純的機器學習來創造一個圍棋AI高手,然而這種嘗試並沒有誕生出能夠與職業棋士分庭抗禮的AI。
籍籍無名的DeepMind橫空出世,用AI打敗了人類棋士。受此刺激,DWANGO、百度等日本和中國的科技巨頭以及業餘程式師都紛紛投身AI圍棋大賽。另一方面,電氣通信大學從2007年起一直每年舉辦的「UEC杯世界電腦圍棋賽」,受「AlphaGo」戰績的影響,於2017年3月在第10屆大賽上宣布停辦。
DeepMind此後也不斷開發和發表新技術,一直引領著世界技術發展。日本國內Yahoo、DWANGO或Preferred Networks等新興勢力也開始投入到Deep Learning的研究中,此外以豐田、FANUC為首的巨頭企業也不斷加大投資力度,可惜至今還沒有什麼值得一提的成果問世。
(2017年3月20日)
標題圖片:2016年3月,美國Google旗下的DeepMind公司開發的「AlphaGo」以4勝1負的成績戰勝了韓國棋手李世石(AP/Aflo)