1月28日上午消息,谷歌今日宣布在人工智能領(lǐng)域的重要進(jìn)展:開(kāi)發(fā)出一款能夠在圍棋中擊敗職業(yè)選手的程序——AlphaGo,該程序能夠通過(guò)機器學(xué)習的方式掌握比賽技巧。 人工智能挑戰圍棋有多難? 計算機和人類(lèi)競賽在棋類(lèi)比賽中已不罕見(jiàn),在三子棋、跳棋和國際象棋等棋類(lèi)上,計算機都先后完成了對人類(lèi)的挑戰。但對擁有2500多年歷史的圍棋而言,計算機在此之前從未戰勝過(guò)人類(lèi)。圍棋看起來(lái)棋盤(pán)簡(jiǎn)單、規則不難,縱橫各19九條等距離、垂直交叉的平行線(xiàn),共構成19×19(361)個(gè)交叉點(diǎn)。比賽雙方交替落子,目的是在棋盤(pán)上占據盡可能大的空間。 在極簡(jiǎn)主義的游戲表象之下,圍棋具有令人難以置信的深度和微妙之處。當棋盤(pán)為空時(shí),先手擁有361個(gè)可選方案。在游戲進(jìn)行當中,它擁有遠比國際象棋更多的選擇空間,這也是為什么人工智能、機器學(xué)習的研發(fā)者們始終希望在此取得突破的原因。 就機器學(xué)習的角度而言,圍棋的計算最大有3361種局面,大致的體量是10170,而已經(jīng)觀(guān)測到的宇宙中,原子的數量才1080。國際象棋最大只有2155種局面,稱(chēng)為香農數,大致是1047。 “機器學(xué)習”預測人類(lèi)行為 傳統的人工智能方法是將所有可能的走法構建成一棵搜索樹(shù) ,但這種方法對圍棋并不適用。此次谷歌推出的AlphaGo,將高級搜索樹(shù)與深度神經(jīng)網(wǎng)絡(luò )結合在一起。這些神經(jīng)網(wǎng)絡(luò )通過(guò)12個(gè)處理層傳遞對棋盤(pán)的描述,處理層則包含數百萬(wàn)個(gè)類(lèi)似于神經(jīng)的連接點(diǎn)。 其中一個(gè)神經(jīng)網(wǎng)絡(luò )“決策網(wǎng)絡(luò )”(policy network)負責選擇下一步走法,另一個(gè)神經(jīng)網(wǎng)絡(luò )“值網(wǎng)絡(luò )”(“value network)則預測比賽勝利方。谷歌方面用人類(lèi)圍棋高手的三千萬(wàn)步圍棋走法訓練神經(jīng)網(wǎng)絡(luò ),與此同時(shí),AlphaGo也自行研究新戰略,在它的神經(jīng)網(wǎng)絡(luò )之間運行了數千局圍棋,利用反復試驗調整連接點(diǎn),這個(gè)流程也稱(chēng)為鞏固學(xué)習(reinforcement learning)。通過(guò)廣泛使用Google云平臺,完成了大量研究工作。 AlphaGo所使用的神經(jīng)網(wǎng)絡(luò )結構示意圖 征服圍棋對于谷歌來(lái)說(shuō)有重要意義。AlphaGo不僅是遵循人工規則的“專(zhuān)家”系統,它還通過(guò)“機器學(xué)習”自行掌握如何贏(yíng)得圍棋比賽。谷歌方面希望運用這些技術(shù)解決現實(shí)社會(huì )最嚴峻、最緊迫的問(wèn)題——從氣候建模到復雜的災難分析。 在具體的機器訓練上,決策網(wǎng)絡(luò )的方式是輸入人類(lèi)圍棋專(zhuān)家的比賽,到系統可以預測57%人類(lèi)行動(dòng)為止,此前最好成績(jì)是44%。此后AlphaGo通過(guò)在神經(jīng)網(wǎng)絡(luò )內部進(jìn)行比賽的方式(可以簡(jiǎn)單理解成和自己下棋),開(kāi)始學(xué)習自主探索新的圍棋策略。目前AlphaGo的決策網(wǎng)絡(luò )可以擊敗大多數具有龐大搜尋樹(shù)的最先進(jìn)的圍棋程序。 值網(wǎng)絡(luò )也是通過(guò)自己和自己下棋的方式來(lái)訓練。目前值網(wǎng)絡(luò )可以評估每一步棋能夠有多大勝算。這在此前被認為是不可能的。 AlphaGo戰績(jì)驚人 實(shí)際上,目前AlphaGo已經(jīng)成為最優(yōu)秀的人工智能?chē)宄绦。在與其他程序的對弈中,AlphaGo用一臺機器就取得了500場(chǎng)的勝利,甚至有過(guò)讓對手4手后獲勝的紀錄。去年10月5日-10月9日,谷歌安排AlphaGo與歐洲圍棋冠軍Fan Hui(樊麾:法國國家圍棋隊總教練)閉門(mén)比賽,谷歌以5-0取勝。 AlphaGo與歐洲圍棋冠軍樊麾的5局較量 公開(kāi)的比賽將在今年三月舉行,AlphaGo將在韓國首爾與韓國圍棋選手李世石九段一決高下,李世石是近10年來(lái)獲得世界第一頭銜最多的棋手,谷歌為此提供了100萬(wàn)美元作為獎金。李世石表示很期待此次對決,并且有信心獲得勝利。 此外,AlphaGo的發(fā)布,也是Deep MInd在2014年1月被谷歌收購以來(lái)首次發(fā)聲。在被收購之前,這家位于倫敦的人工智能領(lǐng)域的公司還獲得了特斯拉和SpaceX創(chuàng )始人馬斯克的投資。 人機對弈誰(shuí)將勝? 值得一提的是,上一次著(zhù)名的人機對弈要追溯到1997年。當時(shí)IBM公司研發(fā)的超級計算機“深藍”戰勝了國際象棋冠軍卡斯巴羅夫。不過(guò)國際象棋的算法要比圍棋簡(jiǎn)單得多。國際象棋中取勝只需“殺死”國王,而圍棋中則用數子或比目的方法計算勝負,并不是簡(jiǎn)單地殺死對方棋子。此前,“深藍”計算機的設計人2007年發(fā)表文章指出,他相信十年內能有超級電腦在圍棋上戰勝人類(lèi)。 該項目并未給IBM帶來(lái)可以銷(xiāo)售的產(chǎn)品,但卻讓我們意識到:基礎科學(xué)研究所面臨的巨大挑戰是值得我們去迎接的,雖然企業(yè)在這方面的收益還無(wú)法量化。 隨著(zhù)頂級科技公司爭相在產(chǎn)品中融入智能技術(shù),谷歌并不是唯一一家研究圍棋AI的公司,Facebook對圍棋人工智能的研究整合此前也亮相最新的計算技術(shù):深卷積神經(jīng)網(wǎng)絡(luò )(deep convolutional neural networks)和蒙特卡洛樹(shù)搜索(Monte Carlo tree search),前者利用類(lèi)似于大腦的算法來(lái)學(xué)習和識別棋盤(pán)上各種模式的重要性,而后者相當于一種超前思維,用于計算詳細的戰略步驟。 |