柯潔再戰人工智能 棋迷:在哪裏跌倒的就要在哪裏爬起來?

本文已影響2.9W人 

2018年4月27日訊,圍棋世界排名第一的我國棋手柯潔曾在和人工智能AlphaGo的比賽中落敗。柯潔現場流下的眼淚,讓人們驚呼人類已經阻止不了人工智能了。

柯潔再戰人工智能 棋迷:在哪裏跌倒的就要在哪裏爬起來?

柯潔也表示此後不再對戰人工智能。但他食言了!柯潔將在4月27日挑戰我國研製的圍棋人工智能“星陣”。對強者的不斷挑戰,是人類進步的永恆動力。柯潔的對手“星陣”又有怎樣的“祕密武器”?央視新聞將爲您帶來現場直播。

延伸閱讀

AlphaGo新版本問世:自學40天就能勝贏柯潔的版本

網易科技訊 10月19日消息,專注於推進人工智能(AI)研究的谷歌子公司DeepMind今天發佈了一款新版本的AlphaGo程序,它能通過自學玩轉多種遊戲。這套系統名爲“AlphaGo Zero”,它通過一種名爲“強化學習”的機器學習技術,可以在與自己遊戲中吸取教訓。

柯潔再戰人工智能 棋迷:在哪裏跌倒的就要在哪裏爬起來? 第2張

僅三天時間,AlphaGo Zero自行掌握了圍棋的下法,還發明瞭更好的棋步。這期間,除了被告知圍棋的基本規則,它未獲得人類的幫助。隨着AlphaGo Zero被不斷訓練時,它開始在圍棋遊戲中學習先進的概念,並挑選出一些有利的位置和序列。

經過三天的訓練,該系統能夠擊敗AlphaGo Lee,後者是去年擊敗了韓國選手李世石(Lee Sedol)的DeepMind軟件,勝率是100比0。。經過大約40天的訓練(約2900萬場自玩遊戲),AlphaGo Zero擊敗了AlphaGo Master(今年早些時候擊敗了世界冠軍柯潔)。

舊版AlphaGo接受的訓練是,觀摩由實力強大的業餘或專業棋手對弈的海量棋局。但AlphaGo Zero沒有獲得這樣的幫助。它自我對弈數百萬次,並從中學習。一開始,它只是隨意把棋子放在棋盤上,但後來它發現了獲勝的策略,棋藝就快速提升了。

AlphaGo的首席研究員大衛·席爾瓦(David Silver)表示,“由於未引入人類棋手的數據,AlphaGo Zero遠比過去的版本強大,我們去除了人類知識的限制,它能夠自己創造知識。”

AlphaGo Zero通過“強化學習”這一程序來積累技能。當AlphaGo Zero走出一步好棋,它更有可能獲勝。若這步棋沒走好,它輸棋的概率變大了。

這一程序的核心是一組連在一起形成人造神經網絡的 “神經元”。對於棋局的每個回合,神經網絡會觀察棋子在棋盤上的位置,並推算接下來的棋步以及這些棋步讓全盤獲勝的概率。每次對弈後,它會更新神經網絡,讓棋藝更精進。雖然性能遠勝於以前的版本,但AlphaGo Zero是一個更簡單的程序,掌握棋法的速度更快,接受訓練的數據更少,使用的電腦更小。席爾瓦表示,如果擁有更多的時間,AlphaGo Zero還能夠自己學會圍棋規則。

研究團隊在《自然》雜誌上發表的文章寫道,一開始AlphaGo Zero的棋藝糟透了,後來它逐漸成爲一名缺乏經驗的業餘棋手,最終進階爲圍棋高手,能夠走出極具戰略性的棋步。這些進步僅花費了幾天時間。最初10小時內它就發現了一個定式。隨後不久它又領悟了一些棋法。三天後,AlphaGo Zero發現了人類專家正在研究的全新棋步。有趣的是,程序在發現更簡單的棋步之前就早已掌握了一些複雜棋步。

這一進展標誌着通用型AI發展的大一里程碑。除了下棋贏過人類,通用型AI能做更多事情。由於AlphaGo Zero能夠從一無所知實現自學成才,如今其天賦可以在諸多現實問題上派上用場。

AlphaGo Zero正在研究蛋白質如何摺疊的問題,這是一個艱難的科學挑戰,不過有望成爲藥物發明的一大突破。

DeepMind的CEO丹米斯·哈撒比斯(Demis Hassabis)表示,“對我們來說,AlphaGo不僅限於在圍棋對弈中獲勝,這也是我們開發通用算法的一大進步。”大多數AI被認爲“用途有限”,因爲它們只能執行單一任務,例如,翻譯、識別面孔。但通用型AI在許多不同任務上擁有超越人類的潛能。哈撒比斯認爲,在接下來十年,AlphaGo的迭代產品將成爲科學家和醫學專家,與人類並肩工作。

此外,AlphaGo Zero比它的許多前輩都要高效得多。AlphaGo Lee需要使用幾臺機器和48個谷歌張量處理單元機器學習加速器芯片,該系統的早期版本AlphaGo Fan需要176個GPU。而AlphaGo Zero和AlphaGo Master一樣,只需要一臺機器和4個TPU。(惜辰)

相關內容

熱門精選