圍棋冠軍人工智慧
㈠ 第一個戰勝圍棋世界冠軍的人工智慧叫
第一抄個戰勝圍棋世界冠軍的人工智慧叫AlphaGo,AlphaGo由谷歌(Google)旗下DeepMind公司戴密斯·哈薩比斯領銜的團隊開發。其主要工作原理是「深度學習」。
2017年5月,在中國烏鎮圍棋峰會上,它與排名世界第一的世界圍棋冠軍柯潔對戰,以3比0的總比分獲勝。圍棋界公認阿爾法圍棋的棋力已經超過人類職業圍棋頂尖水平。
(1)圍棋冠軍人工智慧擴展閱讀:
計算機對應復雜度的方法就是「深度學習」,這是一種基於人工神經網路的人工智慧方式。與「專家系統」為代表的,用大量「如果-就」規則定義的,自上而下的思路不同,人工神經網路標志著另外一種自下而上的思路。
它的基本特點是,試圖模仿大腦的神經元之間傳遞,處理信息的模式。在簡單的規則制定之後,計算機就可以模仿大腦學習,當然,不知疲倦,速度也更快,這也是AlphaGo可以快速學習、進化的原因。
㈡ 人工智慧打敗圍棋冠軍 服務機器人還有多遠
機器人與人公平對弈1997年,人工智慧機器人第一次打敗頂尖的國際象棋人類選手。2006年,人類最後一次打敗國際象棋人工智慧機器人,此後便一再敗北,正應了四十多年前計算機科學家的預言。但在圍棋領域,由於人工智慧機器人棋力比人類弱,在之前的比賽中,人類選手都會讓子,而且人工智慧機器人主要和業余段位的棋手比賽。因此,對於機器人的「進攻」,人們會以在圍棋領域的智力優勢來自我安慰。然而,這次情況不同了,與機器人對弈的選手樊麾目前是法國國家圍棋隊總教練,已經連續三年贏得歐洲圍棋冠軍的稱號。而「阿爾法圍棋」對戰樊麾是完全公平的比賽,沒有讓子,卻贏了比賽。此前,研究者也讓「阿爾法圍棋」和其他的圍棋人工智慧機器人進行了較量,在總計495局中只輸了一局,勝率是99.8%。它甚至嘗試了讓4子對陣CrazyStone、Zen和Pachi三個先進的人工智慧機器人,勝率分別是77%、86%和99%,由此可見「阿爾法圍棋」有多強大。在2016年3月份,「阿爾法圍棋」將和韓國九段棋手李世石在首爾一戰,獎金是由谷歌提供的100萬美金。李世石是最近10年中獲得世界第一頭銜最多的棋手。之前有人預測說,人工智慧機器人需要再花十幾年才能在圍棋領域戰勝人類,這場比賽或許會就此載入史冊。
㈢ 圍棋世界冠軍落敗人工智慧,人類會被取代嗎
速度快額外是。
㈣ google人工智慧擊敗歐洲圍棋冠軍,alphago 究竟是怎麼做到的
因為程序改進過,採用了深度學習的演算法,選點,大局觀的判斷有了不小的進步。也修復了以前的bug,棋力有了突破性提高,
此外,Google給該軟體投入了巨資,給與最好的硬體,極大的提高了他的計算能力。
從人工智慧技術發展上看,DeepMind使用了「深度學習」技術,而非象俞斌估計的和職業高手合作。電腦通過海量學習人類高手的棋譜,用深度神經網路快速模擬出人的招法,下出來的棋就很象人了。樊麾二段說:「如果沒人告訴我,我會想對手下得有一點怪,但肯定是個很強的棋手,一個真正的人」。
而DeepMind小組在搜索技術上取得了更大突破。跟Darkforest相似,AlphaGo用一個深度神經網路(policy network,「策略網路」)減少搜索的選點,象人類高手一樣,只考慮少數幾個可能的選點。此外,他們還建立了另一個深度神經網路(value network,「值網路」),象人類高手一樣,思考到某個局面就有了結論,不必象之前的蒙特卡洛模擬那樣下到終局,極大地減小了搜索的深度。
DeepMind引入的另一個逆天的高招是,讓圍棋人工智慧自己和自己下,總結經驗,自我不斷提高!
這個人工智慧自學習的要點是,不需要告訴電腦人類的經驗,就讓它自己玩這些電腦游戲,只是給出玩的分數。電腦看著分數不斷糾正自己的策略,最後就發展出比人類還強的電游技術。這次的AlphaGo也用了這個技術,這又是比其它電腦圍棋程序強的地方。
通過這樣三招,DeepMind小組確實在圍棋人工智慧上取得了巨大突破。而且研究方法的潛力很大,從這個方向上走,最終象「更深的藍」一樣戰勝人類最高手是完全可以想像的。一個月前,DeepMind小組就報告說圍棋人工智慧取得了巨大突破,會戰勝人類,但當時棋迷與職業棋手並未留意。現在有了棋譜,又有了技術細節,就顯得可信多了。
㈤ 為什麼谷歌人工智慧擊敗圍棋冠軍這事如此重要
谷歌人工智慧擊敗圍棋冠軍是人工智慧發展史上了不起的挑戰。
棋類游戲一直被視為頂級人類智力的試金石。人工智慧與人類棋手的對抗一直在上演。1989年開始,IBM的深藍就常常能擊敗國際象棋大師了, 8年後的1997年,深藍首次打敗世界第一的國際象棋棋手加里-卡斯帕羅夫,開始統治國際象棋領域。2006 年,成為了人類在國際象棋的絕唱,因為自此之後,人類再沒有戰勝過最頂尖的人工智慧國際象棋選手。
不同於國際象棋,圍棋每回合的可能性更多,共有250種可能,一盤棋可以長達150回合。用人工智慧戰勝圍棋專業選手,按照技術的發展速度,一般認為至少需要10年才能實現。
㈥ 第一個戰勝圍棋世界冠軍的人工智慧程序是什麼
第一個戰勝圍棋世界冠軍的人工智慧程序是阿爾法狗。在韓國首爾舉行的2016圍棋人版機大戰中,阿爾法權狗戰勝了韓國名手李世石。
AlphaGo程序是美國谷歌公司旗下DeepMind團隊開發的一款人機對弈的圍棋程序,被中國棋迷們戲稱為阿爾法狗。游戲是人工智慧最初開發的主要陣地之一,比如博弈游戲就要求人工智慧更聰明、更靈活,用更接近人類的思考方式解決問題。
(6)圍棋冠軍人工智慧擴展閱讀:
AlphaGo通過蒙特卡洛樹搜索演算法和兩個深度神經網路合作來完成下棋。在與李世石對陣之前,谷歌首先用人類對弈的近3000萬種走法來訓練「阿爾法狗」的神經網路,讓它學會預測人類專業棋手怎麼落子。
然後更進一步,讓AlphaGo自己跟自己下棋,從而又產生規模龐大的全新的棋譜。谷歌工程師曾宣稱AlphaGo每天可以嘗試百萬量級的走法。
㈦ 為什麼人工智慧擊敗圍棋冠軍這事如此重要
二十年前,深藍大戰國際象棋大師卡斯帕羅夫的時候。同樣是轟動世界,因為此類事件它代表的是計算機對人類在思考能力上的挑戰。因為我們都知道計算機只是一台精密些的機器而已,它之所以能完成很多人類難以完成的工作,只是因為更快的計算速度而已。所以如果是一些簡單的棋類的話,計算機完全可以試出所有可能的組合,從而打敗人類。但是圍棋不一樣,圍棋橫縱各有19行共361個點,每個點上有三種狀態,黑子,白子或無子,那麼總共有多少種組合呢,3的361次方,換算一下就是10的271次方。數很大,你可能沒有概念,那麼我告訴你宇宙中原子的總個數是10的80次方。
正是圍棋的組合太多,所以才有人說千年來沒有下過一盤重樣的棋。因此計算機是不可能用窮舉法來和人類下棋的。這也是為什麼20年前的計算機在國際象棋上早已戰勝了人類。為什麼過了20年才向人類在圍棋上發起挑戰。當年的深藍是一台超級計算機,每秒鍾可以計算2億步,在當時是一個很驚人的運算速度。如果用同類型的演算法進行的話,多出幾十個數量級的運算任務估計要讓對手等到宇宙末日才能下完了。
所以現在的谷歌阿爾法狗是用了一套自主學習的演算法即人工智慧來挑戰人類。他的編程人員沒有一個是職業棋手,都只是會下圍棋而已,但是通過阿爾法狗的自主學習,由它自己跟自己下,每天數百萬局的數據採集,讓它的成長為世界頂尖棋手的水平。
他所代表的人工智慧,對人類在思考能力上的地位形成了極大的沖擊。算是人工智慧的又一個標志性事件。人工智慧時代越來越迫近了,人類又該怎樣來面對人工智慧呢,這都是一個值得思考的問題。
純手打,具體疑問還可以追問
㈧ 10年或者20年後,世界圍棋冠軍和人工智慧,誰更強
不用等10年20年了,現在人工智慧已經完勝世界職業頂尖高手了,而且,還是碾壓。
㈨ Google 人工智慧首次完勝人類圍棋冠軍 為什麼很厲害
Google DeepMind 團隊在最新一期《Nature》上發表論文稱,其名為 「阿爾法圍棋」()的人工智慧,在沒有任何讓子的情況下以 5:0 完勝歐洲冠軍、職業圍棋二段樊麾。
在計算機的發展史,在國際象棋比賽中,計算機戰勝人類是重要歷史事件,過去了這么多年,人工智慧戰勝圍棋冠軍又怎麼說明谷歌AI很牛呢?
圍棋,一直被認為是人類仍然在機器面前能保持優勢的游戲之一。過去20多年來,科技家們一直在試著教會電腦下棋,在1997年,IBM的深藍曾經打敗了國際象棋的世界冠軍Garry Kasparov,這成為了人工智慧的一座里程碑事件。但是,圍棋比國際象棋還是要復雜得多,國際象棋中,平均每回合有35種可能,一盤棋可以有80回合;相比之下,圍棋每回合有250種可能,一盤棋可以長達150回合。
在下國際象棋的時候,計算機可以分析出每一個可能的步驟,從而進行最優選擇,但是,圍棋可能的步驟是國際象棋的10倍之多。這也正是圍棋人工智慧的難點所在。
在過去很長時間里,最好的計算機連厲害點的業余圍棋棋手都下不過。所以,去年,Facebook就開始打造圍棋人工智慧,並且在過去6個月里讓它可以用最快0.1秒的速度來落子。負責這項目的人,就坐在里扎克伯格20英尺遠的地方。但是,Google還是快一步。
這場比賽實際上發生在去年十月,但是知道今天,它才在《自然》雜志中披露出來。
David Silver是這項研究的第一作者,在他看來,阿爾法Go的關鍵不在於簡單粗暴的計算出可能步驟,而是近似於人類的「想像力」。這背後是名為一項名為「深度學習」的大殺器,它讓計算機不再是簡單地使用計算能力來統計所有數據,而是像人類一樣,訓練,然後學習。Silver說,計算機「下圍棋需要的極復雜的直覺機制,這種機制以前我們認為只可能存在於人類大腦中。」
阿爾法Go用了多種「神經網路」並行,並且相互作用。其中,一個叫做「值網路」(value network),來衡量白字和黑子在棋盤上的位置,一個叫做「策略網路」(「policy network」 ),會不斷地學習此前人類和自己的落子,來選擇接下來怎麼下。
不僅僅比人類、比起其他機器人同類,阿爾法Go也更加強大。它和其他人工智慧下了500場圍棋,只輸了1場,甚至在給對手讓子的情況下,它也照贏不誤。而Silver說,它比其他人工智慧更先進的地方,就在於可以自我學習。而且,這種機制不僅僅可以用在圍棋學習中,阿爾法Go還可以用來解決很多現實問題,比如處理氣候模型等。
據消息稱,Google的「阿爾法Go」V和現在的圍棋世界冠軍李世石 (Lee Sedol),將在今年三月正式進行比賽。在圍棋這個古老的、幾乎代表了人類智力巔峰的游戲上,機器人和人類究竟誰更強大,答案很快就會揭曉。