⑴ 為什麼人工智慧擊敗圍棋冠軍這事如此重要

二十年前,深藍大戰國際象棋大師卡斯帕羅夫的時候。同樣是轟動世界,因為此類事件它代表的是計算機對人類在思考能力上的挑戰。因為我們都知道計算機只是一台精密些的機器而已,它之所以能完成很多人類難以完成的工作,只是因為更快的計算速度而已。所以如果是一些簡單的棋類的話,計算機完全可以試出所有可能的組合,從而打敗人類。但是圍棋不一樣,圍棋橫縱各有19行共361個點,每個點上有三種狀態,黑子,白子或無子,那麼總共有多少種組合呢,3的361次方,換算一下就是10的271次方。數很大,你可能沒有概念,那麼我告訴你宇宙中原子的總個數是10的80次方。
正是圍棋的組合太多,所以才有人說千年來沒有下過一盤重樣的棋。因此計算機是不可能用窮舉法來和人類下棋的。這也是為什麼20年前的計算機在國際象棋上早已戰勝了人類。為什麼過了20年才向人類在圍棋上發起挑戰。當年的深藍是一台超級計算機,每秒鍾可以計算2億步,在當時是一個很驚人的運算速度。如果用同類型的演算法進行的話,多出幾十個數量級的運算任務估計要讓對手等到宇宙末日才能下完了。
所以現在的谷歌阿爾法狗是用了一套自主學習的演算法即人工智慧來挑戰人類。他的編程人員沒有一個是職業棋手,都只是會下圍棋而已,但是通過阿爾法狗的自主學習,由它自己跟自己下,每天數百萬局的數據採集,讓它的成長為世界頂尖棋手的水平。
他所代表的人工智慧,對人類在思考能力上的地位形成了極大的沖擊。算是人工智慧的又一個標志性事件。人工智慧時代越來越迫近了,人類又該怎樣來面對人工智慧呢,這都是一個值得思考的問題。
純手打,具體疑問還可以追問

⑵ 圍棋人機大戰,記得IBM深藍嗎

1997 年 5 月 11 日,在人與計算機之間挑戰賽的歷史上可以說是歷史性的一天。計算機在正常時限的比賽中首次擊敗了等級分排名世界第一的棋手。加里·卡斯帕羅夫以 2.5:3.5 (1勝2負3平)輸給IBM的計算機程序 「深藍」。機器的勝利標志著國際象棋歷史的新時代。

⑶ 什麼樣的人工智慧擊敗了職業圍棋手

由谷歌英國研究團隊開發的計算機系統在圍棋比賽中擊敗了職業棋手。作為一種古老的東方棋類游戲,圍棋強調策略和直覺。過去數十年,圍棋一直是人工智慧專家未能攻克的堡壘。然而,人工智慧正在這一領域取得重要突破。
此前,計算機已在其他多種比賽,例如國際象棋、奧賽羅棋和智力競賽《危險邊緣》中勝過了人類對手。然而,圍棋是一種具有2500多年歷史的古老技藝,其復雜程度遠超國際象棋,因此人類高手此前幾乎不費吹灰之力就能勝過即使最強的計算機系統。本月早些時候,谷歌以外的人工智慧專家已提出這樣的問題,即人工智慧在圍棋領域的突破能否迅速實現。而直到去年,大部分人仍認為,計算機擊敗職業棋手還需要10年時間。
然而,谷歌已經做到了這一點。法國研究者雷米·庫洛姆(Remi Coulom)此前曾開發了全球最強大的人工智慧圍棋程序。他表示:「這一天的到來比我想像中更快。」
谷歌於2014年收購了自稱為「人工智慧領域阿波羅項目」的DeepMind。去年10月,DeepMind的研究團隊在倫敦辦公室里主持了人工智慧與人類選手的較量。DeepMind的這一系統名為AlphaGo,而它的對手是歐洲圍棋冠軍樊麾。在《自然》雜志編輯和英國圍棋協會裁判的監督下,AlphaGo在五番棋比賽中取得了5:0的壓倒性勝利。《自然》雜志編輯坦古伊·喬阿德(Tanguy Chouard)博士在本周二的媒體電話會議上表示:「無論作為研究者還是編輯,這都是我職業生涯中最令人興奮的時刻之一。
自然》雜志發表的一篇論文介紹了DeepMind的系統。這一系統利用了多種技術,其中也包括越來越重要的一種人工智慧技術,即深度學習。利用海量的人類高手棋譜(總步數約達3000萬),DeepMind的研究團隊訓練AlphaGo自主學習圍棋。然而這僅僅只是第一步。從理論上來說,這樣的訓練最多隻能培養出與最優秀人類選手同等棋力的人工智慧。而為了擊敗最優秀的人類選手,研究團隊使這一系統自己與自己對弈。這帶來了新的數據,而這些數據可被用於訓練新的人工智慧系統,最終勝過頂尖高手。
DeepMind負責人德米斯·哈薩比斯(Demis Hassabis)表示:「最重要的一點在於,AlphaGo不僅僅是專家系統,遵循人為設定的規則。實際上,這使用了通用的機器學習技術,能自行探索如何在圍棋比賽中取勝。」
人工智慧的這次勝利並不新鮮。谷歌、Facebook和微軟等互聯網服務早已利用深度學習技術去識別照片和語音,或是理解自然語言。DeepMind的技術結合了深度學習、增強學習,以及其他方法。關於現實世界機器人如何學習日常任務,並對周圍環境做出響應,這指明了未來的方向。哈薩比斯表示:「這非常適合機器人。」
他同時認為,這些方法能加速科學研究,通過在工作中引入人工智慧系統,科學家將可以取得更多成果。「這一系統能處理規模更大的數據集,分析得出結構化信息並提供給人類專家,從而提高效率。系統甚至能向人類專家提供方式方法的建議,協助帶來突破。」
不過目前,圍棋仍是他的關注重點。在關起門來擊敗一名職業選手之後,哈薩比斯及其團隊將目標瞄準了全球頂尖的圍棋選手。3月中旬,AlphaGo將在韓國公開挑戰李世石。李世石擁有的國際比賽冠軍頭銜數排名第二,而過去10年中,李世石有著最高的勝率。哈薩比斯認為,李世石就是「圍棋界的費德勒」。
比國際象棋更難
2014年初,庫洛姆的圍棋軟體Crazystone在日本的巡迴賽中挑戰了依田紀基九段,並取得了勝利。不過,這一勝利的成色不足:Crazystone獲得了四子的讓先。當時,庫洛姆預言,在沒有讓先的情況下,人工智慧擊敗頂尖圍棋高手還需要10年時間。
這一挑戰的難度在於圍棋本身。此前,在合理時間內,任何超級計算機都沒有足夠的處理能力,去預判每種可能的著法會帶來什麼樣的後續結果。1997年,IBM「深藍」擊敗了國際象棋大師卡斯帕羅夫,當時這台超級計算機採用了「暴力計算」的方式。從本質上來看,「深藍」分析了每一步走法可能出現的各種結果。然而,這樣做在圍棋比賽中行不通。在國際象棋比賽中,一個回合可能的走法平均為35種。而圍棋比賽採用了19x19的棋盤,平均每回合走法有250種。哈薩比斯指出,圍棋棋盤上的棋型類型要比宇宙中的原子總數還要多。
利用名為「蒙特卡洛樹搜索」的方法,類似Crazystone的系統能完成更多步的預判。而結合其他一些技術,計算機可以完成對多種可能性的必要分析。這樣的計算機能擊敗一些不錯的圍棋選手,但距離頂尖高手還有很大差距。對真正的高手來說,直覺是很重要的一部分。這些棋手會根據棋盤上棋型來選擇如何行動,而不是精確分析每一種著法可能會帶來的結果。哈薩比斯本人也是圍棋選手,他表示:「良好的棋型看起來就很漂亮。這似乎遵循某種美學。這也是這一游戲數千年來歷久不衰的原因。」
不過,在進入2015年之後,一些人工智慧專家,包括愛丁堡大學、Facebook和DeepMind的研究人員,開始探索利用深度學習技術去解決圍棋的難題。他們設想,深度學習技術能模擬圍棋比賽中必要的人類直覺。哈薩比斯表示:「圍棋有著許多暗示,模式匹配很重要。深度學習可以做得很好。」
自我增強
深度學習的基礎是神經網路。這種由軟硬體構成的網路能模擬人腦中的神經元,其運轉並非依靠「暴力計算」和人工制定的規則。神經網路會分析大量數據,以從事某項任務的「學習」。例如,如果向神經網路輸入足夠多的袋熊照片,那麼它就能識別出袋熊。如果向神經網路輸入足夠多的單詞發音,那麼它就能識別你的語音。如果向神經網路輸入足夠多的圍棋棋譜,那麼它就能學會如何下圍棋。
在DeepMind、愛丁堡大學和Facebook,研究人員希望,通過「觀察」棋盤棋型,神經網路能掌握下圍棋的方法。正如Facebook近期在一篇論文中所說,這一技術的運行情況良好。通過深度學習和蒙特卡洛樹方法的結合,Facebook的系統已經擊敗了一些人類選手。
不過,DeepMind在此基礎上更進一步。在學習了3000萬步人類選手的圍棋下法之後,這一神經網路預測人類選手下一步走法的准確率達到57%,遠高於之前的44%。隨後,哈薩比斯及其團隊對這一神經網路進行了小幅調整,使其與自己對弈,這種做法被稱作增強學習。在這一過程中,神經網路可以了解,什麼樣的走法能帶來最好的結果。

DeepMind研究員大衛·希維爾(David Silver)表示:「通過在神經網路之間進行數百萬局的對弈,AlphaGo學會自己發現新策略,並逐步改進。」
希維爾表示,這使得AlphaGo能勝過其他圍棋軟體,包括Crazystone。隨後,研究人員將結果輸入至另一個神經網路。在首先判斷對手的下一步行動之後,這一神經網路能利用同樣的技巧去預判每一步的結果。這與「深藍」等較老的系統類似,而不同之處在於AlphaGo能在過程中進行學習,並分析更多數據,不再使用暴力計算的方法去判斷所有可能的結果。通過這種方式,AlphaGo不僅能勝過當前的人工智慧系統,還能擊敗人類高手。
專用晶元
與大部分先進的神經網路類似,DeepMind的系統運行在基於GPU(圖形處理晶元)的計算機上。GPU最初的設計目的是游戲和其他圖像應用的圖形渲染,但近年來研究表明,這類晶元也非常適合深度學習技術。哈薩比斯表示,DeepMind的系統在配備多個GPU晶元的單台計算機上有著相當好的表現,但為了挑戰樊麾,研究人員搭建了更龐大的計算機網路,其中包括170塊GPU卡和1200個標准CPU處理器。這一龐大的計算機網路對AlphaGo進行了訓練,並參與了比賽。
哈薩比斯表示,在與李世石的比賽中,AlphaGo將採用同樣的硬體配置。目前,他們正在持續改進這一人工智慧系統。為了准備與李世石的比賽,他們還需要互聯網連接。哈薩比斯表示:「我們正在安裝自己的光纜。」
庫洛姆和其他一些專家指出,與李世石的比賽將更困難。不過,庫洛姆已經下注DeepMind。過去10年中,他一直希望開發出能勝過頂尖圍棋高手的系統,他認為,這一系統現在就在這里。他表示:「我正在購買一些GPU。」
未來之路
AlphaGo的重要性不言而喻。這一技術不僅可以應用於機器人和科學研究,也適合其他許多任務,例如類似Siri的移動語音助手以及金融投資決策。深度學習創業公司Skymind創始人克里斯·尼克爾森(Chris Nicholson)表示:「你可以將其用於任何具有對抗性的問題,例如需要用到策略的各種比賽,以及戰爭和商業交易。」
對一些人來說,這種情況令人擔憂,尤其考慮到DeepMind的系統已經有能力自學圍棋。AlphaGo的學習素材並不來自人類,而是可以通過自行生成數據來自我指導。近幾個月,特斯拉創始人伊隆·馬斯克(Elon Musk)等知名人士曾表示,這樣的人工智慧系統最終將超越人類智力,突破人類的控制。
不過,DeepMind的系統受到了哈薩比斯及其團隊的嚴格控制。AlphaGo被用於最復雜的棋類游戲,但這仍只是一款游戲。實際上,AlphaGo距離真正的人類智慧還有遙遠的距離,遠遠沒有達到超級智能的水平。
華盛頓大學專注於人工智慧的法學教授、科技政策實驗室創始人瑞安·卡洛(Ryan Calo)表示:「這仍是一種高度結構化的情況,並非真正人類水平的理解力。」不過,AlphaGo指明了未來的方向。如果DeepMind的人工智慧系統能理解圍棋,那麼就能理解更多信息。卡洛表示:「宇宙只不過是一場更大的圍棋游戲。」

⑷ Google 人工智慧首次完勝人類圍棋冠軍 為什麼很厲害

Google DeepMind 團隊在最新一期《Nature》上發表論文稱,其名為 「阿爾法圍棋」()的人工智慧,在沒有任何讓子的情況下以 5:0 完勝歐洲冠軍、職業圍棋二段樊麾。

在計算機的發展史,在國際象棋比賽中,計算機戰勝人類是重要歷史事件,過去了這么多年,人工智慧戰勝圍棋冠軍又怎麼說明谷歌AI很牛呢?
圍棋,一直被認為是人類仍然在機器面前能保持優勢的游戲之一。過去20多年來,科技家們一直在試著教會電腦下棋,在1997年,IBM的深藍曾經打敗了國際象棋的世界冠軍Garry Kasparov,這成為了人工智慧的一座里程碑事件。但是,圍棋比國際象棋還是要復雜得多,國際象棋中,平均每回合有35種可能,一盤棋可以有80回合;相比之下,圍棋每回合有250種可能,一盤棋可以長達150回合。
在下國際象棋的時候,計算機可以分析出每一個可能的步驟,從而進行最優選擇,但是,圍棋可能的步驟是國際象棋的10倍之多。這也正是圍棋人工智慧的難點所在。
在過去很長時間里,最好的計算機連厲害點的業余圍棋棋手都下不過。所以,去年,Facebook就開始打造圍棋人工智慧,並且在過去6個月里讓它可以用最快0.1秒的速度來落子。負責這項目的人,就坐在里扎克伯格20英尺遠的地方。但是,Google還是快一步。
這場比賽實際上發生在去年十月,但是知道今天,它才在《自然》雜志中披露出來。
David Silver是這項研究的第一作者,在他看來,阿爾法Go的關鍵不在於簡單粗暴的計算出可能步驟,而是近似於人類的「想像力」。這背後是名為一項名為「深度學習」的大殺器,它讓計算機不再是簡單地使用計算能力來統計所有數據,而是像人類一樣,訓練,然後學習。Silver說,計算機「下圍棋需要的極復雜的直覺機制,這種機制以前我們認為只可能存在於人類大腦中。」
阿爾法Go用了多種「神經網路」並行,並且相互作用。其中,一個叫做「值網路」(value network),來衡量白字和黑子在棋盤上的位置,一個叫做「策略網路」(「policy network」 ),會不斷地學習此前人類和自己的落子,來選擇接下來怎麼下。
不僅僅比人類、比起其他機器人同類,阿爾法Go也更加強大。它和其他人工智慧下了500場圍棋,只輸了1場,甚至在給對手讓子的情況下,它也照贏不誤。而Silver說,它比其他人工智慧更先進的地方,就在於可以自我學習。而且,這種機制不僅僅可以用在圍棋學習中,阿爾法Go還可以用來解決很多現實問題,比如處理氣候模型等。
據消息稱,Google的「阿爾法Go」V和現在的圍棋世界冠軍李世石 (Lee Sedol),將在今年三月正式進行比賽。在圍棋這個古老的、幾乎代表了人類智力巔峰的游戲上,機器人和人類究竟誰更強大,答案很快就會揭曉。

⑸ 從深藍到「阿法狗」,人工智慧進步了多少

自AlphaGo以5:0戰勝樊麾,又登上《自然》封面後,越來越多的人開始了解的人工智慧機器AlphaGo。姚晨等明星對於「人機大戰」的關注更是使其家喻戶曉。近日「阿法狗」又4:1戰勝職業圍棋選手李世石,躋身世界圍棋排名第四位,攻下了人類最後的驕傲——圍棋。
1997年是人類第一次敗給人工智慧,深藍以2勝1負3平戰勝國際象棋第一名卡斯帕羅夫。
深藍所運用的戰術是「蠻算」。它運用並行計算系統,有32個微處理器,可同時執行多個指令,以提高計算速度來解決大型復雜的計算問題。97年時深藍已經可以預測到12步之後,而卡斯帕羅夫只能預測到10步之後。憑借快速而又復雜的運算,深藍贏得了國際象棋世界第一的位置。
深藍說來並不算非常智能,但IBM公司的另一個超級電腦,深藍的同門師弟沃森則算是比較智能了。
沃森致力於深度自然語言處理技術的研究,建立與人類回答問題水平相當的計算系統。沃森也像深藍一樣輸入存儲了很多數據,但沃森具有邏輯推理的程序,可以推理出它認為最正確的答案。
與師兄相同,沃森也曾擊敗人類冠軍。沃森參加了智力問答節目《危險邊緣》對戰兩位人類冠軍且輕松取勝。不僅是由於沃森存儲了大量的數據,它可以在3秒內搜索上百萬條信息並用人類的語言來輸出處理結果,而且可以分析題目的含義,諷刺語氣等。還能根據自己的情況,擅長領域,對手實力等情況分析是否要選擇搶答。
但現有的人工智慧多是對於人類直觀思維的模擬研究,沃森就很難理解語言中的微妙含義,對於輸入的俚語等內容常分析錯誤導致濫用,堅持「中文屋」的哲學家塞爾認為沃森與其他電腦一樣,只能處理文字元號,並不能真正理解他們的含義。
深藍是做大規模的計算,是人類數學能力的體現,沃森是語言處理做到理解輸出人類語言的程度。家喻戶曉的阿法狗則是機器學習。
圍棋AI一直發展不順利,較強的業余選手都無法打敗,國際象棋中,平均每回合有35種可能,一盤棋可以有80回合;相比之下,圍棋每回合有361種落子,一盤棋可以長達150回合。這使得圍棋無法運用復雜的計算來獲勝。
阿法狗則選擇了模擬人類大師下棋。阿法狗有兩個「大腦」,通過「價值網路」來評估局勢,通過「策略網路」來選擇落子。「價值網路」主要是通過計算來評估預測贏棋的可能性,「策略網路」則包括對於大師棋局的學習,模擬。
深藍與阿法狗的不同正在於此,深藍只是計算評估,阿法狗卻可以通過對現有棋局的輸入來判斷各種情況下最適合的落子位置,再加以上萬次的自我對弈來強化學習,這也是許多人評價阿法狗和李世石的棋局中偶爾出現的具有前輩大師風范的落子出現的原因。
阿法狗的學習能力之強也讓許多人驚訝不已。在阿法狗剛剛戰勝樊麾時,當前世界排名第一的天才圍棋少年柯潔便感嘆在不清楚哪一方是AI的情況下根本看不出來與人類下棋風格有任何區別。當時柯潔認為阿法狗已經達到了高於業余略低於職業水平的階段,但今年阿法狗對戰職業九段選手李世石時卻以4:1完勝。僅僅幾個月卻提高了這么多,是普通人幾年甚至幾十年也做不到的。
阿法狗「大腦」所使用的神經網路也是對於人類的一個模擬,模擬人類的直覺思維,其特色在於信息的分布式存儲和並行協同處理。雖然單個神經元的結構極其簡單,功能有限,但大量神經元構成的網路系統所能實現的行為卻是極其豐富多彩的。和人的神經系統相似,小個體聚集起來卻擁有復雜的功能。
阿法狗也有不擅長的,例如在與李世石對戰的五局之中,第三局才使用了一次「打劫」,十棋七劫,大師級別的棋局裡沒有出現「打劫」的情況是非常少見的,阿法狗卻連續兩局避免打劫,李世石沒用自己管用的「打劫」可能是因為打劫是需要計算之後的情況的,自認為算不過電腦而放棄。阿法狗不用卻是AI並不完美的原因。打劫主要依靠人的邏輯判斷,對於人類來說是一件簡單易理解的事情,對於AI來說邏輯是相當復雜的,需要在每一次都考慮打劫問題而使運算量翻很多倍,於是阿法狗盡量避免考慮打劫問題。
阿法狗的成功也讓許多人擔心會出現奴役人類的「天網」一樣的強人工智慧,而從深藍到「阿法狗」,人工智慧進步了多少?反對繼續發展AI。但目前的AI都是弱人工智慧,且都需要人工干預,並不能像人腦一樣獨立的輸入,處理,輸出數據。而且神經網路也是在模擬人類的直觀思維,抽象思維和直覺方面暫無研究,還有人類最復雜的情感也無從下手,對於自己大腦都只是一知半解的我們還無法涉足強人工智慧領域,至於擁有自我保護意識,反抗人類等情感的AI,應當是不會出現的吧。當一個AI完全獨立,不需要人工干預還可以干預人類生活時,它便需要考慮耗能問題了。我們總是長胖容易減肥難,胰島素分泌的同時胰高血糖素立刻停止分泌,方便多儲存能量,胰高血糖素分泌時,胰島素也同時分泌,來以防消耗的糖類過多,這些都是身體希望多儲存能量以供消耗。當AI需要考慮耗能問題時,估計就不會想要費很大力氣去壓迫消滅發展進化很多年同樣很智能的人類了。反正如果我是需要考慮耗能的強人工智慧,我一定節省能量不去做這種「中二」的事。

⑹ 圍棋「深藍」會產生嗎

阿爾法狗(AlphaGo)是第一個擊敗人類職業圍棋選手、第一個戰勝圍棋世界冠軍的人工智慧程序,

⑺ 列舉兩個現在已經出現的人工智慧例子

深藍——國際象棋
阿爾法狗——圍棋

⑻ 谷歌的圍棋智能和微軟小冰哪個技術上比較厲害

在計算機的發展史,在國際象棋比賽中,計算機戰勝人類是重要歷史事件,過去了這么多年,人工智慧戰勝圍棋冠軍又怎麼說明谷歌AI很牛呢?圍棋,一直被認為是人類仍然在機器面前能保持優勢的游戲之一。過去20多年來,科技家們一直在試著教會電腦下棋,在1997年,IBM的深藍曾經打敗了國際象棋的世界冠軍GarryKasparov,這成為了人工智慧的一座里程碑事件。但是,圍棋比國際象棋還是要復雜得多,國際象棋中,平均每回合有35種可能,一盤棋可以有80回合;相比之下,圍棋每回合有250種可能,一盤棋可以長達150回合。在下國際象棋的時候,計算機可以分析出每一個可能的步驟,從而進行最優選擇,但是,圍棋可能的步驟是國際象棋的10倍之多。這也正是圍棋人工智慧的難點所在。在過去很長時間里,最好的計算機連厲害點的業余圍棋棋手都下不過。所以,去年,Facebook就開始打造圍棋人工智慧,並且在過去6個月里讓它可以用最快0.1秒的速度來落子。負責這項目的人,就坐在里扎克伯格20英尺遠的地方。但是,Google還是快一步。這場比賽實際上發生在去年十月,但是知道今天,它才在《自然》雜志中披露出來。DavidSilver是這項研究的第一作者,在他看來,阿爾法Go的關鍵不在於簡單粗暴的計算出可能步驟,而是近似於人類的「想像力」。這背後是名為一項名為「深度學習」的大殺器,它讓計算機不再是簡單地使用計算能力來統計所有數據,而是像人類一樣,訓練,然後學習。Silver說,計算機「下圍棋需要的極復雜的直覺機制,這種機制以前我們認為只可能存在於人類大腦中。」阿爾法Go用了多種「神經網路」並行,並且相互作用。其中,一個叫做「值網路」(valuenetwork),來衡量白字和黑子在棋盤上的位置,一個叫做「策略網路」(「policynetwork」),會不斷地學習此前人類和自己的落子,來選擇接下來怎麼下。不僅僅比人類、比起其他機器人同類,阿爾法Go也更加強大。它和其他人工智慧下了500場圍棋,只輸了1場,甚至在給對手讓子的情況下,它也照贏不誤。而Silver說,它比其他人工智慧更先進的地方,就在於可以自我學習。而且,這種機制不僅僅可以用在圍棋學習中,阿爾法Go還可以用來解決很多現實問題,比如處理氣候模型等。

⑼ 為什麼IBM在開發了深藍以後就沒開發其他人工智慧了呢 如果像英特爾這樣的的公司如果倒下會怎樣呢

現在人工來智能的發展沒你想像源的那麼快,無論是深藍還是之前大熱的阿爾法狗,都只不過在賣弄計算能力。。

比如深藍,它可以一秒鍾預測十萬步國際象棋,可以正確推斷出對手接下來的十二步棋和對付的套路,而作為它的對手國際象棋大師,只能預測接下來的七到八步棋,所以深藍贏了。。。
再說阿爾法狗,這玩意能一秒運算十億步棋,主要是圍棋。。。而它對手,一來第一次對陣這種計算高手,二來自身壓力較大。。。出現失誤較多。。。所以輸了。。阿爾法狗的優勢在於從不出錯。。。而會下圍棋的人都知道,兩人棋力相當,下互先局,勝敗基本是五十五十。。而阿爾法狗下的也是互先,打出四勝一敗。。。只能算互先局中有優勢。。真正要力壓人類,需要在讓先的對局中全勝或者打平。。圍棋的對局分為互先(旗鼓相當),先讓先(差一檔),讓先(差兩檔),先讓先(送X子。。。這鍾屬於完全壓制)阿爾法狗只是在旗鼓相當的情況下有優勢而已。。

總結來說,人工智慧,還有很長的路要走,要看到黑客帝國真人版或者未來戰士真人版這種等級的AI,估計兒子的兒子都不一定能看到