人工智慧方法與傳統程序不同點
1. 人工智慧的編程和一般的計算機編程有什麼不同
人工智慧編程語言是一類適應於人工智慧和知識工程領域的、具有符號處理和邏輯推理能力的計算機程序設計語言。能夠用它來編寫程序求解非數值計算、知識處理、推理、規劃、決策等具有智能的各種復雜問題。
人工智慧編程語言有一個共同的特點,那就是這些語言都是面向所要解決的問題、結合知識表示、完全脫離當代計算機的諾依曼結構特性而獨立設計的;它們又處於比面向過程的高級編程語言更高的抽象層次。因此,用這些語言編寫的程序,在現代計算機環境中,無論是解釋或編譯執行,往往效率很低。尤其當程序規模很大、很復雜時,將浪費大量系統資源(主要指處理機佔用時間和存儲空間佔用量),使系統性能下降到難以容忍的地步。
2. 人工智慧和智能有什麼區別
電子類的智能是指:
具有全開放式平台,搭載了操作系統,在使用的同時,可自行安裝和卸載各類應用軟體,並對功能進行擴充和升級。
如各類智能手機、智能電視等。
人工智慧是計算機科學的一個分支,它企圖了解智能的實質,並生產出一種新的能以人類智能相似的方式做出反應的智能機器,該領域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統等。
主要區別就是智能產品不「機械」可供人有選擇地訂制、應用;人工智慧代替人的部分勞動。
(參考網路)
3. 簡答題 1.人工智慧方法與傳統程序的不同有哪些
人工智慧學科研究的主要內容包括:知識表示、自動推理和搜索方法、機器學習和知識獲取、知識處理系統、自然語言理解、計算機視覺、智能機器人、自動程序設計等方面。
4. 強人工智慧與通用人工智慧有什麼本質區別
1、強人工智慧和弱人工智慧
人工智慧的一個比較流行的定義,也是該領域較早的定義,是由當時麻省理工學院的約翰·麥卡錫在1956年的 達特矛斯會議上提出的:人工智慧就是要讓機器的行為看起來就像是人所表現出的智能行為一樣。但是這個定義似乎忽略了強人工智慧的可能性。另一個定義指人工智慧是人造機器所表現出來的智能。總體來講,目前對人工智慧的定義大多可劃分為四類,即機器「像人一樣思考」、「像人一樣行動」、「理性地思考」和「理性地行動」。這里「行動」應廣義地理解為採取行動,或制定行動的決策,而不是肢體動作。
2、強人工智慧
強人工智慧觀點認為有可能製造出真正能推理和解決問題的智能機器,並且,這樣的機器能將被認為是有知覺的,有自我意識的。強人工智慧可以有兩類:類人的人工智慧,即機器的思考和推理就像人的思維一樣。非類人的人工智慧,即機器產生了和人完全不一樣的知覺和意識,使用和人完全不一樣的推理方式
3、弱人工智慧
弱人工智慧觀點認為不可能製造出能真正地推理和解決問題的智能機器,這些機器只不過看起來像是智能的,但是並不真正擁有智能,也不會有自主意識。
弱人工智慧是對比強人工智慧才出現的,因為人工智慧的研究一度處於停滯不前的狀態下,直到類神經網路有了強大的運算能力加以模擬後,才開始改變並大幅超前。但人工智慧研究者不一定同意弱人工智慧,也不一定在乎或者了解強人工智慧和弱人工智慧的內容與差別,對定義爭論不休。
就現下的人工智慧研究領域來看,研究者已大量造出看起來像是智能的機器,獲取相當豐碩的理論上和實質上的成果,如2009年康乃爾大學教授Hod Lipson 和其博士研究生Michael Schmidt 研發出的 Eureqa計算機程序,只要給予一些數據,這計算機程序自己只用幾十個小時計算就推論出牛頓花費多年研究才發現的牛頓力學公式,等於只用幾十個小時就自己重新發現牛頓力學公式,這計算機程序也能用來研究很多其他領域的科學問題上。這些所謂的弱人工智慧在神經網路發展下已經有巨大進步,但對於要如何集成成強人工智慧,現在還沒有明確定論。
4、對強人工智慧的哲學辯論
關於強人工智慧的爭論,不同於更廣義的一元論和二元論的爭論。其爭論要點是:如果一台機器的唯一工作原理就是轉換編碼數據,那麼這台機器是不是有思維的?希爾勒認為這是不可能的。他舉了個中文房間的例子來說明,如果機器僅僅是轉換數據,而數據本身是對某些事情的一種編碼表現,那麼在不理解這一編碼和這實際事情之間的對應關系的前提下,機器不可能對其處理的數據有任何理解。基於這一論點,希爾勒認為即使有機器通過了圖靈測試,也不一定說明機器就真的像人一樣有思維和意識。
需要指出的是,弱人工智慧並非和強人工智慧完全對立,也就是說,即使強人工智慧是可能的,弱人工智慧仍然是有意義的。至少,今日的計算機能做的事,像算術運算等,在一百多年前是被認為很需要智能的。並且,即使強人工智慧被證明為可能的,也不代表強人工智慧必定能被研製出來。
5. 什麼是人工智慧人工智慧與計算機程序的區別
普通的計算機程序,邏輯都是由人編寫在程序里的,計算機只負責執行。而人工智慧需要計算機自己通過對數據的分析找到邏輯,人只提供數據不提供邏輯。
6. 人工智慧處理器和傳統處理器的區別
人工智慧技術需要圖形處理器而非傳統英特爾晶元的原因是,圖形處理器更適合處理並行任務。一個圖形處理器集成有數百個不同的運算內核,英特爾至強晶元集成
7. 人工智慧和一般的計算機程序最大區別是什麼
人工智慧 是通過後者來實現的,人工智慧的核心是程序,是演算法
人工智慧目前還遠達不到智能生命的程度,1是不夠智能 2是還不算生命
但是我覺得未來是有可能達到這個程度的,多看一些科幻作品就更加堅信了
怎麼達到高智能
阿法狗不到一年就把圍棋界各路好手碾壓了
人臉識別已經發展到逃犯在商場露個面就能被千里之外的網警抓到了
李彥宏的無人駕駛車已經可在5環上邊自己跑,邊放五環之歌了
這些都是人工智慧在單項領域的快速突破,短短時間就大有作為,未來在綜合方面,什麼時候能做出一個能像人一樣思考 會判斷各種條件做出各種反應的人,也不會太久吧
就像不會用火之前,我們在樹上和地上當了幾百萬年的猴子,沒有蒸汽機之前,我們當了幾千年的農民,沒有電腦之前,人類以為吃飽喝足就是活著的全部事情了
技術的突破,跨過臨界點後,改變世界就都是一瞬間
怎麼有生命
當一個機器人,智商高到可以不用靠人類而生存下去時候,他就成了生命(他腦子里有各種對付人類想掐斷他能源的方法,各種復制繁殖自己的方法,當然這些方法可能是我們給他編的演算法,也可能是他自己學習後領悟的)
他就可以說,以後是我們硅基生命的天下了 我們已經不需要你們這些碳基生命了
人類何去何從就不清楚了
所以到時候就得看 人類要把這個人工智慧控制在什麼范圍,能否控制住了
8. 人工智慧語言的人工智慧語言與傳統語言的區別
人們可能會問,用人工智慧語言解決問題與傳統的方法有什麼區別呢?
傳統方法通常把問題的全部知識以各種的模型表達在固定程序中,問題的求解完全在程序制導下按著預先安排好的步驟一步一步(逐條)執行。解決問題的思路與馮.諾依曼式計算機結構相吻合。當前大型資料庫法、數學模型法、統計方法等都是嚴格結構化的方法。
對於人工智慧技術要解決的問題,往往無法把全部知識都體現在固定的程序中。通常需要建立一個知識庫(包含事實和推理規則),程序根據環境和所給的輸入信息以及所要解決的問題來決定自己的行動,所以它是在環境模式的制導下的推理過程。這種方法有極大的靈活性、對話能力、有自我解釋能力和學習能力。這種方法對解決一些條件和目標不大明確或不完備,(即不能很好地形式化,不好描述)的非結構化問題比傳統方法好,它通常採用啟發式、試探法策略來解決問題。
人工智慧程序與傳統程序之間的差別
在處理一些簡單問題時,一般傳統方法和人工智慧用的方法沒有什麼區別。但在解決復雜問題時,人工智慧方法與傳統方法有差別。 人工智慧方法:人工智慧要解決的問題,無法把全部知識都體現在固定的程序中。它要建立一個知識庫(包含事實和推理規則),程序根據環境和所給的輸入信息以及所要解決的問題來決定自己的行動,所以它是在環境模式的制導下的推理過程。這種方法有極大的靈活性、對話能力、有自我解釋能力和學習能力。這種方法對解決一些弱結構(ill structured)問題比傳統方法好。弱結構指「x」、「y」不大明確或不完備,即不能很好地形式化,不好描述。「->」用試探法。AI也尚未發展到完全能解決這類問題的全部問題。這類問題是AI研究要解決的問題。隨之而來也希望計算機硬體結構也來一個革命,突破馮.諾依曼體系結構。
9. 神經元計算與人工智慧傳統計算有什麼不同
出發點不同,所以側重點也不同,神經元模擬的是人類神經組織運算機制,在晶元電路設計上和傳統AI就有很大的區別,神經元又是AI的一個研究分類
10. 人工智慧,機器學習,深度學習,到底有何區別
有人說,人工智慧(AI)是未來,人工智慧是科幻,人工智慧也是我們日常生活中的一部分。這些評價可以說都是正確的,就看你指的是哪一種人工智慧。
今年早些時候,Google DeepMind的AlphaGo打敗了韓國的圍棋大師李世乭九段。在媒體描述DeepMind勝利的時候,將人工智慧(AI)、機器學習(machine learning)和深度學習(deep learning)都用上了。這三者在AlphaGo擊敗李世乭的過程中都起了作用,但它們說的並不是一回事。
今天我們就用最簡單的方法——同心圓,可視化地展現出它們三者的關系和應用。
人工神經網路(Artificial Neural Networks)是早期機器學習中的一個重要的演算法,歷經數十年風風雨雨。神經網路的原理是受我們大腦的生理結構——互相交叉相連的神經元啟發。但與大腦中一個神經元可以連接一定距離內的任意神經元不同,人工神經網路具有離散的層、連接和數據傳播的方向。
例如,我們可以把一幅圖像切分成圖像塊,輸入到神經網路的第一層。在第一層的每一個神經元都把數據傳遞到第二層。第二層的神經元也是完成類似的工作,把數據傳遞到第三層,以此類推,直到最後一層,然後生成結果。
每一個神經元都為它的輸入分配權重,這個權重的正確與否與其執行的任務直接相關。最終的輸出由這些權重加總來決定。
我們仍以停止(Stop)標志牌為例。將一個停止標志牌圖像的所有元素都打碎,然後用神經元進行「檢查」:八邊形的外形、救火車般的紅顏色、鮮明突出的字母、交通標志的典型尺寸和靜止不動運動特性等等。神經網路的任務就是給出結論,它到底是不是一個停止標志牌。神經網路會根據所有權重,給出一個經過深思熟慮的猜測——「概率向量」。
這個例子里,系統可能會給出這樣的結果:86%可能是一個停止標志牌;7%的可能是一個限速標志牌;5%的可能是一個風箏掛在樹上等等。然後網路結構告知神經網路,它的結論是否正確。
即使是這個例子,也算是比較超前了。直到前不久,神經網路也還是為人工智慧圈所淡忘。其實在人工智慧出現的早期,神經網路就已經存在了,但神經網路對於「智能」的貢獻微乎其微。主要問題是,即使是最基本的神經網路,也需要大量的運算。神經網路演算法的運算需求難以得到滿足。
不過,還是有一些虔誠的研究團隊,以多倫多大學的Geoffrey Hinton為代表,堅持研究,實現了以超算為目標的並行演算法的運行與概念證明。但也直到GPU得到廣泛應用,這些努力才見到成效。
我們回過頭來看這個停止標志識別的例子。神經網路是調制、訓練出來的,時不時還是很容易出錯的。它最需要的,就是訓練。需要成百上千甚至幾百萬張圖像來訓練,直到神經元的輸入的權值都被調製得十分精確,無論是否有霧,晴天還是雨天,每次都能得到正確的結果。
只有這個時候,我們才可以說神經網路成功地自學習到一個停止標志的樣子;或者在Facebook的應用里,神經網路自學習了你媽媽的臉;又或者是2012年吳恩達(Andrew Ng)教授在Google實現了神經網路學習到貓的樣子等等。
吳教授的突破在於,把這些神經網路從基礎上顯著地增大了。層數非常多,神經元也非常多,然後給系統輸入海量的數據,來訓練網路。在吳教授這里,數據是一千萬YouTube視頻中的圖像。吳教授為深度學習(deep learning)加入了「深度」(deep)。這里的「深度」就是說神經網路中眾多的層。
現在,經過深度學習訓練的圖像識別,在一些場景中甚至可以比人做得更好:從識別貓,到辨別血液中癌症的早期成分,到識別核磁共振成像中的腫瘤。Google的AlphaGo先是學會了如何下圍棋,然後與它自己下棋訓練。它訓練自己神經網路的方法,就是不斷地與自己下棋,反復地下,永不停歇。
|深度學習,給人工智慧以璀璨的未來
深度學習使得機器學習能夠實現眾多的應用,並拓展了人工智慧的領域范圍。深度學習摧枯拉朽般地實現了各種任務,使得似乎所有的機器輔助功能都變為可能。無人駕駛汽車,預防性醫療保健,甚至是更好的電影推薦,都近在眼前,或者即將實現。
人工智慧就在現在,就在明天。有了深度學習,人工智慧甚至可以達到我們暢想的科幻小說一般。你的C-3PO我拿走了,你有你的終結者就好了。