⑴ 什麼是人工智慧發展過程中經歷了哪些階段

1、人工智慧(Artificial Intelligence),英文縮寫為AI。它是研究、開發用於模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。

2、一開始是圖靈提出的概念:機器人是否會思考
然後就被擱在一邊了,直到神經網路結構的提出,又火了一段時間,然後因為隱層訓練規則不明所以又被擱一邊了;
在接下來有人解決了隱層訓練問題,又一下子活躍起來了,大概活躍到了上世紀70年代,劃時代的SVM提出來了,至此機器學習從以仿生為主正式轉為以統計學為主;
接下來是1995年AdaBoost演算法提出,實現了多分類器的級聯,又把分類效果提升了一個等級;
最後就是06年深度學習概念提出,現在看來效果很不錯,接近甚至超過人分類效果了;
總的來說就是一開始人們想用計算機做一個大腦出來,經過幾十年摸索發現不現實,最後發現可以用統計學大數據來解決。

⑵ 人工智慧的演進

第一階段:50年代人工智慧的興起和冷落人工智慧概念首次提出後,相繼出現了一批顯著的成果,如機器定理證明、跳棋程序、通用問題s求解程序LISP表處理語言等。但由於消解法推理能力的有限,以及機器翻譯等的失敗,使人工智慧走入了低谷。這一階段的特點是:重視問題求解的方法,忽視知識重要性。
第二階段:60年代末到70年代,專家系統出現,使人工智慧研究出現新高潮DENDRAL化學質譜分析系統、MYCIN疾病診斷和治療系統、PROSPECTIOR探礦系統、Hearsay-II語音理解系統等專家系統的研究和開發,將人工智慧引向了實用化。並且,1969年成立了國際人工智慧聯合會議(即IJCAI)。
第三階段:80年代,隨著第五代計算機的研製,人工智慧得到了很大發展日本1982年開始了「第五代計算機研製計劃」,即「知識信息處理計算機系統KIPS」,其目的是使邏輯推理達到數值運算那麼快。雖然此計劃最終失敗,但它的開展形成了一股研究人工智慧的熱潮。
第四階段:80年代末,神經網路飛速發展1987年,美國召開第一次神經網路國際會議,宣告了這一新學科的誕生。此後,各國在神經網路方面的投資逐漸增加,神經網路迅速發展起來。
第五階段:90年代,人工智慧出現新的研究高潮由於網路技術特別是國際互連網技術的發展,人工智慧開始由單個智能主體研究轉向基於網路環境下的分布式人工智慧研究。不僅研究基於同一目標的分布式問題求解,而且研究多個智能主體的多目標問題求解,將人工智慧更面向實用。另外,由於Hopfield多層神經網路模型的提出,使人工神經網路研究與應用出現了欣欣向榮的景象。人工智慧已深入到社會生活的各個領域。

⑶ 第二次AI浪潮中的技術支撐是

人工智慧發展的第1次熱潮,從1956年一直持續到70年代前期。這一時期研發的專家系統等人工智慧系統,因受到計算機處理性能的制約,只能處理一定數量的規則,並且是在特定的領域、特定的環境下才能夠發揮作用。

人們在對人工智慧充滿期待的同時,對研發出來的缺乏實用性的系統也充滿了失望,因此,國家以及企業在人工智慧方面的預算也越來越少。這一時期,也就是20世紀70年代後期被稱為人工智慧發展的「 第1次低谷」。

但是,進入20世紀80年代後,人工智慧很快再次迎來了新的發展熱潮。

本次發展熱潮的主角是在第1次發展熱潮時誕生的專家系統。因處理美國迪吉多公司(DEC)的VAX系統的各種訂單並取得非常成功的專家系統受到廣泛關注,各IT供應商迅速導入專家系統。

人工智慧發展迎來第2次熱潮,最大的一個原因在於計算機性能的大幅提高。進入20世紀80年代,基於復雜規則的專家系統也可以在計算機上運行。由此,逐漸實現了專家系統的商業性使用。

隨著專家系統的興盛,制定專家系統運行規則的工程師也被稱為「知識工程師」,並且一時間成為炙手可熱的職業,就像在今天,數據科學家這個職業相當流行,受到人們的追捧。

知識工程師的主要工作是聽取用戶的業務內容並對其進行分析,從中抽出明顯的規則與隱藏的規則,然後進行分類。

當時,科學家們研發出了各種專家系統。初期的各種專用專家系統大都是利用LISP編程,隨著技術的革新,慢慢地發生了變化,通用的引擎部分依然利用LISP編程,規則部分則是知識工程師利用外部數據進行編程。並且,用LISP編程的引擎部分,利用C語言進行編程的開發研究也已經展開了。

專家系統的編程由專用LISP語言向普通的C語言過渡,該系統也變成了一般的程序員編寫的一般系統,其新意也就逐漸淡化了。

由此,專家系統也就從人工智慧程序變成了決定論式的普通程序。隨著這一變化,專家系統的作用效果也變得非常明確,但是其發展瓶頸也開始顯現出來。


⑷ 人工智慧的發展可分為幾個階段

說起當下熱議的人工智慧,不得不提到風光無二的AlphaGo。戰勝世界圍棋冠軍李世石,引起了人類對人工智慧的興趣。而人工智慧的概念,其實早有提出。

3)1993年-至今

之後以神經網路技術為代表的AI技術逐步發展,人工智慧開始進入緩慢發展期。1997年深藍戰勝國際象棋世界冠軍卡斯帕羅夫,使得AI再次被熱議。而隨著現在科技的快速發展,硬體成本不斷降低,數據量積累不斷增大,AI技術不斷成熟,人工智慧又開始進入爆發期。各種人工智慧產品開始如雨後春筍,不斷的發展壯大起來。

⑸ 如何看待九成AI企業虧損,人工智慧遭遇商業落地之痛

‍‍不可否認的是,人工智慧的未來必然會很美好。但是人工智慧更偏向於輔助手段,只能是一種新動能,而不是最不可或缺的驅動力。而且,很多人工智慧技術比較尷尬,雖然技術領先但卻並沒有適合的具體場景。如果不能解決商業落地的問題,或許還會再次遭遇低谷。這對於整個人工智慧行業來說,打擊是致命的。在投入不斷增加卻始終不見回報的情況下,又有多少企業能堅持下去呢?‍‍

⑹ 人工智慧到目前為止經歷怎樣的發展歷程

我們大腦由200多億個神經元相互連接組成一個龐大的神經網結構,這是智能的基礎——高度復雜的結構;因此要想計算機模擬智能,必須在復雜度上要跟人的大腦的復雜度數量級上要相當,如果用一個位元組來模擬一個神經元,那麼就會有20G的容量,但事實上1位元組的容量能儲存一個神經元(包括與周圍神經元的連接狀態,一個神經元可能會與周圍幾百個神經元有鏈接)的信息嗎?答案是不行的!即使就算是20G,這只是儲存而已,還沒運算,一但運算這20G的數據,能模擬的了嗎?人思考一秒大腦的數據就已經發生了巨大的變化,計算機能一秒處理20G的數據嗎?很難!另一方面,智能的體現不僅僅是高度復雜的結構就行得通的,還得看結構的高度有序,虎鯨2000億神經元,人類860億(包括全身),為什麼智能反而是倒過來的,因為人類的神經結構更加發達,更加有序,更加優化,這么優秀的神經網路結構怎麼來的,是千百萬年甚至上億年的進化而來的,用另一種說法就是,人的進化史上的閱歷更豐富,是閱歷改變了神經結構,想要重蹈這些閱歷是不可能的,因此對人工智慧的訓練是個難點。綜上所述,個人認為目前人工智慧的兩大艱難,一個是硬體技術水平上無法實現龐大的計算量,另一個是無法把人工智慧訓練到接近人的水平。

⑺ 人工智慧發展的兩次低谷都是因為什麼

人工智慧發展的兩次低谷都是因為(演算法的局限性)。

⑻ 人工智慧第二次繁榮是什麼時候

現在屬於早起,算是第一次,但是第二次估計在未來五年之內的,因為科技的發展是非常的快速的!

⑼ 人工智慧分為幾個階段

歷史上,人工智慧的研究就像是坐過山車,忽上忽下。夢想的泡沫反復破滅,卻也推動著人工智慧技術的前進。
(1)AI夢的開始
1900年,世紀之交的數學家大會上面,希爾伯特宣布了數學界尚未解決的23個難題。
三十年代,圖靈設想出了一個機器——圖靈機,它是計算機的理論原型,圓滿地刻畫出了機械化運算過程的含義,並最終為計算機的發明鋪平了道路。
1945年,憑借出眾的才華,馮·諾依曼在火車上完成了早期的計算機EDVAC的設計,並提出了我們現在熟知的「馮·諾依曼體系結構」。

(2)AI夢的延續
1956年8月,在美國漢諾斯小鎮寧靜的達特茅斯學院中,約翰·麥卡錫(John McCarthy)、馬文·閔斯基(Marvin Minsky,人工智慧與認知學專家)、克勞德·香農(Claude Shannon,資訊理論的創始人)、艾倫·紐厄爾(Allen Newell,計算機科學家)、赫伯特·西蒙(Herbert Simon,諾貝爾經濟學獎得主)等科學家正聚在一起,討論著一個完全不食人間煙火的主題:用機器來模仿人類學習以及其他方面的智能。
會議足足開了兩個月的時間,雖然大家沒有達成普遍的共識,但是卻為會議討論的內容起了一個名字:人工智慧。
(3)AI夢的快速發展
1976年,凱尼斯·阿佩爾(Kenneth Appel)和沃夫岡·哈肯(Wolfgang Haken)等人利用人工和計算機混合的方式證明了一個著名的數學猜想:四色猜想(現在稱為四色定理)。
1956年,奧利弗·薩爾夫瑞德(Oliver Selfridge)研製出第一個字元識別程序,開辟了模式識別這一新的領域。

(4)近些年AI的突破
2011年,谷歌X實驗室的研究人員從YouTube視頻中抽取出1000萬張靜態圖片,把它喂給「谷歌大腦」——一個採用了所謂深度學習技術的大型神經網路模型,在這些圖片中尋找重復出現的模式。三天後,這台超級「大腦」在沒有人類的幫助下,居然自己從這些圖片中發現了「貓」。
2013年1月,網路公司成立了網路研究院,其中,深度學習研究所是該研究院旗下的第一個研究所。
這些全球頂尖的計算機、互聯網公司都不約而同地對深度學習表現出了極大的興趣。