Ⅰ 貝葉斯網路主流工具軟體

目前國際上存在許多種 BN 處理工具,一般均同時支持多種圖模型處理。下面介紹幾種比較常見的 BN 工具軟體。

( 1) Hugin Expert: 該軟體包括一系列產品,自稱是基於 BN 的人工智慧領域的領航者,既可作為單個工具使用,也可集成到其他產品中使用。目前在軟體、醫學、工業、軍事、警容、信息處理以及農業等多個領域得到了廣泛應用。如用應用於 NOKIA 公司的移動網路故障診斷、醫學決策支持、隧道施工設計階段的決策支持、數據挖掘及風險評估等。

( 2) 微軟的 BBN( Microsoft Belief Networks) : 該軟體採用視窗界面,界面友好且操作簡單,並且提供了 API 介面,以供 VB 調用。缺點是用戶不能自主選擇概率推理演算法,且不提供結構學習功能,即不能從數據中學習建立 BN 模型。

( 3) Netica: 該軟體是加拿大 Norsys 軟體公司開發研製的圖模型處理工具。其主要特點是提供了圖形化的建模界面及概率參數展示界面,方便直觀且易於操作,並且提供了 API介面,供 Java 調用。缺點是用戶不能自主選擇概率推理演算法。

( 4) Ergo: 該軟體是由 Noetic 公司開發研製的可視化建模分析軟體,它功能單一且應用范圍較窄,主要用於專家系統的建立,對節點的個數和狀態空間的范圍都有一定程度上的限制。

( 5) BNJ: 是由肯尼索州立大學開發的開放源碼軟體,採用視窗界面,兼容其他 BN 建模軟體的文件格式,包括 Netica、Ergo、Hugin Expert、GeNie 等。支持精確推理和近似推理、結構學習和參數學習,並且提供了 API 介面供調用。該軟體最大的缺點是可操作性差,且幫助功能相對較弱。

( 6) GeNie 2. 0: 該軟體是匹茲堡大學決策系統實驗室( Decision Systems Laboratory,U-niversity of Pittsburgh) 開發研製的圖模型處理軟體。採用了圖形化建模界面,界面直觀,操作簡單,提供多種推理演算法,且支持結構學習和參數學習。該實驗室還用 VC + + 開發了API 介面 SmileX 和 Smile. net ,以供 VB、VC + + 、Java、C Sharp 等多種語言調用。

上述工具各有特點,本文選用了 GeNie 軟體及其提供的 Smile. net 軟體包,進行 BN 模型構建、BN 學習及推理等工作。圖 2. 1 為 GeNie 2. 0 軟體的主界面。

圖 2. 1 Genie2. 0 主界面

Ⅱ 動態貝葉斯網路推理學習理論及應用的內容簡介

動態貝葉斯網路理論是貝葉斯網路理論的延拓,研究內容涉及推理和學習兩大方面,該理論在人工智慧、機器學習、自動控制領域得到越來越廣泛的應用。本書首先從靜態網路的模型表達、推理及學習入手,進而針對動態貝葉斯網路推理演算法、平穩系統動態貝葉斯網路結構學習模型設計、非平穩系統動態網路變結構學習模型設計、基於概率模型進化優化動態貝葉斯網路結構尋優演算法、進化優化與動態貝葉斯網路混和優化等方面進行了討論,最終將推理及結構學習理論用於無人機路徑規劃、自主控制等方面。

Ⅲ 人工智慧,機器學習,深度學習,到底有何區別

有人說,人工智慧(AI)是未來,人工智慧是科幻,人工智慧也是我們日常生活中的一部分。這些評價可以說都是正確的,就看你指的是哪一種人工智慧。

今年早些時候,Google DeepMind的AlphaGo打敗了韓國的圍棋大師李世乭九段。在媒體描述DeepMind勝利的時候,將人工智慧(AI)、機器學習(machine learning)和深度學習(deep learning)都用上了。這三者在AlphaGo擊敗李世乭的過程中都起了作用,但它們說的並不是一回事。

今天我們就用最簡單的方法——同心圓,可視化地展現出它們三者的關系和應用。

人工神經網路(Artificial Neural Networks)是早期機器學習中的一個重要的演算法,歷經數十年風風雨雨。神經網路的原理是受我們大腦的生理結構——互相交叉相連的神經元啟發。但與大腦中一個神經元可以連接一定距離內的任意神經元不同,人工神經網路具有離散的層、連接和數據傳播的方向。

例如,我們可以把一幅圖像切分成圖像塊,輸入到神經網路的第一層。在第一層的每一個神經元都把數據傳遞到第二層。第二層的神經元也是完成類似的工作,把數據傳遞到第三層,以此類推,直到最後一層,然後生成結果。

每一個神經元都為它的輸入分配權重,這個權重的正確與否與其執行的任務直接相關。最終的輸出由這些權重加總來決定。

我們仍以停止(Stop)標志牌為例。將一個停止標志牌圖像的所有元素都打碎,然後用神經元進行「檢查」:八邊形的外形、救火車般的紅顏色、鮮明突出的字母、交通標志的典型尺寸和靜止不動運動特性等等。神經網路的任務就是給出結論,它到底是不是一個停止標志牌。神經網路會根據所有權重,給出一個經過深思熟慮的猜測——「概率向量」。

這個例子里,系統可能會給出這樣的結果:86%可能是一個停止標志牌;7%的可能是一個限速標志牌;5%的可能是一個風箏掛在樹上等等。然後網路結構告知神經網路,它的結論是否正確。

即使是這個例子,也算是比較超前了。直到前不久,神經網路也還是為人工智慧圈所淡忘。其實在人工智慧出現的早期,神經網路就已經存在了,但神經網路對於「智能」的貢獻微乎其微。主要問題是,即使是最基本的神經網路,也需要大量的運算。神經網路演算法的運算需求難以得到滿足。

不過,還是有一些虔誠的研究團隊,以多倫多大學的Geoffrey Hinton為代表,堅持研究,實現了以超算為目標的並行演算法的運行與概念證明。但也直到GPU得到廣泛應用,這些努力才見到成效。

我們回過頭來看這個停止標志識別的例子。神經網路是調制、訓練出來的,時不時還是很容易出錯的。它最需要的,就是訓練。需要成百上千甚至幾百萬張圖像來訓練,直到神經元的輸入的權值都被調製得十分精確,無論是否有霧,晴天還是雨天,每次都能得到正確的結果。

只有這個時候,我們才可以說神經網路成功地自學習到一個停止標志的樣子;或者在Facebook的應用里,神經網路自學習了你媽媽的臉;又或者是2012年吳恩達(Andrew Ng)教授在Google實現了神經網路學習到貓的樣子等等。

吳教授的突破在於,把這些神經網路從基礎上顯著地增大了。層數非常多,神經元也非常多,然後給系統輸入海量的數據,來訓練網路。在吳教授這里,數據是一千萬YouTube視頻中的圖像。吳教授為深度學習(deep learning)加入了「深度」(deep)。這里的「深度」就是說神經網路中眾多的層。

現在,經過深度學習訓練的圖像識別,在一些場景中甚至可以比人做得更好:從識別貓,到辨別血液中癌症的早期成分,到識別核磁共振成像中的腫瘤。Google的AlphaGo先是學會了如何下圍棋,然後與它自己下棋訓練。它訓練自己神經網路的方法,就是不斷地與自己下棋,反復地下,永不停歇。

|深度學習,給人工智慧以璀璨的未來

深度學習使得機器學習能夠實現眾多的應用,並拓展了人工智慧的領域范圍。深度學習摧枯拉朽般地實現了各種任務,使得似乎所有的機器輔助功能都變為可能。無人駕駛汽車,預防性醫療保健,甚至是更好的電影推薦,都近在眼前,或者即將實現。

人工智慧就在現在,就在明天。有了深度學習,人工智慧甚至可以達到我們暢想的科幻小說一般。你的C-3PO我拿走了,你有你的終結者就好了。

Ⅳ FLDA 是人工智慧演算法么全名中英文是啥啊

應該不是。

人工智慧之機器學習體系匯總

  • 監督學習 Supervised learning

  • Fisher的線性判別 Fisher』s linear discriminant

  • 線性回歸 Linear regression

  • Logistic回歸 Logistic regression

  • 多項Logistic回歸 Multinomial logistic regression

  • 樸素貝葉斯分類器 Naive Bayes classifier

  • 感知 Perceptron

  • 支持向量機 Support vector machine

  • 分類和回歸樹(CART) Classification and regression tree (CART)

  • 迭代Dichotomiser 3(ID3) Iterative Dichotomiser 3(ID3)

  • C4.5演算法 C4.5 algorithm

  • C5.0演算法 C5.0 algorithm

  • 卡方自動交互檢測(CHAID) Chi-squared Automatic Interaction Detection(CHAID)

  • 決策殘端 Decision stump

  • ID3演算法 ID3 algorithm

  • 隨機森林 Random forest

  • SLIQ

  • 樸素貝葉斯 Naive Bayes

  • 高斯貝葉斯 Gaussian Naive Bayes

  • 多項樸素貝葉斯 Multinomial Naive Bayes

  • 平均一依賴性評估(AODE) Averaged One-Dependence Estimators(AODE)

  • 貝葉斯信念網路(BNN) Bayesian Belief Network(BBN)

  • 貝葉斯網路(BN) Bayesian Network(BN)

  • 自動編碼器 Autoencoder

  • 反向傳播 Backpropagation

  • 玻爾茲曼機 Boltzmann machine

  • 卷積神經網路 Convolutional neural network

  • Hopfield網路 Hopfield network

  • 多層感知器 Multilayer perceptron

  • 徑向基函數網路(RBFN) Radial basis function network(RBFN)

  • 受限玻爾茲曼機 Restricted Boltzmann machine

  • 回歸神經網路(RNN) Recurrent neural network(RNN)

  • 自組織映射(SOM) Self-organizing map(SOM)

  • 尖峰神經網路 Spiking neural network

  • 人工神經網路 Artificial neural network

  • 貝葉斯 Bayesian

  • 決策樹 Decision Tree

  • 線性分類 Linear classifier

  • 無監督學習 Unsupervised learning

  • k-最近鄰演算法(K-NN) k-nearest neighbors classification(K-NN)

  • 局部異常因子 Local outlier factor

  • BIRCH

  • DBSCAN

  • 期望最大化(EM) Expectation-maximization(EM)

  • 模糊聚類 Fuzzy clustering

  • K-means演算法 K-means algorithm

  • k-均值聚類 K-means clustering

  • k-位數 K-medians

  • 平均移 Mean-shift

  • OPTICS演算法 OPTICS algorithm

  • 單連鎖聚類 Single-linkage clustering

  • 概念聚類 Conceptual clustering

  • 先驗演算法 Apriori algorithm

  • Eclat演算法 Eclat algorithm

  • FP-growth演算法 FP-growth algorithm

  • 對抗生成網路

  • 前饋神經網路 Feedforward neurral network

  • 邏輯學習機 Logic learning machine

  • 自組織映射 Self-organizing map

  • 極端學習機 Extreme learning machine

  • 人工神經網路 Artificial neural network

  • 關聯規則學習 Association rule learning

  • 分層聚類 Hierarchical clustering

  • 聚類分析 Cluster analysis

  • 異常檢測 Anomaly detection

  • 半監督學習 Semi-supervised learning

  • 生成模型 Generative models

  • 低密度分離 Low-density separation

  • 基於圖形的方法 Graph-based methods

  • 聯合訓練 Co-training

  • 強化學習 Reinforcement learning

  • 時間差分學習 Temporal difference learning

  • Q學習 Q-learning

  • 學習自動 Learning Automata

  • 狀態-行動-回饋-狀態-行動(SARSA) State-Action-Reward-State-Action(SARSA)

  • 深度學習 Deep learning

  • 深度信念網路 Deep belief machines

  • 深度卷積神經網路 Deep Convolutional neural networks

  • 深度遞歸神經網路 Deep Recurrent neural networks

  • 分層時間記憶 Hierarchical temporal memory

  • 深度玻爾茲曼機(DBM) Deep Boltzmann Machine(DBM)

  • 堆疊自動編碼器 Stacked Boltzmann Machine

  • 生成式對抗網路 Generative adversarial networks

  • 遷移學習 Transfer learning

  • 傳遞式遷移學習 Transitive Transfer Learning

  • 其他

  • 主成分分析(PCA) Principal component analysis(PCA)

  • 主成分回歸(PCR) Principal component regression(PCR)

  • 因子分析 Factor analysis

  • Bootstrap aggregating (Bagging)

  • AdaBoost

  • 梯度提升機(GBM) Gradient boosting machine(GBM)

  • 梯度提升決策樹(GBRT) Gradient boosted decision tree(GBRT)

  • 集成學習演算法

  • 降維

Ⅳ 深度解析人工智慧,機器學習和深度學習的區別

有人說,人工智慧(AI)是未來,人工智慧是科幻,人工智慧也是我們日常生活中的一部分。這些評價可以說都是正確的,就看你指的是哪一種人工智慧。

今年早些時候,Google DeepMind的AlphaGo打敗了韓國的圍棋大師李世乭九段。在媒體描述DeepMind勝利的時候,將人工智慧(AI)、機器學習(machine learning)和深度學習(deep learning)都用上了。這三者在AlphaGo擊敗李世乭的過程中都起了作用,但它們說的並不是一回事。

今天我們就用最簡單的方法——同心圓,可視化地展現出它們三者的關系和應用。

人工智慧、機器學習和深度學習之間的區別和聯系

如上圖,人工智慧是最早出現的,也是最大、最外側的同心圓;其次是機器學習,稍晚一點;最內側,是深度學習,當今人工智慧大爆炸的核心驅動。

五十年代,人工智慧曾一度被極為看好。之後,人工智慧的一些較小的子集發展了起來。先是機器學習,然後是深度學習。深度學習又是機器學習的子集。深度學習造成了前所未有的巨大的影響。

| 從概念的提出到走向繁榮

1956年,幾個計算機科學家相聚在達特茅斯會議(Dartmouth Conferences),提出了「人工智慧」的概念。其後,人工智慧就一直縈繞於人們的腦海之中,並在科研實驗室中慢慢孵化。之後的幾十年,人工智慧一直在兩極反轉,或被稱作人類文明耀眼未來的預言;或者被當成技術瘋子的狂想扔到垃圾堆里。坦白說,直到2012年之前,這兩種聲音還在同時存在。

過去幾年,尤其是2015年以來,人工智慧開始大爆發。很大一部分是由於GPU的廣泛應用,使得並行計算變得更快、更便宜、更有效。當然,無限拓展的存儲能力和驟然爆發的數據洪流(大數據)的組合拳,也使得圖像數據、文本數據、交易數據、映射數據全面海量爆發。

讓我們慢慢梳理一下計算機科學家們是如何將人工智慧從最早的一點點苗頭,發展到能夠支撐那些每天被數億用戶使用的應用的。

| 人工智慧(Artificial Intelligence)——為機器賦予人的智能

人工智慧、機器學習和深度學習之間的區別和聯系

早在1956年夏天那次會議,人工智慧的先驅們就夢想著用當時剛剛出現的計算機來構造復雜的、擁有與人類智慧同樣本質特性的機器。這就是我們現在所說的「強人工智慧」(General AI)。這個無所不能的機器,它有著我們所有的感知(甚至比人更多),我們所有的理性,可以像我們一樣思考。

人們在電影里也總是看到這樣的機器:友好的,像星球大戰中的C-3PO;邪惡的,如終結者。強人工智慧現在還只存在於電影和科幻小說中,原因不難理解,我們還沒法實現它們,至少目前還不行。

我們目前能實現的,一般被稱為「弱人工智慧」(Narrow AI)。弱人工智慧是能夠與人一樣,甚至比人更好地執行特定任務的技術。例如,Pinterest上的圖像分類;或者Facebook的人臉識別。

這些是弱人工智慧在實踐中的例子。這些技術實現的是人類智能的一些具體的局部。但它們是如何實現的?這種智能是從何而來?這就帶我們來到同心圓的裡面一層,機器學習。

| 機器學習—— 一種實現人工智慧的方法

人工智慧、機器學習和深度學習之間的區別和聯系

機器學習最基本的做法,是使用演算法來解析數據、從中學習,然後對真實世界中的事件做出決策和預測。與傳統的為解決特定任務、硬編碼的軟體程序不同,機器學習是用大量的數據來「訓練」,通過各種演算法從數據中學習如何完成任務。

機器學習直接來源於早期的人工智慧領域。傳統演算法包括決策樹學習、推導邏輯規劃、聚類、強化學習和貝葉斯網路等等。眾所周知,我們還沒有實現強人工智慧。早期機器學習方法甚至都無法實現弱人工智慧。

機器學習最成功的應用領域是計算機視覺,雖然也還是需要大量的手工編碼來完成工作。人們需要手工編寫分類器、邊緣檢測濾波器,以便讓程序能識別物體從哪裡開始,到哪裡結束;寫形狀檢測程序來判斷檢測對象是不是有八條邊;寫分類器來識別字母「ST-O-P」。使用以上這些手工編寫的分類器,人們總算可以開發演算法來感知圖像,判斷圖像是不是一個停止標志牌。

這個結果還算不錯,但並不是那種能讓人為之一振的成功。特別是遇到雲霧天,標志牌變得不是那麼清晰可見,又或者被樹遮擋一部分,演算法就難以成功了。這就是為什麼前一段時間,計算機視覺的性能一直無法接近到人的能力。它太僵化,太容易受環境條件的干擾。

隨著時間的推進,學習演算法的發展改變了一切。

| 深度學習——一種實現機器學習的技術

人工智慧、機器學習和深度學習之間的區別和聯系

人工神經網路(Artificial Neural Networks)是早期機器學習中的一個重要的演算法,歷經數十年風風雨雨。神經網路的原理是受我們大腦的生理結構——互相交叉相連的神經元啟發。但與大腦中一個神經元可以連接一定距離內的任意神經元不同,人工神經網路具有離散的層、連接和數據傳播的方向。

例如,我們可以把一幅圖像切分成圖像塊,輸入到神經網路的第一層。在第一層的每一個神經元都把數據傳遞到第二層。第二層的神經元也是完成類似的工作,把數據傳遞到第三層,以此類推,直到最後一層,然後生成結果。

每一個神經元都為它的輸入分配權重,這個權重的正確與否與其執行的任務直接相關。最終的輸出由這些權重加總來決定。

我們仍以停止(Stop)標志牌為例。將一個停止標志牌圖像的所有元素都打碎,然後用神經元進行「檢查」:八邊形的外形、救火車般的紅顏色、鮮明突出的字母、交通標志的典型尺寸和靜止不動運動特性等等。神經網路的任務就是給出結論,它到底是不是一個停止標志牌。神經網路會根據所有權重,給出一個經過深思熟慮的猜測——「概率向量」。

這個例子里,系統可能會給出這樣的結果:86%可能是一個停止標志牌;7%的可能是一個限速標志牌;5%的可能是一個風箏掛在樹上等等。然後網路結構告知神經網路,它的結論是否正確。

即使是這個例子,也算是比較超前了。直到前不久,神經網路也還是為人工智慧圈所淡忘。其實在人工智慧出現的早期,神經網路就已經存在了,但神經網路對於「智能」的貢獻微乎其微。主要問題是,即使是最基本的神經網路,也需要大量的運算。神經網路演算法的運算需求難以得到滿足。

不過,還是有一些虔誠的研究團隊,以多倫多大學的Geoffrey Hinton為代表,堅持研究,實現了以超算為目標的並行演算法的運行與概念證明。但也直到GPU得到廣泛應用,這些努力才見到成效。

我們回過頭來看這個停止標志識別的例子。神經網路是調制、訓練出來的,時不時還是很容易出錯的。它最需要的,就是訓練。需要成百上千甚至幾百萬張圖像來訓練,直到神經元的輸入的權值都被調製得十分精確,無論是否有霧,晴天還是雨天,每次都能得到正確的結果。

只有這個時候,我們才可以說神經網路成功地自學習到一個停止標志的樣子;或者在Facebook的應用里,神經網路自學習了你媽媽的臉;又或者是2012年吳恩達(Andrew Ng)教授在Google實現了神經網路學習到貓的樣子等等。

吳教授的突破在於,把這些神經網路從基礎上顯著地增大了。層數非常多,神經元也非常多,然後給系統輸入海量的數據,來訓練網路。在吳教授這里,數據是一千萬YouTube視頻中的圖像。吳教授為深度學習(deep learning)加入了「深度」(deep)。這里的「深度」就是說神經網路中眾多的層。

現在,經過深度學習訓練的圖像識別,在一些場景中甚至可以比人做得更好:從識別貓,到辨別血液中癌症的早期成分,到識別核磁共振成像中的腫瘤。Google的AlphaGo先是學會了如何下圍棋,然後與它自己下棋訓練。它訓練自己神經網路的方法,就是不斷地與自己下棋,反復地下,永不停歇。

| 深度學習,給人工智慧以璀璨的未來

深度學習使得機器學習能夠實現眾多的應用,並拓展了人工智慧的領域范圍。深度學習摧枯拉朽般地實現了各種任務,使得似乎所有的機器輔助功能都變為可能。無人駕駛汽車,預防性醫療保健,甚至是更好的電影推薦,都近在眼前,或者即將實現。

人工智慧就在現在,就在明天。有了深度學習,人工智慧甚至可以達到我們暢想的科幻小說一般。你的C-3PO我拿走了,你有你的終結者就好了。

Ⅵ 貝葉斯網路的特性

1、貝葉斯網路本身是一種不定性因果關聯模型。貝葉斯網路與其他決策模型不同,它本身是將多元知識圖解可視化的一種概率知識表達與推理模型,更為貼切地蘊含了網路節點變數之間的因果關系及條件相關關系。
2、貝葉斯網路具有強大的不確定性問題處理能力。貝葉斯網路用條件概率表達各個信息要素之間的相關關系,能在有限的、不完整的、不確定的信息條件下進行學習和推理。
3、貝葉斯網路能有效地進行多源信息表達與融合。貝葉斯網路可將故障診斷與維修決策相關的各種信息納入網路結構中,按節點的方式統一進行處理,能有效地按信息的相關關系進行融合。
對於貝葉斯網路推理研究中提出了多種近似推理演算法,主要分為兩大類:基於模擬方法和基於搜索的方法。在故障診斷領域里就我們水電模擬而言,往往故障概率很小,所以一般採用搜索推理演算法較適合。就一個實例而言,首先要分析使用哪種演算法模型:
a.)如果該實例節點信度網路是簡單的有向圖結構,它的節點數目少的情況下,採用貝葉斯網路的精確推理,它包含多樹傳播演算法,團樹傳播演算法,圖約減演算法,針對實例事件進行選擇恰當的演算法;
b.)如果是該實例所畫出節點圖形結構復雜且節點數目多,我們可採用近似推理演算法去研究,具體實施起來最好能把復雜龐大的網路進行化簡,然後在與精確推理相結合來考慮。
在日常生活中,人們往往進行常識推理,而這種推理通常是不準確的。例如,你看見一個頭發潮濕的人走進來,你認為外面下雨了,那你也許錯了;如果你在公園里看到一男一女帶著一個小孩,你認為他們是一家人,你可能也犯了錯誤。在工程中,我們也同樣需要進行科學合理的推理。但是,工程實際中的問題一般都比較復雜,而且存在著許多不確定性因素。這就給准確推理帶來了很大的困難。很早以前,不確定性推理就是人工智慧的一個重要研究領域。盡管許多人工智慧領域的研究人員引入其它非概率原理,但是他們也認為在常識推理的基礎上構建和使用概率方法也是可能的。為了提高推理的准確性,人們引入了概率理論。最早由Judea Pearl於1988年提出的貝葉斯網路(Bayesian Network)實質上就是一種基於概率的不確定性推理網路。它是用來表示變數集合連接概率的圖形模型,提供了一種表示因果信息的方法。當時主要用於處理人工智慧中的不確定性信息。隨後它逐步成為了處理不確定性信息技術的主流,並且在計算機智能科學、工業控制、醫療診斷等領域的許多智能化系統中得到了重要的應用。
貝葉斯理論是處理不確定性信息的重要工具。作為一種基於概率的不確定性推理方法,貝葉斯網路在處理不確定信息的智能化系統中已得到了重要的應用,已成功地用於醫療診斷、統計決策、專家系統、學習預測等領域。這些成功的應用,充分體現了貝葉斯網路技術是一種強有力的不確定性推理方法。

Ⅶ 人工智慧,機器學習與深度學習,到底是什麼關系

一、人工智慧

人工智慧(Artificial Intelligence),英文縮寫為AI。它是研究、開發用於模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。

人工智慧是計算機科學的一個分支,它企圖了解智能的實質,並生產出一種新的能以人類智能相似的方式做出反應的智能機器,該領域的研究包括語音識別、圖像識別、機器人、自然語言處理、智能搜索和專家系統等。

人工智慧可以對人的意識、思維的信息過程的模擬。人工智慧不是人的智能,但能像人那樣思考、也有可能超過人的智能。

二、數據挖掘

數據挖掘(Data Mining),顧名思義就是從海量數據中「挖掘」隱藏信息,按照教科書的說法,這里的數據是「大量的、不完全的、有雜訊的、模糊的、隨機的實際應用數據」,信息指的是「隱含的、規律性的、人們事先未知的、但又是潛在有用的並且最終可理解的信息和知識」。在商業環境中,企業希望讓存放在資料庫中的數據能「說話」,支持決策。所以,數據挖掘更偏向應用。

數據挖掘通常與計算機科學有關,並通過統計、在線分析處理、情報檢索、機器學習、專家系統(依靠過去的經驗法則)和模式識別等諸多方法來實現上述目標。

三、機器學習

機器學習(Machine Learning)是指用某些演算法指導計算機利用已知數據得出適當的模型,並利用此模型對新的情境給出判斷的過程。

機器學習的思想並不復雜,它僅僅是對人類生活中學習過程的一個模擬。而在這整個過程中,最關鍵的是數據。

任何通過數據訓練的學習演算法的相關研究都屬於機器學習,包括很多已經發展多年的技術,比如線性回歸(Linear Regression)、K均值(K-means,基於原型的目標函數聚類方法)、決策樹(Decision Trees,運用概率分析的一種圖解法)、隨機森林(Random Forest,運用概率分析的一種圖解法)、PCA(Principal Component Analysis,主成分分析)、SVM(Support Vector Machine,支持向量機)以及ANN(Artificial Neural Networks,人工神經網路)。

四、深度學習

深度學習(Deep Learning)的概念源於人工神經網路的研究。含多隱層的多層感知器就是一種深度學習結構。深度學習通過組合低層特徵形成更加抽象的高層表示屬性類別或特徵,以發現數據的分布式特徵表示。

深度學習是機器學習研究中的一個新的領域,其動機在於建立、模擬人腦進行分析學習的神經網路,它模仿人腦的機制來解釋數據,例如圖像,聲音和文本。

五、人工智慧與機器學習、深度學習的關系

嚴格意義上說,人工智慧和機器學習沒有直接關系,只不過目前機器學習的方法被大量的應用於解決人工智慧的問題而已。目前機器學習是人工智慧的一種實現方式,也是最重要的實現方式。

早期的機器學習實際上是屬於統計學,而非計算機科學的;而二十世紀九十年代之前的經典人工智慧跟機器學習也沒有關系。所以今天的AI和ML有很大的重疊,但並沒有嚴格的從屬關系。

不過如果僅就計算機系內部來說,ML是屬於AI的。AI今天已經變成了一個很泛泛的學科了。

深度學習是機器學習現在比較火的一個方向,其本身是神經網路演算法的衍生,在圖像、語音等富媒體的分類和識別上取得了非常好的效果。

所以,如果把人工智慧與機器學習當成兩個學科來看,三者關系如下圖所示:

機器學習是數據挖掘的一種重要方法,但機器學習是另一門學科,並不從屬於數據挖掘,二者相輔相成。

Ⅷ 人工智慧,機器學習和深度學習的區別是什麼

這三個概念比較抽象,現在來用通俗的方式解釋一下。
通過一個經典的例子來解釋人工智慧、機器學習和深度學習之間的區別:比較蘋果和橙子。
1、人工智慧
從廣義上講,人工智慧描述一種機器與周圍世界交互的各種方式。通過先進的、像人類一樣的智能——軟體和硬體結合的結果——一台人工智慧機器或設備就可以模仿人類的行為或像人一樣執行任務。
2、機器學習
機器學習是人工智慧的一種途徑或子集,它強調「學習」而不是計算機程序。一台機器使用復雜的演算法來分析大量的數據,識別數據中的模式,並做出一個預測——不需要人在機器的軟體中編寫特定的指令。在錯誤地將奶油泡芙當成橙子之後,系統的模式識別會隨著時間的推移而不斷改進,因為它會像人一樣從錯誤中吸取教訓並糾正自己。
通過機器學習,一個系統可以從自身的錯誤中學習來提高它的模式識別能力。
3、深度學習
深度學習是機器學習的一個子集,推動計算機智能取得長足進步。它用大量的數據和計算能力來模擬深度神經網路。從本質上說,這些網路模仿人類大腦的連通性,對數據集進行分類,並發現它們之間的相關性。如果有新學習的知識(無需人工干預),機器就可以將其見解應用於其他數據集。機器處理的數據越多,它的預測就越准確。
例如,一台深度學習的設備可以檢查大數據——比如通過水果的顏色、形狀、大小、成熟時間和產地——來准確判斷一個蘋果是不是青蘋果,一個橙子是不是血橙。

Ⅸ 一篇文章搞懂人工智慧,機器學習和深度學習之間的區別

為了搞清三者關系,我們來看一張圖:

如圖所示:人工智慧最大,此概念也最先問世;然後是機器學習,出現的稍晚;最後才是深度學習。

從低潮到繁榮

自從 1956 年計算機科學家們在達特茅斯會議(Dartmouth Conferences)上確認人工智慧這個術語以來,人們就不乏關於人工智慧奇思妙想,研究人員也在不遺餘力地研究。在此後的幾十年間,人工智慧先是被捧為人類文明光明未來的鑰匙,後又被當作過於自大的異想天開而拋棄。

但是在過去幾年中,人工智慧出現了爆炸式的發展,尤其是 2015 年之後。大部分原因,要歸功於圖形處理器(GPU)的廣泛應用,使得並行處理更快、更便宜、更強大。另外,人工智慧的發展還得益於幾乎無限的存儲空間和海量數據的出現(大數據運動):圖像、文本、交易數據、地圖數據,應有盡有。

下面我們從發展的歷程中來一一展開對人工智慧、機器學習和深度學習的深度學習。

人工智慧人工智慧先驅們在達特茅斯開會時,心中的夢想是希望通過當時新興的計算機,打造擁有相當於人類智能的復雜機器。這就是我們所說的「通用人工智慧」(General AI)概念,擁有人類五感(甚至更多)、推理能力以及人類思維方式的神奇機器。在電影中我們已經看過無數這樣的機器人,對人類友好的 C-3PO,以及人類的敵人終結者。通用人工智慧機器至今只存在 於電影和科幻小說里,理由很簡單:我們還實現不了,至少目前為止。

我們力所能及的,算是「弱人工智慧」(Narrow AI):執行特定任務的水平與人類相當,甚至超越人類的技術。現實中有很多弱人工智慧的例子。這些技術有人類智能的一面。但是它們是如何做到的?智能來自哪裡?這就涉及到下一個同心圓:機器學習。

機器學習

機器學習是實現人工智慧的一種方法。機器學習的概念來自早期的人工智慧研究者,已經研究出的演算法包括決策樹學習、歸納邏輯編程、增強學習和貝葉斯網路等。簡單來說,機器學習就是使用演算法分析數據,從中學習並做出推斷或預測。與傳統的使用特定指令集手寫軟體不同,我們使用大量數據和演算法來「訓練」機器,由此帶來機器學習如何完成任務。

許多年來,計算機視覺一直是機器學習最佳的領用領域之一,盡管還需要大量的手動編碼才能完成任務。研究者會手動編寫一些分類器(classifier),如邊緣檢測篩選器,幫助程序辨別物體的邊界;圖形檢測分類器,判斷物體是否有八個面;以及識別「S-T-O-P」的分類器。在這些手動編寫的分類器的基礎上,他們再開發用於理解圖像的演算法,並學習如何判斷是否有停止標志。

但是由於計算機視覺和圖像檢測技術的滯後,經常容易出錯。

深度學習

深度學習是實現機器學習的一種技術。早期機器學習研究者中還開發了一種叫人工神經網路的演算法,但是發明之後數十年都默默無聞。神經網路是受人類大腦的啟發而來的:神經元之間的相互連接關系。但是,人類大腦中的神經元可以與特定范圍內的任意神經元連接,而人工神經網路中數據傳播要經歷不同的層,傳播方向也不同。

舉個例子,你可以將一張圖片切分為小塊,然後輸入到神經網路的第一層中。在第一層中做初步計算,然後神經元將數據傳至第二層。由第二層神經元執行任務,依次類推,直到最後一層,然後輸出最終的結果。

每個神經元都會給其輸入指定一個權重:相對於執行的任務該神經元的正確和錯誤程度。最終的輸出由這些權重共同決定。因此,我們再來看看上面提到的停止標志示例。一張停止標志圖像的屬性,被一一細分,然後被神經元「檢查」:形狀、顏色、字元、標志大小和是否運動。神經網路的任務是判斷這是否是一個停止標志。它將給出一個「概率向量」(probability vector),這其實是基於權重做出的猜測結果。在本文的示例中,系統可能會有 86% 的把握認定圖像是一個停止標志,7% 的把握認為是一個限速標志,等等。網路架構然後會告知神經網路其判斷是否正確。

不過,問題在於即使是最基礎的神經網路也要耗費巨大的計算資源,因此當時不算是一個可行的方法。不過,以多倫多大學 Geoffrey Hinton 教授為首的一小批狂熱研究者們堅持採用這種方法,最終讓超級計算機能夠並行執行該演算法,並證明該演算法的作用。如果我們回到停止標志那個例子,很有可能神經網路受訓練的影響,會經常給出錯誤的答案。這說明還需要不斷的訓練。它需要成千上萬張圖片,甚至數百萬張圖片來訓練,直到神經元輸入的權重調整到非常精確,幾乎每次都能夠給出正確答案。不過值得慶幸的是Facebook 利用神經網路記住了你母親的面孔;吳恩達 2012 年在谷歌實現了可以識別貓的神經網路。

如今,在某些情況下,通過深度學習訓練過的機器在圖像識別上表現優於人類,這包括找貓、識別血液中的癌症跡象等。谷歌的 AlphaGo 學會了圍棋,並為比賽進行了大量的訓練:不斷的和自己比賽。

總結

人工智慧的根本在於智能,而機器學習則是部署支持人工智慧的計算方法。簡單的將,人工智慧是科學,機器學習是讓機器變得更加智能的演算法,機器學習在某種程度上成就了人工智慧。

本文作者 Michael Copeland 曾是 WIRED 編輯,現在是矽谷知名投資機構 Andreessen Horowitz 的合夥人。