人工智慧三巨頭yoshua
『壹』 全球最強AI創業公司榜單是怎麼評出來的
近日,CB Insights發布了第二屆全球最強AI創業公司榜單AI 100。
據雷鋒網新智造了解,超過2000家企業被提名和申請AI 100,入選率小於5%,涵蓋AI領域25個行業應用,例如物聯網、醫療健康、汽車駕駛、金融科技和網路安全等。
評選的標准包括投資者情況,技術創新,團隊實力,專利活動,Mosaic分(註:Mosaic分是 CB Insights 發明的一套演算法,專門用於衡量未上市公司的整體發展和增長潛力),融資歷史,估值和商業模式。
上榜的100家公司通過367筆交易獲
網路安全
AI 100榜單中的網路安全公司的客戶群體跨越了多個行業,包括醫療機構、政府機構保險公司、零售商店等等。
CrowdStrike:這家公司由Accel partners 投資,2017年的估值達到10億美元。該公司專注於端點檢測和響應,自2012年以來已經申請了24項專利。
Cybereason:位於波士頓,該公司今年6月獲得軟銀1億美元投資,估值超過9億美元。
- 金融領域
Affirm:由PayPal創始人Max Levchin創辦,目前已完成E輪融資。Affirm的消費模式不再拘泥於標準的基於信用額度的消費,平台會為符合標準的用戶墊付消費金額,消費者再以帶息月供的方式分期還款。
Cape Analytics:成立於2014年,致力於革新建成環境的規劃與使用信息發獲取渠道。Cape Analytics利用地理空間圖像、計算機視覺和機器學習來自動實時抓取業主的財產數據,並通過應用程序界面提供綜合性數據和分析方法的基礎。
Numerai:為投資者提供對沖基金的短期或長期股權策略,為數據科學家們將金融數據轉換成機器學習問題,目前已完成A輪融資。
- 企業應用
在AI 100中,有八家公司為企業提供開發人工智慧程序應用,目前這個市場由亞馬遜主導。
Element AI,由Yoshua Bengio聯合創辦,深度學習領域先驅公司之一,該公司在2017年第二季度獲得了1.02億美金投資,由 Intel Capital、Microsoft Ventures、NVIDIA GPU Ventures、Real Ventures, 以及騰訊控股( Tencent Holdings)投資。
LeapMind,是一家位於日本的為企業開發深度學習邊緣軟體的公司,而且進入了節儉計算環境的硬體端。
『貳』 人工智慧 三大馬車和四大金剛 是誰
三大馬車: 傑弗里·辛頓(Geoffrey Hinton)、延恩·勒昆(Yann LeCun)和約書亞·本吉奧(Joshua Bengio)
人工智慧或深度學習領域「四大金剛」:Yann LeCun、GeoffreyHinton、Yoshua Bengio和Andrew Ng(吳恩達)
『叄』 手機雷達晶元研製成功對於人工智慧的發展有什麼意義
2010 年以來, 由於大數據產業的發展, 數據量呈現爆炸性增長態勢,而傳統的計算架構又無法支撐深度學習的大規模並行計算需求, 於是研究界對AI晶元進行了新一輪的技術研發與應用研究。 AI 晶元是人工智慧時代的技術核心之一,決定了平台的基礎架構和發展生態。本期我們推薦清華大學的報告《 人工智慧晶元研究報告》,全面講解人工智慧晶元,系統梳理人工智慧晶元的發展現狀及趨勢。
『肆』 究竟什麼是機器學習 深度學習和人工智慧
目前,業界有一種錯誤的較為普遍的意識,即「深度學習最終可能會淘汰掉其他所有機器學習演算法」。這種意識的產生主要是因為,當下深度學習在計算機視覺、自然語言處理領域的應用遠超過傳統的機器學習方法,並且媒體對深度學習進行了大肆誇大的報道。
深度學習,作為目前最熱的機器學習方法,但並不意味著是機器學習的終點。起碼目前存在以下問題:
1. 深度學習模型需要大量的訓練數據,才能展現出神奇的效果,但現實生活中往往會遇到小樣本問題,此時深度學習方法無法入手,傳統的機器學習方法就可以處理;
2. 有些領域,採用傳統的簡單的機器學習方法,可以很好地解決了,沒必要非得用復雜的深度學習方法;
3. 深度學習的思想,來源於人腦的啟發,但絕不是人腦的模擬,舉個例子,給一個三四歲的小孩看一輛自行車之後,再見到哪怕外觀完全不同的自行車,小孩也十有八九能做出那是一輛自行車的判斷,也就是說,人類的學習過程往往不需要大規模的訓練數據,而現在的深度學習方法顯然不是對人腦的模擬。
深度學習大佬 Yoshua Bengio 在 Quora 上回答一個類似的問題時,有一段話講得特別好,這里引用一下,以回答上述問題:
Science is NOT a battle, it is a collaboration. We all build on each other's ideas. Science is an act of love, not war. Love for the beauty in the world that surrounds us and love to share and build something together. That makes science a highly satisfying activity, emotionally speaking!
這段話的大致意思是,科學不是戰爭而是合作,任何學科的發展從來都不是一條路走到黑,而是同行之間互相學習、互相借鑒、博採眾長、相得益彰,站在巨人的肩膀上不斷前行。機器學習的研究也是一樣,你死我活那是邪教,開放包容才是正道。
結合機器學習2000年以來的發展,再來看Bengio的這段話,深有感觸。進入21世紀,縱觀機器學習發展歷程,研究熱點可以簡單總結為2000-2006年的流形學習、2006年-2011年的稀疏學習、2012年至今的深度學習。未來哪種機器學習演算法會成為熱點呢?深度學習三大巨頭之一吳恩達曾表示,「在繼深度學習之後,遷移學習將引領下一波機器學習技術」。但最終機器學習的下一個熱點是什麼,誰又能說得准呢。
編輯於 2017-12-27
29918 條評論
分享
收藏感謝收起
阿里雲雲棲社區
用戶標識1
已認證的官方帳號
39 人贊同了該回答
人工智慧並不是一個新的術語,它已經有幾十年的歷史了,大約從80年代初開始,計算機科學家們開始設計可以學習和模仿人類行為的演算法。
在演算法方面,最重要的演算法是神經網路,由於過擬合而不是很成功(模型太強大,但數據不足)。盡管如此,在一些更具體的任務中,使用數據來適應功能的想法已經取得了顯著的成功,並且這也構成了當今機器學習的基礎。
在模仿方面,人工智慧專注於圖像識別,語音識別和自然語言處理。人工智慧專家們花費了大量的時間來創建諸如邊緣檢測,顏色配置文件,N-gram,語法樹等。不過,這些進步還不足以達到我們的需求。
傳統的機器學習:
機器學習(ML)技術在預測中發揮了重要的作用,ML經歷了多代的發展,形成了具有豐富的模型結構,例如:
1.線性回歸。
2.邏輯回歸。
3.決策樹。
4.支持向量機。
5.貝葉斯模型。
6.正則化模型。
7.模型集成(ensemble)。
8.神經網路。
這些預測模型中的每一個都基於特定的演算法結構,參數都是可調的。訓練預測模型涉及以下步驟:
1. 選擇一個模型結構(例如邏輯回歸,隨機森林等)。
2. 用訓練數據(輸入和輸出)輸入模型。
3. 學習演算法將輸出最優模型(即具有使訓練錯誤最小化的特定參數的模型)。
每種模式都有自己的特點,在一些任務中表現不錯,但在其他方面表現不佳。但總的來說,我們可以把它們分成低功耗(簡單)模型和高功耗(復雜)模型。選擇不同的模型是一個非常棘手的問題。
由於以下原因,使用低功率/簡單模型是優於使用高功率/復雜模型:
在我們擁有強大的處理能力之前,訓練高功率模型將需要很長的時間。
在我們擁有大量數據之前,訓練高功率模型會導致過度擬合問題(因為高功率模型具有豐富的參數並且可以適應廣泛的數據形狀,所以我們最終可能訓練一個適合於特定到當前的訓練數據,而不是推廣到足以對未來的數據做好預測)。
然而,選擇一個低功率的模型會遇到所謂的「欠擬合」的問題,模型結構太簡單,如果它復雜,就無法適應訓練數據。(想像一下,基礎數據有一個二次方關系:y = 5 * x ^ 2;你無法適應線性回歸:y = a * x + b,不管我們選擇什麼樣的a和b。
為了緩解「不適合的問題」,數據科學家通常會運用他們的「領域知識」來提出「輸入特徵」,這與輸出關系更為直接。(例如,返回二次關系y = 5 * square(x),如果創建了一個特徵z = x ^ 2,則可以擬合線性回歸:y = a * z + b,通過選擇a = 5和b = 0)。
機器學習的主要障礙是特徵工程這個步驟,這需要領域專家在進入訓練過程之前就要找到非常重要的特徵。特徵工程步驟是要靠手動完成的,而且需要大量領域專業知識,因此它成為當今大多數機器學習任務的主要瓶頸。
換句話說,如果我們沒有足夠的處理能力和足夠的數據,那麼我們必須使用低功耗/更簡單的模型,這就需要我們花費大量的時間和精力來創建合適的輸入特徵。這是大多數數據科學家今天花時間去做的地方。
神經網路的回歸:
在大數據時代,雲計算和大規模並行處理基礎架構的共同發展,使得機器處理能力在二十一世紀初得到了極大的提升。我們不再局限於低功耗/簡單的模型。例如,當今最流行的兩種主流機器學習模型是隨機森林和梯度提升樹。盡管如此,兩者都非常強大,並且提供了非線性模型擬合的訓練數據,但數據科學家仍然需要仔細地創建特徵以獲得良好的性能。
與此同時,計算機科學家重新使用神經網路的許多層來完成這些人類模仿的任務。這給DNN(深度神經網路)帶來了新的生機,並在圖像分類和語音識別任務方面提供了重大突破。DNN的主要區別在於,你可以將原始信號(例如RGB像素值)直接輸入DNN,而不需要創建任何域特定的輸入功能。通過多層神經元(這就是為什麼它被稱為「深度」神經網路),DNN可以「自動」通過每一層產生適當的特徵,最後提供一個非常好的預測。這極大地消除了尋找「特徵工程」的麻煩,這是數據科學家們最喜歡看到的。
DNN也演變成許多不同的網路拓撲結構,所以有CNN(卷積神經網路),RNN(遞歸神經網路),LSTM(長期短期記憶),GAN(生成敵對網路),轉移學習,注意模型(attention model)所有的這些被統稱為深度學習(Deep Learning),它正在引起整個機器學習界的關注。
強化學習:
另一個關鍵組成部分是關於如何模仿一個人(或動物)的學習,設想感知/行為/獎勵循環的非常自然的動物行為。一個人或者一個動物首先會通過感知他或者她所處的狀態來了解環境。在此基礎上,他或者她會選擇一個「動作」,將他或者她帶到另一個「狀態」。那麼他或她將獲得「獎勵」,循環重復,直到他或她消失。這種學習方式(稱為強化學習)與傳統監督機器學習的曲線擬合方法有很大不同。尤其是,強化學習學習得非常快,因為每一個新的反饋(例如執行一個行動並獲得獎勵)都被立即發送到影響隨後的決定。
強化學習也提供了預測和優化的平滑整合,因為它在採取不同的行動時保持當前狀態的信念和可能的轉換概率,然後做出決定哪些行動可以導致最佳結果。
深度學習+強化學習= AI
與經典的ML技術相比,DL提供了一個更強大的預測模型,通常可以產生良好的預測結果。與經典優化模型相比,強化學習提供了更快的學習機制,並且更適應環境的變化。
機器學習 vs 深度學習
在深度探討machine learning和data science的聯系之前,這里簡要地討論一下machine learning 和deep learning。machine learning是一套演算法,來訓練數據集做預測或者採取行動以使得系統最優化。舉例來說,supervised classification algorithms被用來根據歷史數據將想要貸款的客戶分成預期好的和預期差的(good or bad prospects)。對於給定的任務(比如監督聚類),需要的技術多種多樣:naive Bayes、SVM、neural nets、ensembles、association rules、decision trees、logistic regression,或者是很多技術的組合。所有這些都是數據科學的子集。當這些演算法自動化後,比如無人駕駛飛機或者無人駕駛汽車,這就叫AI了,或者說的具體一點,deep learning。如果採集的數據來自感測器並且通過互聯網傳播,那麼這就是機器學習或數據科學或深度學習應用於物聯網了。
有些人對深度學習有不同的定義,他們認為深度學習是更深層次的神經網路(一種機器學習的技術)。AI(Artificial Intelligence)是創建於20世紀60年代的計算機科學的一個子領域,是關於解決那些對人類來講非常容易但是對計算機而言很難的任務。值得一提的是,所謂的strong AI可能可以做所有人類可以做的事情(可能除了純粹的物理問題)。這是相當廣泛的,包括各種各樣的事情,比如做計劃,在世界上到處溜達,識別物體和聲音,說話,翻譯,社交或者商業交易,還有創造性工作(比如寫詩畫畫)等等。
NLP(Natural language processing)只是AI要處理的語言部分,尤其是寫。
Machine learning是這樣的一種情況:給出一些可以被以離散形式描述的AI問題(比如從一系列動作中選出對的那個),然後給定一堆外部世界的信息,在不需要程序員手動寫程序的情況下選出那個「正確的」行為。通常情況需要藉助外界的一些過程來判斷這個動作對不對。在數學上,這就是函數:你給一些輸入,然後你想要他處理一下得到正確的輸出,所以整個問題就簡化為用一些自動的方式建立這種數學函數模型。和AI區分一下:如果我寫了一段特別機智的程序有著人類的行為,那這就可以是AI,但是除非它的參量都是自動從數據中學會的,否則就不是機器學習。
Deep learning是當下非常流行的機器學習的一種。它包含一種特殊的數學模型,可以想成是一種特定類型的簡單塊的組合(或者說是塊的功能的組合),這些塊可以進行調整來更好的預測最終結果。
『伍』 學習人工智慧要懂什麼Python就行還是深度學習或機器學習都要掌握呢
人工智慧的浪潮正在席捲全球,諸多詞彙時刻縈繞在我們耳邊:人工智慧(Artificial Intelligence)、機器學習(Machine Learning)、深度學習(Deep Learning)。不少人對這些高頻詞彙的含義及其背後的關系總是似懂非懂、一知半解。
為了幫助大家更好地理解人工智慧,這篇文章用最簡單的語言解釋了這些詞彙的含義,理清它們之間的關系,希望對剛入門的同行有所幫助。
圖三 三者關系示意圖
目前,業界有一種錯誤的較為普遍的意識,即「深度學習最終可能會淘汰掉其他所有機器學習演算法」。這種意識的產生主要是因為,當下深度學習在計算機視覺、自然語言處理領域的應用遠超過傳統的機器學習方法,並且媒體對深度學習進行了大肆誇大的報道。
深度學習,作為目前最熱的機器學習方法,但並不意味著是機器學習的終點。起碼目前存在以下問題:
1. 深度學習模型需要大量的訓練數據,才能展現出神奇的效果,但現實生活中往往會遇到小樣本問題,此時深度學習方法無法入手,傳統的機器學習方法就可以處理;
2. 有些領域,採用傳統的簡單的機器學習方法,可以很好地解決了,沒必要非得用復雜的深度學習方法;
3. 深度學習的思想,來源於人腦的啟發,但絕不是人腦的模擬,舉個例子,給一個三四歲的小孩看一輛自行車之後,再見到哪怕外觀完全不同的自行車,小孩也十有八九能做出那是一輛自行車的判斷,也就是說,人類的學習過程往往不需要大規模的訓練數據,而現在的深度學習方法顯然不是對人腦的模擬。
深度學習大佬 Yoshua Bengio 在 Quora 上回答一個類似的問題時,有一段話講得特別好,這里引用一下,以回答上述問題:
Science is NOT a battle, it is a collaboration. We all build on each other's ideas. Science is an act of love, not war. Love for the beauty in the world that surrounds us and love to share and build something together. That makes science a highly satisfying activity, emotionally speaking!
這段話的大致意思是,科學不是戰爭而是合作,任何學科的發展從來都不是一條路走到黑,而是同行之間互相學習、互相借鑒、博採眾長、相得益彰,站在巨人的肩膀上不斷前行。機器學習的研究也是一樣,你死我活那是邪教,開放包容才是正道。
結合機器學習2000年以來的發展,再來看Bengio的這段話,深有感觸。進入21世紀,縱觀機器學習發展歷程,研究熱點可以簡單總結為2000-2006年的流形學習、2006年-2011年的稀疏學習、2012年至今的深度學習。未來哪種機器學習演算法會成為熱點呢?深度學習三大巨頭之一吳恩達曾表示,「在繼深度學習之後,遷移學習將引領下一波機器學習技術」。但最終機器學習的下一個熱點是什麼,誰又能說得准呢。
『陸』 求Deep learning 【Yann LeCun 1,2 , Yoshua Bengio 3 & Geoffrey Hinton 4,5】全文中文翻譯
ご清栄のこととお喜び申し上げます。
株式會社山田商事、営業部の山田太郎でございます。
このたび、業界のコンサルタントとしてご活躍の真田先生をお迎えして、講演會を開催いたします。
お得意様には、一般參加の方々より一足先にご案內メールをお送りしております。
出席を希望される場合、添付のご案內狀をご覧いただき、
返信メールにてお知らせくださいますようお願いいたします。
『柒』 如何加速中國人工智慧的發展
據報道,經過幾十年的科研探索和前期布局,人工智慧現已成為活躍在科技內領域的核心力量,也成為容國家間科技競賽的新戰場,中國人工智慧發展還面臨著頂層設計不夠、人才儲備不足等制約因素。
最後克服「企業數據和院校演算法脫節」的產業發展瓶頸,引導科研人員兼顧應用場景和研究成果可行性,並採取措施保證科研成果孵化成產品的通道暢通,開通綠色通道,加快孵化速度,彌補中美之間從科研到產品的發展差距。
希望中國人工智慧技術可以取得更大的進步!
『捌』 Yann LeCun,Geoffrey Hinton或Yoshua Bengio能得圖靈獎嗎
估計有機會,畢竟他們為AI做出了巨大的貢獻