A. 大數據專業就業需求大不大

需求量是很大的。
大數據專業就業前景
大數據人才稀缺
據數聯尋英發布《大數據人才報告》顯示,目前全國的大數據人才僅46萬,未來3-5年內大數據人才的缺口將高達150萬。
據職業社交平台LinkedIn發布的《2016年中國互聯網最熱職位人才報告》顯示,研發工程師、產品經理、人力資源、市場營銷、運營和數據分析是當下中國互聯網行業需求最旺盛的六類人才職位。其中研發工程師需求量最大,而數據分析人才最為稀缺。領英報告表明,數據分析人才的供給指數最低,僅為0.05,屬於高度稀缺。數據分析人才跳槽速度也最快,平均跳槽速度為19.8個月。
根據中國商業聯合會數據分析專業委員會統計,未來中國基礎性數據分析人才缺口將達到1400萬,而在BAT企業招聘的職位里,60%以上都在招大數據人才。
大數據專業就業方向
大數據主要的三大就業方向:大數據系統研發類人才、大數據應用開發類人才和大數據分析類人才。
在此三大方向中,各自的基礎崗位一般為大數據系統研發工程師、大數據應用開發工程師和數據分析師。
大數據專業人才就業薪資
1、基礎人才-數據分析師
北京數據分析平均工資: 10630/月,取自 15526 份樣本,較 2016 年,增長 9.4%。
數據分析師崗位職責
業務類別:技術
業務方向:數據分析
工作職責:
1. 根據公司產品和業務需求,利用數據挖掘等工具對多種數據源進行診斷分析,建設徵信分析模型並優化,為公司徵信運營決策、產品設計等方面提供數據支持;
2. 負責項目的需求調研、數據分析、商業分析和數據挖掘模型等,通過對運行數據進行分析挖掘背後隱含的規律及對未來的預測;
3. 參與數據挖掘模型的構建、維護、部署和評估;
4. 整理編寫商業數據分析報告,及時發現和分析其中變化和問題,為業務發展提供決策支持;
5. 獨立完成項目需求管理、方案設計、實施管理和項目成果質量的把控;
6. 參與編寫項目相關文檔。
教育背景:
學歷:本科其它:
經驗要求:工作經驗:3-5年
任職要求:
1. 統計學、數學或計算機、數理統計或數據挖掘專業方向相關專業本科或以上學歷;有扎實的數據統計和數據挖掘專業知識;
2. 熟練使用數理統計、數據分析、數據挖掘工具軟體(SAS、R、Python等的一種或多種),能熟練使用SQL讀取數據;
3. 使用過 邏輯回歸、神經網路、決策樹、聚類 等的一種或多種建模方法;
4. 3年以上數據分析工作經驗,徵信從業背景人員優先;
5. 具有金融行業項目經驗的相關經驗者優先考慮;
6. 主動性強,有較強的責任心,積極向上的工作態度,有團隊協作精神。
能力素養:
良好的分析、歸納和總結能力,善於分析、解決實際問題; 主動性強,有較強的責任心,積極向上的工作態度,有團隊協作精神。
2、大數據開發工程師
北京大數據開發平均工資:30230/月。
大數據開發工程師/專家 崗位指責(引自 滴滴出行):
職位描述:
1、構建分布式大數據服務平台,參與和構建公司包括海量數據存儲、離線/實時計算、實時查詢,大數據系統運維等系統;
2、服務各種業務需求,服務日益增長的業務和數據量;
3、深入源碼內核改進優化開源項目,解決各種hadoop、spark、hbase疑難問題,參與到開源社區建設和代碼貢獻;
崗位要求:
1、計算機或相關專業本科以上學歷(3年以上工作經驗);
2、精通C++/java/Scala程序開發(至少一種),熟悉Linux/Unix開發環境;
3、熟悉常用開源分布式系統,精通Hadoop/Hive/Spark/Storm/Flink/HBase之一源代碼;
4、有大規模分布式系統開發、維護經驗,有故障處理能力,源碼級開發能力;
5、具有良好的溝通協作能力,具有較強的分享精神;
6、對Ku、Kylin、Impala、ElasticSearch,github等系統有深入使用和底層研究者加分;

B. 大數據學習路線有推薦嗎怎麼學比較容易

你好,推薦給你大數據學習的路線圖,按照順序學習就可以了。

C. 大數據的就業怎麼樣

1.人才缺口大

大數據專業畢業以後主要從事大數據分析工作,該崗位目前人才缺口很大,學會大數據分析就等於拿到了入職大企業和高薪資大門的鑰匙。根據統計顯示,僅北京地區1天需求量達到15680個。

2.各行各業需求上漲

像金融,電商,游戲,醫療,未來教育,社交等行業都需要大數據分析人員,需求量很大。

3.大城市機會多工資高

大數據專業人才的需求主要集中在一線一線城市,在大城市學到的東西更多,同樣薪資水平也高,北京地區的大數據分析平均月工資就達到了20050元。

從人才缺口和需求上漲到高薪就業,都體現出了大數據專業是一個就業前景很好的專業。

大數據專業就業三大方向

大數據主要的三大就業方向:大數據系統研發類人才、大數據應用開發類人才和大數據分析類人才。

在此三大方向中,各自的基礎崗位一般為大數據系統研發工程師、大數據應用開發工程師和數據分析師。

大數據專業人才就業薪資

1基礎人才:數據分析師

2大數據開發工程師

北京大數據開發平均工資:¥ 30230/月。

大數據開發工程師/專家 崗位指責(引自 滴滴出行):

職位描述:

1、構建分布式大數據服務平台,參與和構建公司包括海量數據存儲、離線/實時計算、實時查詢,大數據系統運維等系統;

2、服務各種業務需求,服務日益增長的業務和數據量;

3、深入源碼內核改進優化開源項目,解決各種hadoop、spark、hbase疑難問題,參與到開源社區建設和代碼貢獻;

崗位要求:

1、計算機或相關專業本科以上學歷(3年以上工作經驗);

2、精通C++/Java/Scala程序開發(至少一種),熟悉Linux/Unix開發環境;

3、熟悉常用開源分布式系統,精通Hadoop/Hive/Spark/Storm/Flink/HBase之一源代碼;

4、有大規模分布式系統開發、維護經驗,有故障處理能力,源碼級開發能力;

5、具有良好的溝通協作能力,具有較強的分享精神;

6、對Ku、Kylin、Impala、ElasticSearch,github等系統有深入使用和底層研究者加分;

D. 大數據開發這么學習

大數據思維導圖

可以的話點個贊哦。

E. 如何開始學習大數據

首先我們要了解Java語言和Linux操作系統,這兩個是學習大數據的基礎,學習的順序不分前後。

Java :只要了解一些基礎即可,做大數據不需要很深的Java 技術,學java SE 就相當於有學習大數據基礎。


Linux:因為大數據相關軟體都是在Linux上運行的,所以Linux要學習的扎實一些,學好Linux對你快速掌握大數據相關技術會有很大的幫助,能讓你更好的理解hadoop、hive、hbase、spark等大數據軟體的運行環境和網路環境配置,能少踩很多坑,學會shell就能看懂腳本這樣能更容易理解和配置大數據集群。還能讓你對以後新出的大數據技術學習起來更快。


Hadoop:這是現在流行的大數據處理平台幾乎已經成為大數據的代名詞,所以這個是必學的。Hadoop裡麵包括幾個組件HDFS、MapRece和YARN,HDFS是存儲數據的地方就像我們電腦的硬碟一樣文件都存儲在這個上面,MapRece是對數據進行處理計算的,它有個特點就是不管多大的數據只要給它時間它就能把數據跑完,但是時間可能不是很快所以它叫數據的批處理。


Zookeeper:這是個萬金油,安裝Hadoop的HA的時候就會用到它,以後的Hbase也會用到它。它一般用來存放一些相互協作的信息,這些信息比較小一般不會超過1M,都是使用它的軟體對它有依賴,對於我們個人來講只需要把它安裝正確,讓它正常的run起來就可以了。


Mysql:我們學習完大數據的處理了,接下來學習學習小數據的處理工具mysql資料庫,因為一會裝hive的時候要用到,mysql需要掌握到什麼層度那?你能在Linux上把它安裝好,運行起來,會配置簡單的許可權,修改root的密碼,創建資料庫。這里主要的是學習SQL的語法,因為hive的語法和這個非常相似。


Sqoop:這個是用於把Mysql里的數據導入到Hadoop里的。當然你也可以不用這個,直接把Mysql數據表導出成文件再放到HDFS上也是一樣的,當然生產環境中使用要注意Mysql的壓力。


Hive:這個東西對於會SQL語法的來說就是神器,它能讓你處理大數據變的很簡單,不會再費勁的編寫MapRece程序。有的人說Pig那?它和Pig差不多掌握一個就可以了。


Oozie:既然學會Hive了,我相信你一定需要這個東西,它可以幫你管理你的Hive或者MapRece、Spark腳本,還能檢查你的程序是否執行正確,出錯了給你發報警並能幫你重試程序,最重要的是還能幫你配置任務的依賴關系。我相信你一定會喜歡上它的,不然你看著那一大堆腳本,和密密麻麻的crond是不是有種想屎的感覺。


Hbase:這是Hadoop生態體系中的NOSQL資料庫,他的數據是按照key和value的形式存儲的並且key是唯一的,所以它能用來做數據的排重,它與MYSQL相比能存儲的數據量大很多。所以他常被用於大數據處理完成之後的存儲目的地。


Kafka:這是個比較好用的隊列工具,隊列是干嗎的?排隊買票你知道不?數據多了同樣也需要排隊處理,這樣與你協作的其它同學不會叫起來,你干嗎給我這么多的數據(比如好幾百G的文件)我怎麼處理得過來,你別怪他因為他不是搞大數據的,你可以跟他講我把數據放在隊列里你使用的時候一個個拿,這樣他就不在抱怨了馬上灰流流的去優化他的程序去了,因為處理不過來就是他的事情。而不是你給的問題。當然我們也可以利用這個工具來做線上實時數據的入庫或入HDFS,這時你可以與一個叫Flume的工具配合使用,它是專門用來提供對數據進行簡單處理,並寫到各種數據接受方(比如Kafka)的。


Spark:它是用來彌補基於MapRece處理數據速度上的缺點,它的特點是把數據裝載到內存中計算而不是去讀慢的要死進化還特別慢的硬碟。特別適合做迭代運算,所以演算法流們特別稀飯它。它是用scala編寫的。Java語言或者Scala都可以操作它,因為它們都是用JVM的。

F. 大數據有什麼學習路線

大數據開發工程師學習路線

第一階段:Java設計與編程思想

第二階段: Web前端開發

第三階段: JavaEE進階

第四階段: 大數據基礎

第五階段: HDFS分布式文件系統

第六階段:MapRece分布式計算模型

第七階段: Yarn分布式資源管理器

第八階段: Zookeeper分布式協調服務

第九階段: Hbase分布式資料庫

第十階段: Hive分布式數據倉庫

第十一階段: FlumeNG分布式數據採集系統

第十二階段: Sqoop大數據遷移系統

第十三階段: Scala大數據黃金語言

第十四階段: kafka分布式匯流排系統

第十五階段: SparkCore大數據計算基石

第十六階段: SparkSQL數據挖掘利器

第十七階段: SparkStreaming流失計算平台

第十八階段: SparkMllib機器學習平台

第十九階段:SparkGraphx圖計算平台

第二十階段: 大數據項目實戰

G. 如何進入大數據領域,學習路線是什麼

給你一個大數據學習的路線,你可以按照順序學習
第一階段
JavaSE基礎核心
第二階段
資料庫關鍵技術
第三階段
大數據基礎核心
第四階段
Spark生態體系框架&大數據高薪精選項目
第五階段
Spark生態體系框架&企業無縫對接項目
第六階段
Flink流式數據處理框架