'成為大數據人才計算機要學到什麼程度?'

"

成為大數據人才計算機要學到什麼程度?

不知道樓主所謂的人才是隻是獲得怎樣的成就才是人才。首先要掌握的就是Java語言和Linux操作系統,這兩個是大數據的基礎。學習順序的話不分前後的。

(1)Java:Java也有很多方向。JavaSE,JavaEE還有JavaME,大數據的話只需要學習Java標準版的JavaSE就可以了,像Servlet、JSP、Tomcat、Struts等在JavaEE方向,在大數據裡面不常用到。但是需要了解,想要成為成為人才的話可以要學習Hibernate或者Mybites的原理,不要只學習API。

(2)Linux:因為大數據相關軟件都是在Linux上面運行的所以,Linux要學習很紮實。它能讓你更好的理解hadoop,hive,hbase,spark等大數據軟件的運行環境和網絡環境配置,能少踩很多坑,學會shell就能看懂腳本這樣更容易理解配置大數據集群。

"

成為大數據人才計算機要學到什麼程度?

不知道樓主所謂的人才是隻是獲得怎樣的成就才是人才。首先要掌握的就是Java語言和Linux操作系統,這兩個是大數據的基礎。學習順序的話不分前後的。

(1)Java:Java也有很多方向。JavaSE,JavaEE還有JavaME,大數據的話只需要學習Java標準版的JavaSE就可以了,像Servlet、JSP、Tomcat、Struts等在JavaEE方向,在大數據裡面不常用到。但是需要了解,想要成為成為人才的話可以要學習Hibernate或者Mybites的原理,不要只學習API。

(2)Linux:因為大數據相關軟件都是在Linux上面運行的所以,Linux要學習很紮實。它能讓你更好的理解hadoop,hive,hbase,spark等大數據軟件的運行環境和網絡環境配置,能少踩很多坑,學會shell就能看懂腳本這樣更容易理解配置大數據集群。

成為大數據人才計算機要學到什麼程度?

看路線圖可以按照路線圖去逐步的學習。下面再來回答下大戶局必須要掌握的知識點:

Hadoop:這事現在流行的大數據處理平臺。包括HDFS、MapReduce和YARN,HDFS是儲存數據的地方想我們的電腦硬盤一樣,都存儲在這個上面。MapReduce是對數據進行處理計算的,它的特點是不管多大的數據只要有時間就能跑完。YARN是體現Hadoop平臺概念的重要組件。

大數據中重要的要掌握的幾點:

Zookeeper:安裝Hadoop的HA的時候就會用到它,以後的Hbase也會用到它。需要把它安裝正確 ,讓它正常的跑起來。

Mysql:在Linux上把它安裝好,運行起來,會配置簡單的權限,修改root密碼,創建數據庫。

Sqoop:這個是用於把Mysal裡面的數據導入Hadoop裡面。

Hive:和Pig同理,想要變得厲害可以都學習。

Oozie:可以幫你管理你的Hive或者MapReduce、Spark腳本還能檢查你的程序執行的是否正確。

Hbase:這個是Hadoop生態體系中的NOSQL數據庫,是按照key和value的形式存儲的並且key是唯一的。所以可以幫你做數據排重,它與MYSQL相比存儲的數據量大。

Kafka:這個是隊列工具。可以利用它來做線上實時數據的入庫或者是入HDFS,與Flume的工具配合使用,專門用來提供對數據進行簡單處理。

Spark:這個工具是用來彌補MapReduce處理數據速度上的缺點,特點就是把數據裝載到內存裡面去計算。適合做迭代運算,Java語言或者Scala都可以操作它,他們都是用JVM的。

上面的知識點和線路圖你能完整的學下來掌握,基本去哪家企業都很搶手~

轉發文章+私信小編(資料)即可獲得java、python、linux、大數據、web前端等多套學習教程!

"

相關推薦

推薦中...