大數據入門學習之環境搭建

大數據入門學習之環境搭建

一:環境搭建:VM、CentOS7安裝及網絡配置

大數據入門首先需要搭建環境,接下來的三篇文章均是環境搭建部分的內容。

首先我們要安裝虛擬機及linux系統

一、安裝虛擬機VM

官網下載VM虛擬機:這裡下載的VMware-workstation-full-10.0.4,好像往後的高版本需要win系統為64位,根據自己的需求下載安裝。

二、安裝CentOS7

1、官網下載:我下載的是CentOS-7-x86_64-DVD-1804.iso文件。

2、安裝過程(略):自行百度安裝,按照步驟安裝無問題,可根據需要選擇最小化安裝,安裝至最後一步驟時最好創建一個用戶。

3、複製出另外兩臺虛擬機,並對每臺虛擬機命名為master、slave1、slave2。

三、網絡配置

1、配置網絡為NAT模式,三臺均需要配置;

2、修改網卡配置,三臺均需要修改

cd /etc/sysconfig/network-scripts

vim ifcfg-ens33

添加內容:IPADDR=192.168.198.21 //ip地址

添加內容:NETMASK=255.255.255.0

添加內容:GATEWAY=192.168.198.2 //網關

添加內容:DNS1=8.8.8.8

大數據入門學習之環境搭建

3、配置完成後重啟網絡服務

/etc/init.d/network restart 或

service network restart

4、測試訪問外網是否通

curl www.baidu.com

ping www.baidu.com

5、分別用securecrt連接centos

5.1.如何安裝及註冊SecureCRT教程

網頁鏈接

5.2.如何用SecureCRT連接vm的虛擬機教程:

網頁鏈接

6、修改hosts

vim /etc/hosts

7、修改hostname

hostnamectl set-hostname master

使用這種方式修改,可以永久性的修改主機名稱!

二:環境搭建:jdk1.8安裝及環境配置

接下來就要安裝在操作系統上運作的大數據核心hadoop分佈式系統基礎架構!Hadoop實現了一個分佈式文件系統(Hadoop Distributed File System),簡稱HDFS,Hadoop的框架最核心的設計就是:HDFS和MapReduce:HDFS為海量的數據提供了存儲,而MapReduce為海量的數據提供了計算,因此安裝完hadoop以後我們可以進行hdfs文件存儲、訪問,也可以進行mapreduce實踐操作,真正體驗戶在不瞭解分佈式底層細節的情況下,開發分佈式程序,充分利用集群的威力進行高速運算和存儲。

首先要明白:hadoop需要以下兩個軟件才能進行搭建

hadoop-2.6.1.tar.gz

jdk-8u172-linux-x64.tar.gz

本文我們先安裝java jdk1.8.0

一、設置共享文件夾

0. 安裝vmware tools,在虛擬機中版本更新裡面選取安裝即可,若不成功,按如下安裝:

1. mount /dev/cdrom/media 加載文件系統到指定的加載點,常用於掛在cdrom,使我們可以訪問cdrom中的數據;

2. tar xvzf VmwareTools-9.6.2-/688356.tar.gz將安裝文件夾拷貝至自己的目錄中並解壓;

3../vmware-install.pl進入解壓好的目錄後運行此安裝命令;

4. vmware-hgfsclient查看共享目錄此時應顯示共享目錄share-folder;

5. vmhgfs-fuse .host:/ /mnt/hgfs掛載目錄;

6. cd /mnt/hgfs/share-folser進入目錄。

二、安裝jdk1.8

0. 從共享目錄拷貝至安裝目錄並解壓:

cp jdk-8u172-linux-x64.tar.gz /usr/local/src

tar xvzf jdk-8u172-linux-x64.tar.gz

1. 設置環境變量

vim ~/.bashrc

添加java路徑如下:

#java

export JAVA_HOME=/usr/local/src/jdk1.8.0_172

export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib

export PATH=$PATH:$JAVA_HOME/bin

2. 檢查是否安裝成功

java運行java;

which java查看java信息;

java -version查看java版本。

3. 拷貝解壓包至slave1、slave2中並設置.bashrc文件

scp -rp jdk1.8.0-172 192.168.198.22:/usr/local/src/

scp -rp jdk1.8.0-172 192.168.198.23:/usr/local/src/

.bashrc文件配置和master中一樣!

4. 分別檢查三臺機器都能運行java

至此java安裝完成!

三、先安裝一些依賴包

yum -y update #更新yum包

yum install -y vim

yum install -y net-tools

yum install -y gcc

yum install -y prel

yum install -y kernel-headers

三:環境搭建:Hadoop2.0安裝及配置

首先要明白:hadoop需要以下兩個軟件才能進行搭建

hadoop-2.6.1.tar.gz

jdk-8u172-linux-x64.tar.gz(上篇已介紹)

一、安裝Hadoop2.6.1並配置

0. 下載安裝包至共享目錄:

1.cp hadoop-2.6.1.tar.gz /usr/local/src拷貝安裝包;

2.tar xvzf hadoop-2.6.1.tar.gz解壓;

3. 創建臨時目錄及文件目錄:

mkdir /usr/local/src/hadoop-2.6.1/tmp

mkdir /usr/local/src/hadoop-2.6.1/dfs/name

mkdir /usr/local/src/hadoop-2.6.1/dfs/data

4. 修改hadoop配置文件:

cd /usr/local/src/hadoop-2.6.1/etc/hadoop

1) vim hadoop-env.sh

export JAVA_HOME=/usr/local/src/jdk1.8.0_172

2) vim yarn-env.sh

export JAVA_HOME=/usr/local/src/jdk1.8.0_172

3) vim slaves

slave1

slave2

4) vim core-site.xml

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://192.168.198.21:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>file:/usr/local/src/hadoop-2.6.1/tmp</value>

</property>

</configuration>

5) vim hdfs-site.xml

<configuration>

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>master:9001</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/usr/local/src/hadoop-2.6.1/dfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>file:/usr/local/src/hadoop-2.6.1/dfs/data</value>

</property>

<property>

<name>dfs.repliction</name>

<value>2此處設置為2比較合適,因為從節點為2個

</property>

</configuration>

6) vim mapred-site.xml(注:此文件需自己創建,不能用mapred-site.xml.template)

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

7) vim yarn-site.xml

<configuration>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

<property>

<name>yarn.resourcemanager.address</name>

<value>master:8032</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>master:8030</value>

</property>

<property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>master:8035</value>

</property>

<property>

<name>yarn.resourcemanager.admin.address</name>

<value>master:8033</value>

</property>

<property>

<name>yarn.resourcemanager.webapp.address</name>

<value>master:8088</value>

</property>

</configuration>

5.配置環境變量(注:三臺機器都要配置)

vim ~/.bashrc

#hadoop

export HADOOP_HOME=/usr/local/src/hadoop-2.6.1

export PATH=$PATH:$HADOOP_HOME/bin

source ~/.bashrc

6. 拷貝安裝包

scp -rp hadoop-2.6.1 192.168.198.22:/usr/local/src/

scp -rp hadoop-2.6.1 192.168.198.23:/usr/local/src/

7. 啟動集群

在啟動集群之前需按順序做兩件事:

1)

關閉防火牆:

firewall-cmd --state 此時顯示running

systemctl disabled firewalld 或

systemctl stop firewalld

在查看防火牆應該為not running即已關閉

關閉Selinux:

vim /etc/selinux/config

將SELINUX=””改為disabled重啟後永久關閉

2) 格式化

hadoop namenode -formate

注:只能格式化一次,如果多次格式化可能引起錯誤,此時需要將之前建的tmp、data、name文件夾刪除再重新建,在重新格式化!

3) 啟動集群

cd /hadoop-2.6.1/sbin

./start-all.sh

4) 查看集群狀態

master:

大數據入門學習之環境搭建

slave1

大數據入門學習之環境搭建

slave2:

大數據入門學習之環境搭建

8. 設置互信

1) 生成公鑰

ssh-keygen 回車回車回車

2) 配置文件

cd ~/.ssh進入隱藏目錄

獲取master的公鑰放在authorized_keys文件中:

cat id_rsa.pub > authorized_keys

將slave1、slave2的公鑰複製到master上的authorized_keys文件中

再將authorized_keys文件拷貝至slave1、slave2上

scp -rp authorized_keys 192.168.198.22:~/.ssh

scp -rp authorized_keys 192.168.198.23:~/.ssh

3) 檢測互信是否成功

在master上輸入ssh salve1

將會切換為slave1主機名,說明成功

退出:exit

9. 集群操作

hadoop fs -ls /

hadoop fs -put 1.data /

等命令運行無誤說明集群已經配置成功

10. 關閉集群

./sbin/hadoop stop-all.sh

至此,hadoop環境安裝搭建完成,接下來可以進行實踐了!

大數據入門學習之環境搭建

獲取方式:

1、請評論區留下你們評論:轉發

2、評論後私信我:“學習”即可領取!

一個轉發+評論,一份資料。名額有限,太多人我送不過來,請體諒!

資料只為有需要的朋友準備,而且整理不易,如果覺得資源不錯,希望大家能積極轉發讓更多人看到,給予小編鼓勵與支持,有動力分享資源

相關推薦

推薦中...