国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

構建大數(shù)據(jù)平臺

2017-11-22 07:51
網(wǎng)絡安全和信息化 2017年4期
關鍵詞:網(wǎng)卡文件夾命令

系統(tǒng)安裝

1.搭建平臺所用環(huán)境

硬件:華為8路服務器,256GB內(nèi) 存,8×e8850 CPU,30TB存儲。

軟 件 :VMware 6.0, 配 置11臺虛擬機,每臺安裝64位CentOS6.5,Hadoop 版 本為2.7.3,安裝完一臺機器,通過克隆虛擬機方式可以很快把所有機器安裝完成,達到快速部署的目的。其中hut-hadoop-master為主 節(jié) 點(Master),IP信 息為172.16.54.11/24,網(wǎng)關 為 172.16.54.1,huthadoop-node01_08及為hut-hadoop-web為從 節(jié) 點(Slave),IP 地址 為172.16.54.12-172.16.54.20。安裝時,每臺機器都沒有安裝圖形界面,通過SecureCRT進行管理。

2.配置SSH免密碼登錄

由于Hadoop需要通過SSH登錄到各個節(jié)點進行操作,為方便起見,用root用戶,每臺服務器都生成公鑰,再合并到authorized_keys。

(1)CentOS默認沒有啟動SSH無密登錄,需要去掉每臺服務器中/etc/ssh/sshd_config中如下所示的2行的注 釋 :#RSAAuthentication yes,#PubkeyAuthenti cation yes。

(2)每臺服務器上都輸入命令:ssh-keygen -t rsa,生成 key,都不輸入密碼,一直回車,/root目錄下會生成.ssh文件夾。

(3) 合 并 公 鑰 到authorized_keys文 件:在hut-hadoop-master(172.16.54.11)服務器上進入/root/.ssh目錄,通過如下命令進行合并,主要是SSH命令:

cat id_rsa.pub>>authorized_keys

ssh root@172.16.54 .12 cat ~/.ssh/id_rsa.pub>>authorized_keys,其他機器照此格式。

(4)把Master服務器的authorized_keys、known_hosts復制到Slave服務器的/root/.ssh目錄。

(5)完成,s s h root@172.16.54.12、...、ssh root@172.16.54.19就不需要輸入密碼了。

3.安裝JDK

Hadoop2.7.3需要JDK7,安裝CentOS可自定義安裝,如果沒有OpenJDK,直接解壓下載的JDK并配置變量即可

(1)下載“jdk-7u79-linux-x64.gz”,放到 /home/java目錄下。

(2)解壓,輸入命令,tar -zxvf jdk-7u79-linux-x64.gz。

(3)編輯/e t c/profile:

export JAVA_HOME=/home/java/jdk1.7.0_79

export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH=$PATH:$JAVA_HOME/bin

(4)要使配置生效,輸入命令:source /etc/profile即可。

(5)輸入命令,java-version,完成。

4.安裝Hadoop2.7.3

只 在Master(172.16.54.11) 服 務 器解壓,再復制到Slave(172.16.54.12-19)服務器:

(1)下載“hadoop-2.7.3.tar.gz”,放 到 /usr目錄下。

(2)解壓命令:

tar -xzvf hadoop-2.7.3.tar.gz。

(3)在 /usr/hadoop 目錄下創(chuàng)建數(shù)據(jù)存放的文件夾,tmp、hdfs、hdfs/data、hdfs/name。

系統(tǒng)配置

1.依次配置/usr/hadoop-2.7.3/etc/hadoop目錄下的core-site.xml、hdfs-site.xml、mapredsite.xml、yarn-site.xml(注:因以上配置文件內(nèi)容太長,具體內(nèi)容通過10274759@qq.com索?。?。

圖1 JPS命令顯示的信息

圖2 任務執(zhí)行狀態(tài)

2.配 置/u s r/hadoop-2.7.3/etc/hadoop目錄 下 hadoop-env.sh、yarnenv.sh 的JAVA_HOME,如果不設置就啟動不了。內(nèi)容為:

export JAVA_HOME=/home/java/jdk1.7.0_79。

3.配 置/e t c/hadoop-2.7.3/etc/hadoop目錄下的slaves,刪除默認的localhost,增加9個從節(jié)點:172.16.54.12-172.16.54.19共9個IP地址。

4.將配置好的Hadoop復制到各個節(jié)點對應位置 上,通 過scp傳 送,scp -r /usr/hadoop 172.16.54.12:/usr/,其他機器照此配置。

系統(tǒng)啟動與測試

1.在Master服務器(172.16.54.11) 啟動Hadoop,從 節(jié) 點 會自 動 啟 動,在 /usr/hadoop-2.7.3下操作:

(1)初始化,輸入命令:bin/hdfs namenode-format

(2)全 部 啟 動 :sbin/start-all.sh,也 可 輸 入sbin/start-dfs.sh、sbin/start-yarn.sh。

(3)停止的命令為:sbin/stop-all.sh。

(4)輸入命令 :jps,可以看到相關信息(如圖1)。

2.Web訪問,要先開放端口或者直接關閉防火墻,狀態(tài)信息如圖2所示。

(1)在服務器控制臺輸入 命 令:systemctl stop firewalld.service或 者iptables –F。

(2)用瀏覽器打開http://172.16.54.11:8088/查看任務執(zhí)行狀態(tài)。

(3) 瀏 覽 器 打 開http://172.16.54.11:50070/查看系統(tǒng)概況。

3.安裝完成只是大數(shù)據(jù)應用的開始,之后的工作就是,結合自己的情況,編寫程序調(diào)用Hadoop的接口,發(fā)揮 hdfs、mapreduce的作用。另外,也可以用Hadoop下的例程做測試。

注意事項

要成功安裝并運行,下面幾點事項需要注意。

1.務必安裝好JDK,并在環(huán)境變量中設置好。

2.網(wǎng)卡最好啟用一個,本例中最初設置了兩個網(wǎng)卡,導致很多問題,不僅是路由方面的,并禁用IPv6,關閉防火墻。

3.Slave文件務必設置好。

4.yarn-site.xml文件中內(nèi)存至少2048MB以上,務必配置好最小參數(shù)、內(nèi)存參數(shù)、虛擬內(nèi)存參數(shù),否則很多任務執(zhí)行不了,停在running狀態(tài)。

5.格式化Hadoop系統(tǒng)務必刪除掉tmp文件夾根目錄及相關目錄下的tmp文件夾,然后重建,否則,datanode不能啟動。

6.如果不能從本地上傳文件至Hadoop系統(tǒng),也可能與防火墻有關,關閉防火墻即可。

猜你喜歡
網(wǎng)卡文件夾命令
只聽主人的命令
Fast Folders,讓你的文件夾四通八達
部署Linux虛擬機出現(xiàn)的網(wǎng)絡故障
Server 2016網(wǎng)卡組合模式
移防命令下達后
摸清超標源頭 大文件夾這樣處理
調(diào)動右鍵 解決文件夾管理三大難題
這是人民的命令
不容忽視的空文件夾
挑戰(zhàn)Killer網(wǎng)卡Realtek網(wǎng)游專用Dragon網(wǎng)卡