搭建大数据处理赏罚集群(Hadoop,Spark,Hbase)
副问题[/!--empirenews.page--]
搭建Hadoop集群设置每台呆板的 /etc/hosts担保每台呆板之间可以互访。 1、建设hadoop用户 JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 PATH=$JAVA_HOME/bin:$PATH CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export JAVA_HOME export PATH export CLASSPATH 完成设置 2、建设用户目次 3、设置ssh为无暗码登录 cd /home/hadoop ssh-keygen -t rsa 一起回车,发生一个潜匿文件夹.ssh cd .ssh 通过ls 可以查察天生的文件 cp id_rsa.pub authorized_keys 此刻测试一下 4、复制authorized_keys到其余节点上。 scp authorized_keys secondMaster:/home/hadoop/.ssh/ 这里会提醒要输入暗码,输入hadoop账号暗码就可以了。 chmod 644 authorized_keys 测试 ssh secondMaster 5、集群设置 core-site.xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property> </configuration> hdfs-site.xml <configuration> <property> <name>dfs.namenode.secondary.http-address</name> <value>master:9001</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/home/hadoop/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/home/hadoop/data</value> </property> <property> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> </configuration> mapred-site.xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>master:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>master:19888</value> </property> </configuration> yarn-site.xml <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>master:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>master:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>master:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>master:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>master:8088</value> </property> </configuration> 设置 slaves文件 切换到hadoop用户 su hadoop 建设目次 mkdir tmp mkdir name mkdir data 把hadoop复制到其余节点上去。 scp -r ./hadoop secondMaster:/home/hadoop 名目化漫衍式文件体系 cd hadoop ./bin/hdfs namenode -format 启动hadoop ./sbin/start-dfs.sh 此时,master主机上面运行的历程有:namenode,secondarynamenode ./sbin/start-yarn.sh 此时,master主机上面运行的历程有:namenode,secondarynamenode,resourcemanager http://master:50070/dfshealth.html#tab-overview 设置Spark集群1、编辑设置文件spark-env.sh,在此剧本最后一行插手以下行 export SPARK_DIST_CLASSPATH=$(/home/hadoop/hadoop-2.6.1/bin/hadoop classpath) 个中,/home/hadoop/hadoop-2.6.1是Hadoop安装目次 2、接下来编辑conf/slaves文件, secondMaster (编辑:湖南网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |