三台机器配置(配置etc/hosts):
192.168.10.128 master
192.168.10.135 slave1
192.168.10.136 slave2
# vi /etc/sysconfig/network
二、配置三台主机的Hadoop文件
# vi conf/hadoop-env.sh添加如下内容
export JAVA_HOME=/usr/java/jdk1.6.0_27/
3、配置conf/hdfs-site.xml,Hadoop中的HDFS的配置,配置的备份方式默认是3,在单机版的Hadoop中,需要设置为1<configuration><property><name>fs.default.name</name><value>hdfs://master:9000</value></property><property><name>hadoop.tmp.dir</name><value>/tmp</value></property></configuration>
4、配置conf/mapred-site.xml,Hadoop中MapReduce配置文件,配置JobTracker的地址和端口(value中的配置,在master中写master,slave中,分别写slave1/slave2)<configuration><property><name>dfs.replication</name><value>2</value></property></configuration>
机器配置:
192.168.10.128 master192.168.10.135 slave1192.168.10.136 slave2
1、下载并解压(用户hadoop)
解压:tar xvf hbase-0.94.27.tar.gz
修改conf/hbase-site.xml(三台机器)<configuration><property><name>hbase.rootdir</name><value>hdfs://master:9000/hbase</value><description>HBase 数据库存储目录</description></property><property><name>hbase.cluster.distributed</name><value>true</value><description>指定 HBase运行的模式:false(单击模式或伪分布模式),true(完全分布模式)</description></property><property><name>hbase.master</name><value>hdfs://master:60000</value><description>指定Master的位置</description></property><property><name>hbase.zookeeper.quorum</name><value>master,slave1,slave2</value><description>指定