CentOS rsync    2017-07-19 22:22:46    86
一、安装rsync(server和client)
    yum install rsync
二、服务器配置rsync
修改配置:
    # vi /etc/xinetd.d/rsync
把原来的disable ,YES改成NO
 

 
3、配置/etc/rsyncd.conf(需要手动生成)
# vi /etc/rsyncd.conf
 

log file = /usr/local/rsync/var/rsyncd.log  //日志文件

pid file = /usr/local/rsync/var/rsyncd.pid  //pid文件路径

lock file = /usr/local/rsync/var/rsyncd.lock //指定lock文件

secrets file = /usr/local/rsync/etc/rsyncd.pas  //指定用户密码对文件

motd file = /usr/local/rsync/etc/rsyncd.motd  //指定欢迎消息文件

read only = no  //是否只读(若从客户端同步到服务器必须设置为NO)

hosts allow = 192.168.0.0/16,192.168.10.0/24  //允许的IP段

list = yes  //是否允许列表

uid = nobody  //rsync以什么用户身份启动

gid = nobody  //rsync以什么用户组身份启动

use chroot = no  //

max connections = 4  //最大连接数

[bak]  //模块

path = /bak  //模块目录

comment = www bak  //描述信息,可以任意填写

auth users = bak  //认证的用户,服务器必须存在这个系统用户

(保存退出)

-----------以下为rsyncd.conf配置文件内容,rsync配置直接拷贝-------

log file = /var/rsyncd.log
pid file = /var/rsyncd.pid
lock file = /var/rsyncd.lock
secrets file = /etc/rsyncd.pas
motd file = /etc/rsyncd.motd
read only = no
hosts allow = 192.168.0.0/16,192
CentOS SSH linux    2017-07-19 22:21:34    83
预先配置:
    master:192.168.10.128
    slave:192.168.10.135
    修改方式    
    # vi /etc/sysconfig/network
    将HOSTNAME修改为master或者slave

1、创建新用户(两台机器,root用户)
    # useradd hadoop
2、设置密码(两台机器,root用户)
    # passwd hadoop

4、修改ssh的配置文件(两台机器,root用户)
    # vi /etc/ssh/sshd_config
    将如下代码注释掉
RSAAuthentication yes
PubkeyAuthentication yes
AuthorizedKeysFile      .ssh/authorized_keys
5、重启ssh服务(两台机器,root用户)
    # service sshd restart
6、设置无密码登陆(用hadoop用户)
    # cd /home/hadoop
    # ssh-keygen -t rsa
    一直回车
    进入.ssh目录(虚拟目录)
    # cd .ssh/
    # cp id_rsa.pub authorized_keys
    # chmod 600 authorized_keys
   
7、从master机器上copy文件到slave机器上(192.168.10.135是我要连接的机器),用root用户
     # scp id_rsa.pub root@192.168.10.135:/home/hadoop/
    
8、在要被连接机器(slave)上执行
    # cd /home/hadoop/

    # cat id_rsa.pub >> .ssh/authorized_keys 


9、在master机器上使用hadoop用户登陆
    # ssh slave



 

by 刘迎光@萤火虫工作室 
OpenBI交流群:495266201 
MicroService 微服务交流群:217722918 
mail: liuyg#liuyingguang.cn 
博主首页(==防止爬虫==):http://blog.liuyingguang.cn

Hadoop CentOS    2017-07-19 22:20:35    118

一、安装jdk

    1、下载bin包,自行下载,上传到CentOS6.5中,
    2、安装bin包,
        # chmod 755 jdk-6u27-linux-x64-rpm.bin
        # ./jdk-6u27-linux-x64-rpm.bin
    3、配置环境变量
        # vi /etc/profile
        添加如下
export JAVA_HOME=/usr/java/jdk1.6.0_27
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export path=$PATH:$JAVA_HOME/bin

        使配置生效

        # source /etc/profiles

二、配置SSH免密码登录
    参考文章:http://blog.csdn.net/gsying1474/article/details/49468727


三、安装Hadoop
    下载地址:https://dist.apache.org/repos/dist/release/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz
    解压hadoop(tar xvf hadoop-1.2.1.tar.gz)
    1、环境hadoop变量配置
vi hadoop-env.sh
添加如下内容
export JAVA_HOME=/usr/java/jdk1.6.0_27/

    2、配置conf/core-site.xml文件,Hadoop的核心文件,配置的是HDFS的地址和端口号
<configuration>
        <property>
                <name>fs.default.name</name>
                <value>hdfs://localhost:9000</value>
        </property>
</configuration>
    3、配置conf/hdfs-site.xml,Hadoop中的HDFS的配置,配置的备份方式默认是3,在单机版的Hadoop中,需要设置为1
<configuration>
        <property>
   
Hadoop BigData    2017-07-19 22:19:55    110

三台机器配置(配置etc/hosts):

192.168.10.128    master
192.168.10.135    slave1
192.168.10.136    slave2
并修改三台机器的主机名:
vi /etc/sysconfig/network

一、配置三台机器的SSH免密码登陆(Master要能够免密码登陆两台slave):
二、配置三台主机的Hadoop文件
    1、环境hadoop变量配置
vi conf/hadoop-env.sh
添加如下内容
export JAVA_HOME=/usr/java/jdk1.6.0_27/

    2、配置conf/core-site.xml文件,Hadoop的核心文件,配置的是HDFS的地址和端口号
<configuration>
        <property>
                <name>fs.default.name</name>
                <value>hdfs://master:9000</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/tmp</value>
        </property>
</configuration>

    3、配置conf/hdfs-site.xml,Hadoop中的HDFS的配置,配置的备份方式默认是3,在单机版的Hadoop中,需要设置为1
<configuration>
        <property>
                <name>dfs.replication</name>
                <value>2</value>
        </property>
</configuration>

    4、配置conf/mapred-site.xml,Hadoop中MapReduce配置文件,配置JobTracker的地址和端口value中的配置,在master中写master,slave中,分别写slave1/slave2)
HBase BigData Hadoop    2017-07-19 22:19:05    119

机器配置:

192.168.10.128    master
192.168.10.135    slave1
192.168.10.136    slave2

1、下载并解压(用户hadoop)

解压:tar xvf hbase-0.94.27.tar.gz
2、修改配置(三台机器)(用户hadoop)
修改conf/hbase-site.xml(三台机器)
<configuration>
        <property>
                <name>hbase.rootdir</name>
                <value>hdfs://master:9000/hbase</value>
                <description>HBase 数据库存储目录</description>
        </property>
        <property>
                <name>hbase.cluster.distributed</name>
                <value>true</value>
                <description>指定 HBase运行的模式:false(单击模式或伪分布模式),true(完全分布模式)</description>
        </property>
        <property>
                <name>hbase.master</name>
                <value>hdfs://master:60000</value>
                <description>指定Master的位置</description>
        </property>
        <property>
                <name>hbase.zookeeper.quorum</name>
                <value>master,slave1,slave2</value>
                <description>指定
21/46