# 网卡1 DEVICE=eht0 TYPE=Ethernet ONBOOT=yes NM_CONTROLLED=yes BOOTPROTO=static IPADDR=192.168.59.11 GATEWAY=192.168.59.1 NETMASK= 255.255.255.0 # 网卡2 DEVICE=eht0 TYPE=Ethernet ONBOOT=yes NM_CONTROLLED=yes BOOTPROTO=dhcp HOSTNAME = hadoop1.keane.com 192.168.59.11 hadoop.keane.com SELINUX=disabled rpm -ivh jdk-7u80-linux-x64.rpm # vim ~.bash_profile JAVA_HOME=/usr/java/jdk1.7.0_80 CLASSPATH=. PATH=$JAVA_HOME/bin: export JAVA_HOME export CLASSPATH # 重新加载配置文件 source .bash_profile # 验证是否配置成功 echo $JAVA_HOME # 输出配置地址 tar -zxvf hadoop-2.5.2.tar.gz -C /opt/install/ export JAVA_HOME=/usr/java/jdk1.7.0_80 fs.defaultFS hdfs://hadoop1.keane.com:8020 hadoop.tmp.dir /opt/install/hadoop-2.5.2/data/tmp dfs.replication 1 # 控制程序代码访问权限 dfs.permissions.enabled false yarn.nodemanager.aux-services mapreduce_shuffle mapreduce.framework.name yarn hadoop1.keane.com bin/hdfs namenode -format 
sbin/hadoop-daemon.sh start namenode sbin/hadoop-daemon.sh start datanode sbin/yarn-daemon.sh start resourcemanager sbin/yarn-daemon.sh start nodemanager 

ls、put、get、mkdir、rm bin/hdfs dfs -mkdir /keane # 查看命令 bin/hdfs dfs# 新版 bin/hdfs fs# 老版 pip install hdfs res = self.client.upload(hdfs_path="",local_path="") print(res) ssh ip 登录本机回自动生成一个.ssh文件夹 # 进入文件夹 ~/.ssh ssh-keygen -t rsa # 生成公私钥对 # 将公钥发给远程主机 ssh-copy-id root@ip 
ssh-copy-id root@ip # 将host文件复制到其他主机 scp /etc/hosts root@ip:/etc 3、解压hadoop安装包因为copy的已完成的节点,需要删除data/tmp中的数据 rm -rf * 4、修改6个配置文件,并同步集群的每个节点# hsfs-site.xml -->节点换为3个或直接删除 dfs.replication 3 # slaves hadoop1.keane.com hadoop2.keane.com hadoop3.keane.com 5、格式化bin/hdfs namenode -format 6、启动、关闭集群sbin/start-dfs.sh sbin/stop-dfs.sh 统一启动namenode/datanode/secondarynamenode 
FSImage-->NameNode某一时刻的数据镜像 1、搭建HDFS集群时,进行格式化操作(bin/hdfs namenode -format),生成一个空的FSImage(data/tmp),后面会写入EditsLog 2、每一次重启NameNode时,把EditsLog和FSImage的数据在内存中合并,并生成一个新的EditsLog(如果没到指定的时间不会合并,到了指定的时间才会合并) 3、NameNode会定时的将Edits的数据和FSImage的数据进行合并(checkpoint机制) EditsLog-->某一时刻后的,写操作信息 hdfs-site.xml dfs.namenode.name.dir /opt/suns/fsimage dfs.namenode.edits.dir /opt/suns/editslog # 启动安全模式 bin/hdfs dfsadmin -safemode enter(进入)|leave(离开)|get(状态) core-default.xml:整个集群相关的配置信息。1、总入口;2、临时目录 hdfs-default.xml:hdfs相关的参数,与文件系统相关的。(权限、FSImagEditsLog文件存储位置、块相关,数据节点目录) mapred-default.xml:mapreduce相关信息 yarn-default.xml:yarn相关信息 2、*-site.xml :优先级高于deault文件 core-site.xml:整个集群相关的配置信息。1、总入口;2、临时目录 hdfs-site.xml:hdfs相关的参数,与文件系统相关的。(权限、FSImagEditsLog文件存储位置、块相关,数据节点目录) mapred-site.xml:mapreduce相关信息 yarn-site.xml:yarn相关信息 主备结构:主节点出现问题,备用节点工作
主从结构: