# 网卡1 DEVICE=eht0 TYPE=Ethernet ONBOOT=yes NM_CONTROLLED=yes BOOTPROTO=static IPADDR=192.168.59.11 GATEWAY=192.168.59.1 NETMASK= 255.255.255.0 # 网卡2 DEVICE=eht0 TYPE=Ethernet ONBOOT=yes NM_CONTROLLED=yes BOOTPROTO=dhcp
HOSTNAME = hadoop1.keane.com
192.168.59.11 hadoop.keane.com
SELINUX=disabled
rpm -ivh jdk-7u80-linux-x64.rpm
# vim ~.bash_profile JAVA_HOME=/usr/java/jdk1.7.0_80 CLASSPATH=. PATH=$JAVA_HOME/bin: export JAVA_HOME export CLASSPATH # 重新加载配置文件 source .bash_profile # 验证是否配置成功 echo $JAVA_HOME # 输出配置地址
tar -zxvf hadoop-2.5.2.tar.gz -C /opt/install/
export JAVA_HOME=/usr/java/jdk1.7.0_80
fs.defaultFS hdfs://hadoop1.keane.com:8020 hadoop.tmp.dir /opt/install/hadoop-2.5.2/data/tmp
dfs.replication 1 # 控制程序代码访问权限 dfs.permissions.enabled false
yarn.nodemanager.aux-services mapreduce_shuffle
mapreduce.framework.name yarn
hadoop1.keane.com
bin/hdfs namenode -format
sbin/hadoop-daemon.sh start namenode sbin/hadoop-daemon.sh start datanode sbin/yarn-daemon.sh start resourcemanager sbin/yarn-daemon.sh start nodemanager
ls、put、get、mkdir、rm bin/hdfs dfs -mkdir /keane # 查看命令 bin/hdfs dfs# 新版 bin/hdfs fs# 老版
pip install hdfs
res = self.client.upload(hdfs_path="",local_path="") print(res)
ssh ip 登录本机回自动生成一个.ssh文件夹 # 进入文件夹 ~/.ssh ssh-keygen -t rsa # 生成公私钥对 # 将公钥发给远程主机 ssh-copy-id root@ip
ssh-copy-id root@ip
# 将host文件复制到其他主机 scp /etc/hosts root@ip:/etc
3、解压hadoop安装包因为copy的已完成的节点,需要删除data/tmp中的数据 rm -rf *
4、修改6个配置文件,并同步集群的每个节点# hsfs-site.xml -->节点换为3个或直接删除 dfs.replication 3 # slaves hadoop1.keane.com hadoop2.keane.com hadoop3.keane.com
5、格式化bin/hdfs namenode -format
6、启动、关闭集群sbin/start-dfs.sh sbin/stop-dfs.sh 统一启动namenode/datanode/secondarynamenode
FSImage-->NameNode某一时刻的数据镜像 1、搭建HDFS集群时,进行格式化操作(bin/hdfs namenode -format),生成一个空的FSImage(data/tmp),后面会写入EditsLog 2、每一次重启NameNode时,把EditsLog和FSImage的数据在内存中合并,并生成一个新的EditsLog(如果没到指定的时间不会合并,到了指定的时间才会合并) 3、NameNode会定时的将Edits的数据和FSImage的数据进行合并(checkpoint机制) EditsLog-->某一时刻后的,写操作信息
hdfs-site.xml dfs.namenode.name.dir /opt/suns/fsimage dfs.namenode.edits.dir /opt/suns/editslog
# 启动安全模式 bin/hdfs dfsadmin -safemode enter(进入)|leave(离开)|get(状态)
core-default.xml:整个集群相关的配置信息。1、总入口;2、临时目录 hdfs-default.xml:hdfs相关的参数,与文件系统相关的。(权限、FSImagEditsLog文件存储位置、块相关,数据节点目录) mapred-default.xml:mapreduce相关信息 yarn-default.xml:yarn相关信息
2、*-site.xml :优先级高于deault文件 core-site.xml:整个集群相关的配置信息。1、总入口;2、临时目录 hdfs-site.xml:hdfs相关的参数,与文件系统相关的。(权限、FSImagEditsLog文件存储位置、块相关,数据节点目录) mapred-site.xml:mapreduce相关信息 yarn-site.xml:yarn相关信息
主备结构:主节点出现问题,备用节点工作
主从结构: