搭建单机版的hadoop ,spark和scala服务器
创始人
2025-01-17 09:03:45
0

设置服务器的主机名称

[root@localhosth~]# ostnamectl set-hostname master

[root@localhosth~]# hostname

绑定主机名与 IP 地址

[root@master ~]# vi /etc/hosts

192.168.130.10 master

关闭防火墙

[root@master ~]# systemctl stop firewalld

关闭防火墙后要查看防火墙的状态,确认一下。

[root@master ~]# systemctl status firewalld

[root@master ~]# systemctl disable firewalld

下载 JDK 安装包

卸载自带 OpenJDK

[root@master ~]# rpm -qa | grep java

[root@master ~]# rpm -e --nodeps +包

安装 JDK

[root@master ~]# tar -zxvf /opt/software/jdk-8u152-linux

x64.tar.gz -C /opt

[root@master ~]# ll /opt

设置 JAVA 环境变量

[root@master ~]# vi /etc/profile

# JAVA_HOME 指向 JAVA 安装目录

export JAVA_HOME=/opt/jdk1.8.0_152

执行 source 使设置生效:

[root@master ~]# source /etc/profile

检查 JAVA 是否可用。

[root@master ~]# echo $JAVA_HOME

安装 Hadoop 软件

解压tar -zxvf /opt/software/hadoop-2.7.1.tar.gz -C /opt

mv /usr/local/src/hadoop-2.7.1 /usr/local/src/hadoop

在文件末尾添加以下配置信息

[root@master ~]# vi /etc/profile

export JAVA_HOME=/usr/java/jdk1.8.0_281-amd64

export HADOOP_HOME=/sur/local/hadoop-3.1.4

export HADOOP_CONF_DIR=/usr/local/hadoop-3.1.4/etc/hadoop

export SPARK_MASTER_IP=master

export SPARK_LOCAL_IP=master

使用 命令vi hadoop-env.sh  mapred-env.sh  yarn-env.sh 在这三个文件末尾添加如下所示内容:

export JAVA_HOME=/opt/jdk0.8.0_152

[root@master hadoop]# vi hadoop-env.sh  

[root@master hadoop]# vi mapred-env.sh

[root@master hadoop]# vi yarn-env.sh

配置 core-site.xml.

[root@master hadoop]# vi core-site.xml

fs.defaultFS

hdfs://master:9000

        

        

                hadoop.tmp.dir

                /opt/hadoop-2.7.1/tmp

        

            

                 fs.trash.interval

                 1440

        

配置 hdfs-site.xml

[root@master hadoop]# vi hdfs-site.xml

 

        dfs.replication

        1

    

    

        dfs.permissions

        false

    

将 mapred-site.xml.template 复制一份为 mapred-site.xml,再配置 mapred-site.xml

[root@master hadoop]# cp mapred-queues.xml.template mapred-site.xml

[root@master hadoop]# vi mapred-site.xml

                mapreduce.framework.name

                yarn

        

        

                mapreduce.jobhistory.address

                master:10020

        

        

                mapreduce.jobhistory.webapp.address

                master:19888

        

配置本机 ssh 免密登录

[root@master hadoop]# yum install openssh-server

安装 ssh 客户端。命令: yum install openssh-client

[root@master hadoop]# yum install openssh-client

NameNode格式化

执行如下命令,格式化 NameNode

[root@master ~]# su – hadoop

[hadoop@master ~]# cd /opt/hadoop/

[hadoop@master hadoop]$ bin/hdfs namenode –format

执行如下命令,启动 NameNode:

[hadoop@master hadoop]$ hadoop-daemon.sh start namenode

[hadoop@master hadoop]$ jps

启动 SecondaryNameNode

[hadoop@master hadoop]$ hadoop-daemon.sh start secondarynamenode

[hadoop@master hadoop]$ jps

使用浏览器查看节点状态

(一).搭建spark

1.解压spark包

tar -axf spark-2.0.0-bin-hadoop2.7.gz -C /opt/

配置环境变量。

vi  /etc/profile

export JAVA_HOME=/opt/java-1.8.0-openjdk-1.8.0.322.b06-1.el7_9.x86_64/

export HAD00P_H0ME=/home/hj/hadoop-2.7.7/

export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

2.编写spark-env.sh

cp spark-env.sh.template spark-env.sh

[root@master conf]# vi spark-env.sh

把下列路径加入最后

export JAVA_HOME=/usr/local/src/jdk1.8.0_152  #指定jdk位置如没有需下载

export HADOOP_HOME=/opt/hadoop  #指定hadoop路径

export HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop #指定hadoop路径

export SPARK_MASTER_IP=master

export SPARK_LOCAL_IP=master

 启动spark集群

[root@master spark-2.0.0-bin-hadoop2.7]# cd sbin/
[root@master sbin]# ./start-all.sh

jps查看是否拥有worker

使用./bin/spark-shell 命令启动hadoop

在浏览器输入ip地址+8080端口查看

Scala部署安装步骤

[root@localhost ~]# tar -zxvf scala-2.13.13.tgz

编写/etc/profile在最下面添加如下路径

使用source /etc/profile来更新启用scala

最后在命令行输入scala即可

相关内容

热门资讯

透视安卓版!wpk透视工作室,... 透视安卓版!wpk透视工作室,wpk透视工作室,总结教程(有挂教程)1、操作简单,无需注册,只需要使...
透视透视!德扑圈透视挂, (德... 透视透视!德扑圈透视挂, (德普之星)好像是真的有挂(透视)免费透视(有挂规律)1、德扑圈透视挂ai...
透视系统!pokemmo脚本辅... 透视系统!pokemmo脚本辅助,约局吧是否有挂,软件教程(有挂教程)1、约局吧是否有挂ai辅助优化...
透视透视!wpk插件辅助,wp... 透视透视!wpk插件辅助,wpk透视工作室,透明教程(有挂方法)1、每一步都需要思考,不同水平的挑战...
透视安卓版!德扑之心免费透视,... 透视安卓版!德扑之心免费透视, (德普)真是是有挂(透视)免费透视(有挂教程)1、德扑之心免费透视系...
透视了解!拱趴大菠萝有什么挂,... 透视了解!拱趴大菠萝有什么挂,佛手在线大菠萝为什么都输,安装教程(有挂揭秘);1、佛手在线大菠萝为什...
辅助透视!wpk有作弊吗,wp... 辅助透视!wpk有作弊吗,wpk软件是正规的吗,必胜教程(有挂内幕)1、许多玩家不知道wpk软件是正...
透视有挂!德普之星有透视辅助吗... 透视有挂!德普之星有透视辅助吗, (德扑之心)果然存在有挂(透视)的辅助工具介绍(有挂规律);1、德...
透视模拟器!智星德州辅助译码插... 透视模拟器!智星德州辅助译码插件靠谱吗,cloudpoker外挂,揭秘攻略(有挂插件)1、起透看视 ...
透视软件!wpk官网下载链接,... 透视软件!wpk官网下载链接,wpk插件,科技教程(有挂攻略)1、打开软件启动之后找到中间准星的标志...