博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Centos下基于Hadoop安装Spark(分布式)
阅读量:5962 次
发布时间:2019-06-19

本文共 2125 字,大约阅读时间需要 7 分钟。

前提

Hadoop可成功在分布式系统下启动

 

下载scala  链接是

Master和其他子主机下

wget https://downloads.lightbend.com/scala/2.12.7/scala-2.12.7.tgz

解压

tar -zxvf scala-2.12.7.tgz

将解压后的文件复制到自己的文件路径

cp -r ./scala-2.12.7 /usr/scala

配置环境变量

vim /etc/profile

添加

export SCALA_HOME=/usr/scalaexport PATH=$PATH:$SCALA_HOME/bin

执行

. /etc/profile

使之生效,后测试

scala -version
[root@xinglichao sbin]# scala -versionScala code runner version 2.12.7 -- Copyright 2002-2018, LAMP/EPFL and Lightbend, Inc.

表示成功

下载Spark  链接是(还有很多镜像可供使用)

在Master主机上使用wget下载

wget http://mirrors.shu.edu.cn/apache/spark/spark-2.3.2/spark-2.3.2-bin-hadoop2.7.tgz

同scala一样,要执行解压,复制到指定文件夹

tar -zxvf spark-2.3.2-bin-hadoop2.7.tgzcp ./spark-2.3.2-bin-hadoop2.7/* /usr/spark/

 进入/usr/spark/conf

配置spark-env.sh和slaves

cp spark-env.sh.template spark-env.shcp slaves.template slaves
vim spark-env.sh

添加配置

#java路径 export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.181-3.b13.el7_5.x86_64/jre#scala路径 export SCALA_HOME=/usr/scala #hadoop路径export HADOOP_HOME=/usr/hadoop/hadoop-2.7.5#指向包含Hadoop集群的(客户端)配置文件的目录,运行在Yarn上配置此项   export HADOOP_CONF_DIR=/usr/hadoop/hadoop-2.7.5/etc/hadoop#指定默认master的ip或主机名export SPARK_MASTER_HOST=xinglichao#指定maaster提交任务的默认端口为7077    export SPARK_MASTER_PORT=7077#指定masster节点的webui端口       export SPARK_MASTER_WEBUI_PORT=8080#每个worker从节点的端口(可选配置)       export SPARK_WORKER_PORT=7078#每个worker从节点的wwebui端口(可选配置)  export SPARK_WORKER_WEBUI_PORT=8081#每个worker从节点能够支配的内存数 export SPARK_WORKER_MEMORY=1g#允许Spark应用程序在计算机上使用的核心总数(默认值:所有可用核心)export SPARK_WORKER_CORES=1#每个worker从节点的实例(可选配置) export SPARK_WORKER_INSTANCES=1
vim slaves
子主机的主机名或者ip

将spark分发到子节点主机

scp /usr/spark/* root@192.168.0.102:/usr/spark/

在Master上启动spark

[root@xinglichao sbin]# pwd/usr/spark/sbin[root@xinglichao sbin]# ./start-all.sh starting org.apache.spark.deploy.master.Master, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.master.Master-1-xinglichao.outzhangpeng: starting org.apache.spark.deploy.worker.Worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-zhangpeng.out[root@xinglichao sbin]#

jps查看进程


 

本节完......

转载于:https://www.cnblogs.com/xinglichao/p/9838997.html

你可能感兴趣的文章
优化应用的电池寿命(笔记)-1
查看>>
SSH Secure Shell Client
查看>>
JFinal源码分析------初始化那些事儿
查看>>
处理 允许远程协助连接这台计算机 灰色
查看>>
使用Jquery 加载页面时调用JS
查看>>
css+div+jquery弹出层
查看>>
求职相关(链接,不定期更新)
查看>>
pdo 连接数据库 报错 could not find driver 解决方法
查看>>
设计模式之策略模式
查看>>
maya pyside 多个窗口实例 报错 解决
查看>>
Nginx错误日志(error_log)配置及信息详解
查看>>
我的友情链接
查看>>
通知中心
查看>>
我的友情链接
查看>>
MVC中的三个模块
查看>>
Line: 220 - com/opensymphony/xwork2/spring/SpringObjectFactory.java:220:-1
查看>>
oracle 常用命令大汇总
查看>>
2012年春运火车票电话和网上订票技巧、攻略
查看>>
根据request获取请求路径
查看>>
mysql 并行复制
查看>>