当前位置: 首页 > news >正文

微信公众号做网站上海seo推广平台

微信公众号做网站,上海seo推广平台,宁波在线制作网站,手机做网站需要多少天概述 环境是spark 3.2.4 hadoop版本 3.2.4,所以官网下载的包为 spark-3.2.4-bin-hadoop3.2.tgz 在具体安装部署之前,需要先下载Spark的安装包,进到 spark的官网,点击download按钮 使用Spark的时候一般都是需要和Hadoop交互的&a…

概述

环境是spark 3.2.4 hadoop版本 3.2.4,所以官网下载的包为 spark-3.2.4-bin-hadoop3.2.tgz

在具体安装部署之前,需要先下载Spark的安装包,进到 spark的官网,点击download按钮
在这里插入图片描述
在这里插入图片描述

使用Spark的时候一般都是需要和Hadoop交互的,所以需要下载带有Hadoop依赖的安装包
这个时候就需要选择Hadoop版本对应的Spark安装包
在这里插入图片描述

机器配置

注意:需要确保这几台机器上的基础环境是OK的,防火墙、免密码登录、还有JDK
因为这几台机器之前已经使用过了,基础环境都是配置过的,所以说在这就直接使用了

linux机器配置请参考此链接

机器ip机器名
10.32.xx.142hadoop01
10.32.xx.143hadoop02
10.32.xx.144hadoop03
10.32.xx.145hadoop04

standalone 配置

主节点

先在hadoop01上进行配置

解压
# 解压
[root@hadoop01 soft]# tar -zxvf spark-3.2.4-bin-hadoop3.2.tgz[root@hadoop01 soft]# cd  spark-3.2.4-bin-hadoop3.2
[root@hadoop01 spark-3.2.4-bin-hadoop3.2]# cd conf/
[root@hadoop01 conf]# ls
fairscheduler.xml.template  log4j.properties.template  metrics.properties.template  spark-defaults.conf.template  spark-env.sh.template  workers.template
配置spark-env.sh及workers

spark 2.x版本 从节点叫 slaves.template spark 3.x 这后叫 workers.template ,这个需要注意

# 重命名spark-env.sh.template
[root@hadoop01 conf]# mv spark-env.sh.template spark-env.sh
[root@hadoop01 conf]# vi spark-env.sh 
# 在最后加入下面两句
export JAVA_HOME=/data/soft/jdk1.8
export SPARK_MASTER_HOST=hadoop01# 重命名workers.template
[root@hadoop01 conf]# mv workers.template workers
# 修改workers
[root@hadoop01 conf]# vi workers hadoop02
hadoop03
hadoop04
分发

将修改好配置的spark安装包 分发到其它worker节点,即上文所说的 hadoop02 hadoop03 hadoop04 三台机器

# 将修改好配置的spark安装包 分发到其它worker节点
[root@hadoop01 soft]#  scp -rq spark-3.2.4-bin-hadoop3.2 hadoop02:/data/soft/
[root@hadoop01 soft]#  scp -rq spark-3.2.4-bin-hadoop3.2 hadoop03:/data/soft/
[root@hadoop01 soft]#  scp -rq spark-3.2.4-bin-hadoop3.2 hadoop04:/data/soft/
启动集群

启动Spark集群

[root@hadoop01 spark-3.2.4-bin-hadoop3.2]# ls
bin  conf  data  examples  jars  kubernetes  LICENSE  licenses  NOTICE  python  R  README.md  RELEASE  sbin  yarn
[root@hadoop01 spark-3.2.4-bin-hadoop3.2]# sbin/start-all.sh 
starting org.apache.spark.deploy.master.Master, logging to /data/soft/spark-3.2.4-bin-hadoop3.2/logs/spark-root-org.apache.spark.deploy.master.Master-1-hadoop01.out
hadoop04: starting org.apache.spark.deploy.worker.Worker, logging to /data/soft/spark-3.2.4-bin-hadoop3.2/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-hadoop04.out
hadoop03: starting org.apache.spark.deploy.worker.Worker, logging to /data/soft/spark-3.2.4-bin-hadoop3.2/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-hadoop03.out
hadoop02: starting org.apache.spark.deploy.worker.Worker, logging to /data/soft/spark-3.2.4-bin-hadoop3.2/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-hadoop02.out
验证
[root@hadoop01 spark-3.2.4-bin-hadoop3.2]# jps
10520 Master
12254 Jps[root@hadoop02 soft]# jps
4224 Worker
7132 Jps

还可以访问主节点的8080端口来查看集群信息

在这里插入图片描述

执行任务

验证结束后,跑个 spark 任务来测试一下吧

[root@hadoop01 spark-3.2.4-bin-hadoop3.2]# bin/spark-submit  --class org.apache.spark.examples.SparkPi --master spark://hadoop01:7077 examples/jars/spark-examples_2.12-3.2.4.jar 2

在这里插入图片描述

结束

这就是Spark的独立集群

http://www.ds6.com.cn/news/9910.html

相关文章:

  • 如何在网上推广游戏网站搜索引擎优化的基本内容
  • 市直部门网站建设维护工作总结新网
  • 网页站点西安关键词排名提升
  • 郑州高新发布关键词seo公司真实推荐
  • 潍坊做网站个人工作室百度seo公司
  • 阿里云备案网站建设方案书案例如何建立自己的网络销售
  • 企业网站制作设计公司加拿大搜索引擎
  • 绵阳做手机网站建设软文街怎么样
  • 网站开发岗位实际情况今日热点新闻头条国内
  • 自己电脑做网站模板四川省人民政府
  • seo网站建设价格软文文案
  • 手机网站淘宝客怎么做域名注册后怎么使用
  • 网站301设置常熟网站建设
  • 怎么做网站建设临沂森佳木业有限公司
  • 常州专业做网站公司子域名大全查询
  • 网站建设公司一般多少钱广东疫情动态人民日报
  • 企业网站功能模块介绍天津seo标准
  • 邯郸市住房公积金管理中心seo外包顾问
  • 班级网站制作教程百度在线客服人工服务
  • 注册网店怎么注册流程windows优化大师电脑版
  • 企业做网站推广百度一下你就知道百度官网
  • 邢台网站建设厂家天津百度推广代理商
  • 盈佳国际天天做赢家网站泰安seo网络公司
  • 东莞公司网站建设公司推广策略可以分为哪三种
  • 建立网站建设深圳做网站公司哪家好
  • 企业建设网站的好处持续优化疫情防控举措
  • 泰安集团网站建设报价如何免费注册网站平台
  • 百度推广登录官网入口优化网站技术
  • 做服装到哪个网站拿货品质好百度新闻首页头条
  • 网站建设kpi考核企业推广平台