当前位置: 首页 > news >正文

上海自动seo百度网站优化工具

上海自动seo,百度网站优化工具,网站引导插件,企业网站做的漂亮datax可以理解为sqoop的优化版, 速度比sqoop快 因为sqoop底层是map任务,而datax底层是基于内存 DataX 是一个异构数据源离线同步工具,致力于实现包括关系型数据库(MySQL、Oracle等)、HDFS、Hive、ODPS、HBase、FTP等各种异构数据源之间稳定…

datax可以理解为sqoop的优化版,

速度比sqoop

因为sqoop底层是map任务,而datax底层是基于内存

DataX 是一个异构数据源离线同步工具,致力于实现包括关系型数据库(MySQL、Oracle等)、HDFS、Hive、ODPS、HBase、FTP等各种异构数据源之间稳定高效的数据同步功能

datax 是让你编写 json

flume 是让你编写 conf

azkaban 是让你编写 flow

sqoop 是让你写命令

将mysql中的数据导入到hdfs上

{"job": {"setting": {"speed": {"channel": 1}},"content": [{"reader": {"name": "mysqlreader","parameter": {"username": "root","password": "123456","connection": [{"querySql": ["select empno,ename,job,hiredate,sal from emp;"],"jdbcUrl": ["jdbc:mysql://bigdata01:3306/sqoop"]}]}},"writer": {"name": "hdfswriter","parameter": {"defaultFS": "hdfs://bigdata01:9820","path": "/datax/emp","fileName": "emp","column": [{"name": "empno", "type": "int"},{"name": "ename", "type": "string"},{"name": "job", "type": "string"},{"name": "hiredate", "type": "string"},{"name": "sal", "type": "double"}],"fileType": "text","writeMode": "append","fieldDelimiter": "\t"}}}]}
}

将hdfs上的数据导入到mysql中

{"job": {"setting": {"speed": {"channel": 1}},"content": [{"reader": {"name": "hdfsreader","parameter": {"path": "/datax/emp/*","defaultFS": "hdfs://bigdata01:9820","column":[ {"index": 0, "type": "string"},{"index": 1, "type": "string"},{"index": 2, "type": "string"},{"index": 3, "type": "string"},{"index": 4, "type": "string"}],"fileType": "text","encoding": "UTF-8","fieldDelimiter": "\t"}},"writer": {"name": "mysqlwriter","parameter": {"writeMode": "replace","username": "root","password": "123456","column": ["empno", "ename", "job", "hiredate", "sal"],"connection": [{"jdbcUrl": "jdbc:mysql://bigdata01:3306/sqoop","table": ["eemmpp"]}]}}}]}
}

使用注意

注意点:

1)指定字段的类型时,datax中的类型只有下面几种,而不是像java一样的

2)默认的分隔符,即 "fieldDelimiter": "xxx" 不指定或者不写的时候,默认为 ' , ' 分割

3)

将mysql 中的数据导入hive(重要)*

说是把mysql中的数据导入hive,其实本质还是将mysql中的数据导入hdfs中

首先先创建一个hive表 指定到hdfs的路径上,再将mysql中的数据导入到这个路径即可

1)首先先创建一个hive表
 

reate external table if not exists ods_01_base_area ( id int COMMENT 'id标识', area_code string COMMENT '省份编码', province_name string COMMENT '省份名称', iso string COMMENT 'ISO编码' )row format delimited fields terminated by ',' stored as TextFile location '/data/nshop/ods/ods_01_base_area/'; -- 指定到hdfs的路径

2)将mysql的数据通过datax导入hdfs

注意指定路径和分隔符 ! 一定要与创建hive表指定的路径一致 且 分隔符也保持一致

{"job": {"setting": {"speed": {"channel": 1}},"content": [{"reader": {"name": "mysqlreader","parameter": {"username": "root","password": "123456","column": ["id","area_code","province_name","iso"],"splitPk": "id","connection": [{"table": ["base_area"],"jdbcUrl": ["jdbc:mysql://bigdata01:3306/datax"]}]}},"writer": {"name": "hdfswriter","parameter": {"defaultFS": "hdfs://bigdata01:9820","path": "/data/nshop/ods/ods_01_base_area/","fileName": "base_area","column": [{"name": "id","type": "int"},{"name": "area_code","type": "string"},{"name": "province_name","type": "string"},{"name": "iso","type": "string"}],"fileType": "text","writeMode": "append","fieldDelimiter": ","}}}]}
}
3) 导入完成,此时hive表中就有了数据

http://www.ds6.com.cn/news/9596.html

相关文章:

  • 深圳杰恩创意设计有限公司网站专业的制作网站开发公司
  • 广州网站建设哪家公司好百度极速版app下载安装挣钱
  • 潍坊做网站价格长沙seo推广公司
  • 电子商务网站建设人才调研google谷歌搜索引擎入口
  • 盐城本地网站建设公司电话百度云网盘网页版登录
  • 国外视频模板网站e谷歌官方app下载
  • 适合大学生做的兼职网站有哪些广东省白云区
  • 成都十大营销策划公司北京百度seo排名公司
  • 网站建设公司哪家好青岛seo
  • 宁波网站的优化网站更新seo
  • 南京市建设工程档案馆网站赣州seo顾问
  • 怎样安装wordpress对网站提出的优化建议
  • 做衣服接订单的网站注册网站流程和费用
  • 建立视觉健康档案的主要意义在于中国优化网
  • 湖北营销型网站建设十大网络营销经典案例
  • 创意广告小辉seo
  • 字体排版网站中国法律服务网app最新下载
  • 盘锦做网站公司抖音怎么运营和引流
  • 西安微网站制作seo推广绩效考核指标是什么
  • 自己网站做短链接网络营销渠道可分为哪些
  • 福田做网站价格网站搭建外贸
  • 网站开发常用颜色产品市场推广方案
  • 外语人才网官网做抖音seo排名软件是否合法
  • 上海房价即将暴跌seo科技网
  • 深圳做网站需要多少钱网络营销项目
  • 成都建设网站的公司哪家好哈尔滨网络优化推广公司
  • 在国外做黄皮网站违法么微信广告投放推广平台多少费用
  • 个人网站建设法律规定一键免费创建论坛网站
  • 南昌做网站seo企业邮箱网页版
  • 新网站如何做seo优化全球疫情最新数据