当前位置: 首页 > news >正文

美国小卖家做deal网站网站服务器ip地址查询

美国小卖家做deal网站,网站服务器ip地址查询,网站开发文献翻译,邢台信息港人力资源首页ElasticSeach(存储日志信息) Logstash(搬运工) Kibana 连接ElasticSeach图形化界面查询日志 ELK采集日志的原理: 在每个服务器上安装LogstashLogstash需要配置固定读取某个日志文件Logstash将日志文件格式化为json的…

ElasticSeach(存储日志信息)
Logstash(搬运工)
Kibana 连接ElasticSeach图形化界面查询日志

ELK采集日志的原理:

  1. 在每个服务器上安装Logstash
  2. Logstash需要配置固定读取某个日志文件
  3. Logstash将日志文件格式化为json的格式输出到es中
  4. 开发者使用Kibana连接到ElasticSeach 查询存储日志内容

为什么将日志存储在ElasticSeach
其底层使用到倒排索引 搜索效率高

为什么需要使用elk+kafka
如果单纯的使用elk的话,服务器节点扩容时需要在每个服务器上安装 Logstash 步骤十分冗余。
Logstash读取本地日志文件,可能会对本地的磁盘io性能会有一定影响。

elk+kafka采集日志的原理:

  1. springboot项目基于aop的方式拦截系统中日志
  2. 将该日志投递到 kafka 中,该过程一定要采用异步的形式
  3. Logstash 订阅 kafka 的主题获取日志消息内容
  4. 在将日志消息内容输出到es中存放
  5. 开发者使用Kibana连接到ElasticSeach 查询存储日志内容

logstash

Logstash是一个开源数据收集引擎,具有实时管道功能。
Logstash可以动态地将来自不同数据源的数据统一起来,并将数据标准化到你所选择的目的地

进入 logstash 目录,执行命令安装输入输出插件

bin/logstash-plugin install logstash-input-kafka
bin/logstash-plugin install logstash-output-elasticsearch

添加配置文件:logstash/config/kafka.conf

# 输入
input {kafka {bootstrap_servers => "192.168.10.110:9091"topics => "主题名称"}
}
# 过滤排除一些不需要写入的日志
filter {#Only matched data are send to output.
}
# 输出
output {elasticsearch {action => "index"          #The operation on EShosts  => "192.168.10.110:9200"   #ElasticSearch host, can be array.index  => "索引名称"         #The index to write data to.}
}

启动logstash:./logstash -f …/config/kafka.conf

Aop拦截日志

@Aspect
@Component
public class AopLogAspect {@Value("${server.port}")private String serverPort;@Autowiredprivate KafkaTemplate<String, Object> kafkaTemplate;@Pointcut("execution(* com.example.service.*.*(..))")private void serviceAspect() {}@Autowiredprivate LogContainer logContainer;// 异常通知@AfterThrowing(pointcut = "serviceAspect()", throwing = "e")public void serviceAspect(JoinPoint point, Exception e) {ServletRequestAttributes requestAttributes = (ServletRequestAttributes) RequestContextHolder.getRequestAttributes();HttpServletRequest request = requestAttributes.getRequest();JSONObject jsonObject = new JSONObject();SimpleDateFormat df = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");// 设置日期格式jsonObject.put("request_time", df.format(new Date()));jsonObject.put("request_url", request.getRequestURL().toString());jsonObject.put("request_method", request.getMethod());jsonObject.put("signature", point.getSignature());jsonObject.put("request_args", Arrays.toString(point.getArgs()));jsonObject.put("error", e.toString());// IP地址信息jsonObject.put("ip_addres", getIpAddr(request) + ":" + serverPort);JSONObject requestJsonObject = new JSONObject();requestJsonObject.put("request", jsonObject);// 将日志信息投递到kafka中String log = requestJsonObject.toJSONString();logContainer.put(log);}
}
使用队列+线程实现异步
@Component
public class LogContainer {private static BlockingDeque<String> logDeque = new LinkedBlockingDeque<>();@Autowiredprivate KafkaTemplate<String, Object> kafkaTemplate;public LogContainer() {new LogThreadKafka().start();}// 存入日志public void put(String log) {logDeque.offer(log);}// 只需要创建一次线程class LogThreadKafka extends Thread {@Overridepublic void run() {while (true) {String log = logDeque.poll();if (!StringUtils.isEmpty(log)) {// 将消息投递kafka中kafkaTemplate.send("xxx-log", log);}}}}
}
http://www.ds6.com.cn/news/36242.html

相关文章:

  • 聊城wap网站制作河南郑州最新消息今天
  • 龙华做网站app开发公司推荐
  • 个人网站设计论文道客巴巴优化网站建设seo
  • 做网站技术服务费属于什么科目销售怎么找客户源
  • 免费做网站靠谱么win11优化大师
  • 企业网站页面南宁seo网络优化公司
  • 莆田建设企业网站快速排名优化系统
  • 白城学习做网站的学校整合营销传播策略
  • 洛阳做网站汉狮网络网络服务器
  • 买做指甲的材料在哪个网站2024年阳性什么症状
  • 平阴网站建设东营网站建设费用
  • wordpress 图片圆边苏州网站优化公司
  • 网站建设属于会计的什么科目注册网站的免费网址
  • 青海网站建设免费推广简述搜索引擎的工作原理
  • 广州做进口商品的网站电脑学校培训
  • 淄博网站制作公司百度竞价排名事件
  • 自己做的网站验证码出不来怎么互联网创业项目
  • 自己可以做网站么软文如何推广
  • 承德优化网站建设网站目录结构
  • 商丘建网站优化设计答案大全英语
  • 南京做网站营销无代码网站开发平台
  • 儿童网站建设外文翻译2023今日新闻头条
  • 有没有做淘宝的网站吗狼雨seo网站
  • 百度收录哪些网站吗西安百度快照优化
  • 网站系统建设架构产品关键词
  • 沈阳百度首页优化seo指什么
  • 商标做网站logo网站优化推广公司
  • 湖北省建设工程质量协会网站关键词怎么优化到百度首页
  • 广州市官网网站建设哪家好百度关键词推广怎么做
  • 看手机的网站叫什么企业seo关键字优化