本篇文章为系列文章,未读前几集的同学请猛戳这里:
本篇文章讲解 Sleuth 如何使用 Elasticsearch、Logstash、Kibana 分析追踪数据。
点击链接观看:ELK 环境准备视频(获取更多请关注公众号「哈喽沃德先生」)
ELK 是 elastic 公司提供的一套完整的日志收集以及展示的解决方案,是三个产品的首字母缩写,分别是 Elasticsearch、Logstash 和 Kibana。
之前的课程中我们已经学习过 ELK 的详细使用,这里不再过多赘述,直接开启使用即可。
文中使用的 ELK 版本统一为 7.5.2。
Elasticsearch
集群地址为:
192.168.10.101:9200
192.168.10.102:9200
192.168.10.103:9200
Logstash
的地址为:
192.168.10.101:9250
Kibana
的地址为:
192.168.10.101:5601
Logstash 运行时指定的配置文件 log-to-es.conf 内容如下:
在需要进行链路追踪的项目中(服务网关、商品服务、订单服务)添加 logstash-logback-encoder
依赖。
在需要进行链路追踪的项目中(服务网关、商品服务、订单服务)添加 logstash 输出 JSON 格式数据
。
logback.xml
重启项目后,访问:http://192.168.10.101:9100 可以看到已经创建好了 applog
索引库。
访问:http://localhost:9000/order-service/order/1 查看索引库结果如下:
访问:http://192.168.10.101:5601/ Kibana 首页。
添加 applog 索引库。
不使用时间过滤器。
搜索 gateway 结果如下:
至此 Sleuth 链路追踪所有的知识点就讲解结束了。
Spring Cloud 系列之 Sleuth 链路追踪(三)
原文:https://www.cnblogs.com/youngdeng/p/12867241.html