链路追踪 Sleuth&Zipkin
微服务架构是一个分布式架构,它按业务划分服务单元,一个分布式系统往往有很多个服务单元。由于服务单元数量众多,业务的复杂性,如果出现了错误和异常,很难去定位。主要体现在,一个请求可能需要调用很多个服务,而内部服务的调用复杂性,决定了问题难以定位。所以微服务架构中,必须实现分布式链路追踪,去跟进一个请求到底有哪些服务参与,参与的顺序又是怎样的,从而达到每个请求的步骤清晰可见,出了问题,很快定位。
分布式链路追踪(Distributed Tracing),就是将一次分布式请求还原成调用链路,进行日志记录,性能监控并将一次分布式请求的调用情况集中展示。比如各个服务节点上的耗时、请求具体到达哪台机器上、每个服务节点的请求状态等等
常见的链路追踪技术
- cat :由大众点评开源,基于Java开发的实时应用监控平台,包括实时应用监控,业务监控 。 集成
方案是通过代码埋点的方式来实现监控,比如: 拦截器,过滤器等。 对代码的侵入性很大,集成
成本较高。风险较大。
- zipkin :由Twitter公司开源,开放源代码分布式的跟踪系统,用于收集服务的定时数据,以解决微
服务架构中的延迟问题,包括:数据的收集、存储、查找和展现。该产品结合spring-cloud-sleuth
使用较为简单, 集成很方便, 但是功能较简单。
- pinpoint: Pinpoint是韩国人开源的基于字节码注入的调用链分析,以及应用监控分析工具。特点
是支持多种插件,UI功能强大,接入端无代码侵入。
- skywalking:SkyWalking是本土开源的基于字节码注入的调用链分析,以及应用监控分析工具。特点是支持多
种插件,UI功能较强,接入端无代码侵入。目前已加入Apache孵化器。
- Sleuth
SpringCloud 提供的分布式系统中链路追踪解决方案。
集成链路追踪组件Sleuth
三板斧操作
- 加依赖 在项目当中pom.xml 添加
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-sleuth</artifactId>
</dependency>
- 加配置 该组件没有配置
- 贴注解 该组件无需贴注解
- 测试结果
日志参数解释
INFO [product-service,f4f56bb288ab3e96,4435072721708f8e,true]
1、第一个值,spring.application.name的值
2、第二个值,c323c72e7009c077 ,sleuth生成的一个ID,叫Trace ID,用来标识一条请求链路,一条请求链路中包含一个Trace ID,多个Span ID
3、第三个值,fba72d9c65745e60、spanID 基本的工作单元,获取元数据,如发送一个http
4、第四个值:true,是否要将该信息输出到zipkin服务中来收集和展示。
Zipkin+Sleuth整合 采用直连方式
zipkin是Twitter基于google的分布式监控系统Dapper(论文)的开发源实现,zipkin用于跟踪分布式服务之间的应用数据链路,分析处理延时,帮助我们改进系统的性能和定位故障。
官网:https://zipkin.io/
- 下载Zipkin的jar包,在官网可以下载.
- 通过命令行,输入下面的命令启动ZipKin Server
java -jar zipkin-server-2.22.1-exec.jar
- 通过浏览器访问 http://localhost:9411访问
- 三板斧操作
- 在pom.xml 导入依赖 因为zipkin jar 包里面有sleuth依赖 所以不需要导入 sleuth的依赖了
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-zipkin</artifactId>
</dependency>
- 在配置文件当中添加配置
spring:
zipkin:
base-url: http://127.0.0.1:9411/ #zipkin server的请求地址
discoveryClientEnabled: false #让nacos把它当成一个URL,而不要当做服务名
sleuth:
sampler:
probability: 1.0 #采样的百分比
- 没有注解
- 启动测试
为什么需要对Zipkin 做自定义配置
- 默认情况下 Zipkin 将跟踪信息存储在内存中JVM 重启会丢失
- Zipkin 默认使用http 方式上报跟踪数据 性能较差
Zipkin 配置mysql 跟踪数据持久化 最好建议配置ES 我这里就配置mysql 了
1.在mysql 中添加数据表 连接如下 mysql表 1.把sql 脚本放到 mysql 当中进行执行
2. ZipKin 启动指定mysql 路径
java -jar zipkin-server-2.23.9-exec.jar --STORAGE_TYPE=mysql --MYSQL_HOST=127.0.0.1 --MYSQL_TCP_PORT=3306 --MYSQL_USER=root --MYSQL_PASS=abc123456 --MYSQL_DB=zw_zipkin
查看mysql
Zipkin+Sleuth整合 采用mq方式
- Zipkin 启动方式
java -DKAFKA_BOOTSTRAP_SERVERS=127.0.0.1:9092 -jar zipkin-server-2.23.9-exec.jar --STORAGE_TYPE=mysql --MYSQL_HOST=127.0.0.1 --MYSQL_TCP_PORT=3306 --MYSQL_USER=root --MYSQL_PASS=abc123456 --MYSQL_DB=zw_zipkin
启动后查看
2.添加依赖
<dependency>
<groupId>org.springframework.kafka</groupId>
<artifactId>spring-kafka</artifactId>
<version>2.5.0.RELEASE</version>
</dependency>
3.修改配置文件 yml
spring:
kafka:
bootstrap-servers: 127.0.0.1:9092
producer:
retries: 3
consumer:
auto-offset-reset: latest
sleuth:
sampler:
probability: 1.0 # 采样比例, 1.0 表示 100%, 默认是 0.1
zipkin:
sender:
type: kafka # 默认是 web
base-url: http://localhost:9411/
- 没有注解
- 启动测试