前言

在分析Sentinel从而知道它是基于滑动窗口做的流量统计,那么在当我们能够根据流量统计算法拿到流量的实时数据后,下一步要做的事情自然就是基于这些数据做流控。在介绍Sentinel的流控模型之前,我们先来简单看下 Sentinel 后台是如何去定义一个流控规则的。

对于上图的配置Sentinel把它抽象成一个FlowRule类,与其属性一一对应:

  • resource:资源名
  • limitApp:限流来源,默认为default不区分来源
  • grade:限流类型,有QPS和并发线程数两种类型
  • count:限流阈值
  • strategy:流控策略 1. 直接 2. 关联 3.链路
  • controlBehavior:流控效果 1.快速失败 2.预热启动 3.排队等待 4. 预热启动排队等待
  • warmUpPeriodSec:流控效果为预热启动时的预热时长(秒)
  • maxQueueingTimeMs:流控效果为排队等待时的等待时长 (毫秒)

下面我们来看下选择流控策略和流控效果的核心代码

public class FlowRuleChecker {

    private static boolean passLocalCheck(FlowRule rule, Context context, DefaultNode node, int acquireCount,
                                          boolean prioritized) {
		// 根据流控策略选择需要流控的Node维度节点								  
        Node selectedNode = selectNodeByRequesterAndStrategy(rule, context, node);
        if (selectedNode == null) {
            return true;
        }

		// 获取配置的流控效果 控制器 (1.直接拒绝 2.预热启动 3.排队 4.预热启动排队等待)
        return rule.getRater().canPass(selectedNode, acquireCount, prioritized);
    }
}

上面的代码比较简单流程也很清晰,首先根据我们配置的流控策略获取到合适维度的 Node 节点(Node节点是Sentinel做流量统计的基本单位),然后再获取到规则中配置的流控效果控制器(1. 直接拒绝 2. 预热启动 3. 排队等待 4.预热启动排队等待)。

流控策略

下面我们来看下选择流控策略的源码分析

public class FlowRuleChecker {

    static Node selectNodeByRequesterAndStrategy(/*@NonNull*/ FlowRule rule, Context context, DefaultNode node) {
        // 获取限流来源 limitApp
        String limitApp = rule.getLimitApp();
		// 获取限流策略
        int strategy = rule.getStrategy();
		// 获取当前 上下文的 来源
        String origin = context.getOrigin();

		// 如果规则配置的限流来源 limitApp 等于 当前上下文来源
        if (limitApp.equals(origin) && filterOrigin(origin)) {
			// 且配置的流控策略是 直接关联策略
            if (strategy == RuleConstant.STRATEGY_DIRECT) {
                // 直接返回当前来源 origin 节点
                return context.getOriginNode();
            }
			// 配置的策略为关联或则链路
            return selectReferenceNode(rule, context, node);
			
		// 如果规则配置的限流来源 limitApp 等于 default 	
        } else if (RuleConstant.LIMIT_APP_DEFAULT.equals(limitApp)) {
			// 且配置的流控策略是 直接关联策略
            if (strategy == RuleConstant.STRATEGY_DIRECT) {
                // 直接返回当前资源的 clusterNode
                return node.getClusterNode();
            }
			// 配置的策略为关联或则链路
            return selectReferenceNode(rule, context, node);
			
		// 如果规则配置的限流来源 limitApp 等于 other,且当前上下文origin不在流控规则策略中	
        } else if (RuleConstant.LIMIT_APP_OTHER.equals(limitApp)
            && FlowRuleManager.isOtherOrigin(origin, rule.getResource())) {
			// 且配置的流控策略是 直接关联策略
            if (strategy == RuleConstant.STRATEGY_DIRECT) {
                return context.getOriginNode();
            }
			// 配置的策略为关联或则链路
            return selectReferenceNode(rule, context, node);
        }

        return null;
    }
	
    static Node selectReferenceNode(FlowRule rule, Context context, DefaultNode node) {
        // 关联资源名称 (如果策略是关联 则是关联的资源名称,如果策略是链路 则是上下文名称)
		String refResource = rule.getRefResource();
        int strategy = rule.getStrategy();

        if (StringUtil.isEmpty(refResource)) {
            return null;
        }
		// 策略是关联
        if (strategy == RuleConstant.STRATEGY_RELATE) {
			// 返回关联的资源ClusterNode
            return ClusterBuilderSlot.getClusterNode(refResource);
        }
		// 策略是链路
        if (strategy == RuleConstant.STRATEGY_CHAIN) {
			// 当前上下文名称不是规则配置的name 直接返回null
            if (!refResource.equals(context.getName())) {
                return null;
            }
            return node;
        }
        // No node.
        return null;
    }	
}

这段代码的逻辑判断比较多,稍微理一下整个过程:

  • LimitApp的作用域只在配置的流控策略为RuleConstant.STRATEGY_DIRECT(直接关联)时起作用。其有三种配置,分别为default,origin_name,other

    • default:如果配置为default,表示统计不区分来源,当前资源的任何来源流量都会被统计(其实就是选择 Node 为 clusterNode 维度)
    • origin_name:如果配置为指定名称的 origin_name,则只会对当前配置的来源流量做统计
    • other:如果配置为other 则会对其他全部来源生效但不包括第二条配置的来源
  • 当策略配置为 RuleConstant.STRATEGY_RELATE 或 RuleConstant.STRATEGY_CHAIN 时

    • STRATEGY_RELATE:关联其他的指定资源,如资源A想以资源B的流量状况来决定是否需要限流,这时资源A规则配置可以使用 STRATEGY_RELATE 策略
    • STRATEGY_CHAIN:对指定入口的流量限流,因为流量可以有多个不同的入口(EntranceNode)

Sentinel中预设的SlotChain执行的完整流程:

Sentinel中预设的SlotChain执行的完整流程

流控效果

关于流控效果的配置有四种,看下它们的初始化代码

public final class FlowRuleUtil {

    private static TrafficShapingController generateRater(/*@Valid*/ FlowRule rule) {
		// 只有Grade为统计 QPS时 才可以选择除默认流控效果外的 其他流控效果控制器
        if (rule.getGrade() == RuleConstant.FLOW_GRADE_QPS) {
            switch (rule.getControlBehavior()) {
				// 预热启动
                case RuleConstant.CONTROL_BEHAVIOR_WARM_UP:
                    return new WarmUpController(rule.getCount(), rule.getWarmUpPeriodSec(),
                            ColdFactorProperty.coldFactor);
				// 超过 阈值 排队等待 控制器			
                case RuleConstant.CONTROL_BEHAVIOR_RATE_LIMITER:
                    return new RateLimiterController(rule.getMaxQueueingTimeMs(), rule.getCount());
                case RuleConstant.CONTROL_BEHAVIOR_WARM_UP_RATE_LIMITER:
					// 上面两个的结合体
                    return new WarmUpRateLimiterController(rule.getCount(), rule.getWarmUpPeriodSec(),
                            rule.getMaxQueueingTimeMs(), ColdFactorProperty.coldFactor);
                case RuleConstant.CONTROL_BEHAVIOR_DEFAULT:
                default:
                    // Default mode or unknown mode: default traffic shaping controller (fast-reject).
            }
        }
		// 默认控制器 超过 阈值 直接拒绝
        return new DefaultController(rule.getCount(), rule.getGrade());
    }
}

可以比较清晰的看到总共对应有四种流控器的初始化

直接拒绝

public class DefaultController implements TrafficShapingController {

    private double count;
    private int grade;
	
    @Override
    public boolean canPass(Node node, int acquireCount, boolean prioritized) {
		// 获取当前qps
        int curCount = avgUsedTokens(node);
		// 判断是否已经大于阈值
        if (curCount + acquireCount > count) {
			// 如果当前流量具有优先级,则会提前去获取未来的通过资格
            if (prioritized && grade == RuleConstant.FLOW_GRADE_QPS) {
                long currentTime;
                long waitInMs;
                currentTime = TimeUtil.currentTimeMillis();
                waitInMs = node.tryOccupyNext(currentTime, acquireCount, count);
                if (waitInMs < OccupyTimeoutProperty.getOccupyTimeout()) {
                    node.addWaitingRequest(currentTime + waitInMs, acquireCount);
                    node.addOccupiedPass(acquireCount);
                    sleep(waitInMs);

                    // PriorityWaitException indicates that the request will pass after waiting for {@link @waitInMs}.
                    throw new PriorityWaitException(waitInMs);
                }
            }
            return false;
        }
        return true;
    }
}

此种策略比较简单粗暴,超过流量阈值的会直接拒绝。不过这里有一个小细节,如果入口流量prioritized为true,也就是优先级比较高,则会通过占用未来时间窗口的名额来实现。

预热启动

WarmUpController 主要是用来防止流量的突然上升,使系统本在稳定状态下能处理的,但是由于许多资源没有预热,导致处理不了了。注意这里的预热并不是指系统启动之后的一次性预热,而是指系统在运行的任何时候流量从低峰到突增的预热阶段。

 

下面我们来看下WarmUpController的具体实现类

public class WarmUpController implements TrafficShapingController {

    protected double count;
    private int coldFactor;
    protected int warningToken = 0;
    private int maxToken;
    protected double slope;
	
    public WarmUpController(double count, int warmUpPeriodInSec, int coldFactor) {
        construct(count, warmUpPeriodInSec, coldFactor);
    }

    public WarmUpController(double count, int warmUpPeriodInSec) {
        construct(count, warmUpPeriodInSec, 3);
    }	
	
	/**
	 * WarmUpController 构造方法
	 * @param count 当前qps阈值
	 * @param warmUpPeriodInSec 预热时长 秒
	 * @param coldFactor 冷启动系数 默认为3
	 */
    private void construct(double count, int warmUpPeriodInSec, int coldFactor) {

        if (coldFactor <= 1) {
            throw new IllegalArgumentException("Cold factor should be larger than 1");
        }

        this.count = count;

        this.coldFactor = coldFactor;

        // thresholdPermits = 0.5 * warmupPeriod / stableInterval.
        // warningToken = 100;
		// 剩余Token的警戒值,小于警戒值系统就进入正常运行期
        warningToken = (int)(warmUpPeriodInSec * count) / (coldFactor - 1);
		
        // / maxPermits = thresholdPermits + 2 * warmupPeriod /
        // (stableInterval + coldInterval)
        // maxToken = 200
		// 系统最冷时候的剩余Token数
        maxToken = warningToken + (int)(2 * warmUpPeriodInSec * count / (1.0 + coldFactor));

        // slope
        // slope = (coldIntervalMicros - stableIntervalMicros) / (maxPermits
        // - thresholdPermits);
		// 系统预热的速率(斜率)
        slope = (coldFactor - 1.0) / count / (maxToken - warningToken);

    }

    @Override
    public boolean canPass(Node node, int acquireCount, boolean prioritized) {
        long passQps = (long) node.passQps();

        long previousQps = (long) node.previousPassQps();
		// 计算当前的 剩余 token 数
        syncToken(previousQps);

        // 开始计算它的斜率
        // 如果进入了警戒线,开始调整他的qps
        long restToken = storedTokens.get();
        if (restToken >= warningToken) {
			// 计算剩余token超出警戒值的值
            long aboveToken = restToken - warningToken;
            // 消耗的速度要比warning快,但是要比慢
            // current interval = restToken*slope+1/count
			// 计算当前允许通过的最大 qps
            double warningQps = Math.nextUp(1.0 / (aboveToken * slope + 1.0 / count));
            if (passQps + acquireCount <= warningQps) {
                return true;
            }
        } else {
			// 不在预热阶段,则直接判断当前qps是否大于阈值
            if (passQps + acquireCount <= count) {
                return true;
            }
        }

        return false;
    }
}	

首先是构造方法,主要关注2个重要参数:

  • warningToken:剩余token的警戒值。
  • maxToken:剩余的最大token数,如果剩余token数等于maxToken,则说明系统处于最冷阶段。

要理解这两个参数的含义,可以参考令牌桶算法,每通过一个请求,就会从令牌桶中取走一个令牌。那么试想一下,当令牌桶中的令牌达到最大值是,是不是意味着系统目前处于最冷阶段,因为桶里的令牌始终处于一个非常饱和的状态。这里的令牌最大值对应的就是maxToken,而warningToken,则是对应了一个警戒值,当桶中的令牌数减少到一个指定的值时,说明系统已经度过了预热阶段

 

当一个请求进来时,首先需要计算当前桶中剩余的token数,具体逻辑在syncToken方法中 当系统剩余Token大于warningToken时,说明系统仍处于预热阶段,故需要调整当前所能通过的最大qps阈值

public class WarmUpController implements TrafficShapingController {

    protected void syncToken(long passQps) {
        long currentTime = TimeUtil.currentTimeMillis();
		// 获取秒级别时间(去除毫秒)
        currentTime = currentTime - currentTime % 1000;
        long oldLastFillTime = lastFilledTime.get();
        if (currentTime <= oldLastFillTime) {
            return;
        }

        long oldValue = storedTokens.get();
		// 判断是否需要往桶中添加令牌
        long newValue = coolDownTokens(currentTime, passQps);
		// 设置新的token数
        if (storedTokens.compareAndSet(oldValue, newValue)) {
			// 如果设置成功的话则减去上次通过的qps数量,就得到当前的实际token数
            long currentValue = storedTokens.addAndGet(0 - passQps);
            if (currentValue < 0) {
                storedTokens.set(0L);
            }
            lastFilledTime.set(currentTime);
        }
    }
}	
  • 1、获取当前时间。
  • 2、coolDownTokens 方法会判断是否需要往桶中放 token,并返回最新的token数。
  • 3、如果返回了最新的token数,则将当前剩余的token数减去已经通过的qps,得到最新的剩余token数。
public class WarmUpController implements TrafficShapingController {

    private long coolDownTokens(long currentTime, long passQps) {
        long oldValue = storedTokens.get();
        long newValue = oldValue;

        // 添加令牌的判断前提条件:
        // 当令牌的消耗程度远远低于警戒线的时候
		
		// 添加令牌的几种情况
		// 1. 系统初始启动阶段,oldvalue = 0,lastFilledTime也等于0,此时得到一个非常大的newValue,会取maxToken为当前token数量值
		// 2. 系统处于预热阶段 且 当前qps小于 count / coldFactor
		// 3. 系统处于完成预热阶段		
        if (oldValue < warningToken) {
            newValue = (long)(oldValue + (currentTime - lastFilledTime.get()) * count / 1000);
        } else if (oldValue > warningToken) {
            if (passQps < (int)count / coldFactor) {
                newValue = (long)(oldValue + (currentTime - lastFilledTime.get()) * count / 1000);
            }
        }
        return Math.min(newValue, maxToken);
    }

}

这里看一下会添加令牌的几种情况

  • 1、系统初始启动阶段,oldvalue = 0,lastFilledTime也等于0,此时得到一个非常大的newValue,会取maxToken为当前token数量值。
  • 2、系统处于完成预热阶段,需要补充 token 使其稳定在一个范围内。
  • 3、系统处于预热阶段 且 当前qps小于 count / coldFactor。

前2种情况比较好理解,这里主要解释一下第三种情况,为何 当前qps小于count / coldFactor时,需要往桶中添加Token?试想一下如果没有这一步会怎么样,如果没有这一步在比较低的qps情况下补充Token,系统最终也会慢慢度过预热阶段,但实际上这么低的qps(小于 count / coldFactor时)不应该完成预热。所以这里才会在 qps低于count / coldFactor时补充剩余token数,来让系统在低qps情况下始终处于预热状态下

排队等待

排队等待的实现相对预热启动实现比较简单

 

首先会通过我们的配置,计算出相邻两个请求允许通过的最小时间,然后会记录最近一个通过的时间。两者相加即是下一次请求允许通过的最小时间。

public class RateLimiterController implements TrafficShapingController {

	//最大等待超时时间
    private final int maxQueueingTimeMs;
	//限流阈值
    private final double count;
	//最新的一次通过时间,这是一个原子变量
    private final AtomicLong latestPassedTime = new AtomicLong(-1);

    @Override
    public boolean canPass(Node node, int acquireCount, boolean prioritized) {
        // 默认值, 1
        if (acquireCount <= 0) {
            return true;
        }
        // 漏桶可以直接限成0
        if (count <= 0) {
            return false;
        }

        long currentTime = TimeUtil.currentTimeMillis();
        // 计算相隔两个请求 需要相隔多长时间
        long costTime = Math.round(1.0 * (acquireCount) / count * 1000);

        // 本次期望通过的最小时间
        long expectedTime = costTime + latestPassedTime.get();
		// 如果当前时间大于期望时间,说明qps还未超过阈值,直接通过
        if (expectedTime <= currentTime) {
            // 预计结束时间小于当前时间, 当然直接放流。 同时设定通过时间。
            latestPassedTime.set(currentTime);
            return true;
        } else {
            // 当前时间小于于期望时间,请求过快了,需要排队等待指定时间
			// 计算等待时间
            long waitTime = costTime + latestPassedTime.get() - TimeUtil.currentTimeMillis();
			// 等待时长大于我们设置的最大时长,则不通过
            if (waitTime > maxQueueingTimeMs) {
                return false;
            } else {
				// 否则则排队等待,占用下通过时间
				// 尝试抢占下一个窗口
                // 这里每个线程都会来抢占, 但无关先后顺序
                // 每个线程都能给这个值加一笔
                long oldTime = latestPassedTime.addAndGet(costTime);
                try {
					// 得到抢占后的时间(可能是好多并发时间一起的)与当前时间的时间差。 如果这个时间差还比预计等待时间差大
                    // 也就是说现在的QPS超量了, 需要放弃。
					waitTime = oldTime - TimeUtil.currentTimeMillis();
					// 判断等待时间是否已经大于最大值
                    if (waitTime > maxQueueingTimeMs) {
						// 大于则将上一步加的值重新减去
                        latestPassedTime.addAndGet(-costTime);
                        return false;
                    }
                    // in race condition waitTime may <= 0
					// 占用等待时间成功,直接sleep costTime
                    if (waitTime > 0) {
                        Thread.sleep(waitTime);
                    }
                    return true;
                } catch (InterruptedException e) {
                }
            }
        }
        return false;
    }
}	

Sentinel中的RateLimiterController是参考了Guava RateLimiter设计的,实现也比较简单。

 

整个算法中并没有使用到Node中保存的统计数据,首先根据此次请求的的令牌数acquireCount,预估在设定的QPS限制下的所需耗时costTime,然后加上latestPassedTime(上次请求通过时间),得出预计此次请求通过的时间点expectedTime。

 

如果此时间点在当前时间之前,说明当前时间窗口可以容纳此次请求通过,则放行此次请求,并将当前时间设置为latestPassedTime。如果expectedTime在当前时间之后,说明按照目前的请求速率,当前时间窗口无法满足此次请求,需要延后,计算所需等待时间,满足一定限制则可在sleep后放行通过。当然我们也可以配置排队等待的最大时间,来限制目前排队等待通过的请求数量。

预热启动排队等待

预热排队等待,WarmUpRateLimiterController实现类我们发现其继承了WarmUpController,这是Sentinel在1.4版本后新加的一种控制器,其实就是预热启动和排队等待的结合体。

 

总结 以上源码分析的内容总结起来主要有两点:

在使用Sentinel时,其核心的流控功能是如何运转的,重要的类及其调用流程都有哪些; Sentinel最终实现流控规则算法的4个Controller的简单介绍和分析。

参考: https://www.cnblogs.com/taromilk/p/11877242.html

https://blog.csdn.net/wk52525/article/details/104439404