您的位置:首页 > 文旅 > 美景 > 封装一个细粒度的限流器

封装一个细粒度的限流器

2024/12/23 15:37:38 来源:https://blog.csdn.net/Mengbabe_2018/article/details/141098492  浏览:    关键词:封装一个细粒度的限流器

文章目录

  • 原因
  • 限流对象
  • 限流后的做法
  • 怎么确定限流阈值
    • 观测业务性能数据
    • 压测
    • 借鉴链路上的其他服务
    • 手动计算
  • 四种静态限流算法
    • 令牌桶
    • 漏桶
    • 固定窗口与滑动窗口
  • 手写限流算法
    • 令牌桶
    • 漏桶
    • 固定窗口
    • 滑动窗口
  • 分布式限流的具体实现

原因

尽管云原生网关里有统一入口的限流(根据ip、userID来控制),但是有的微服务需要有自己的限流策略(比如根据不同的算法任务、不同的子产品来限制),所以封装了一个限流器公共包,可以在多个微服务中复用这个功能。直接原因是有一次某个子功能流量激增,大量任务失败。

关键步骤:

  • 实现限流策略,例如基于令牌桶或漏桶
  • 配置和初始化,微服务启动时加载配置和初始化限流器

限流对象

针对ip限流,例如1s限制50个请求,考虑到公共ip的情况;
针对某个算法任务,不限制vip用户,普通用户1s限制创建10个创建任务的请求。

限流后的做法

在这里插入图片描述

目前的做法是限流了就直接拒绝,抛出错误提示,还有其他的做法:

  • 同步阻塞等待一段时间。如果是偶发性地触发了限流,那么稍微阻塞等待一会儿,后面就有极大的概率能得到处理。比如说限流设置为一秒钟 100 个请求,恰好来了 101 个请求。多出来的一个请求只需要等一秒钟,下一秒钟就会被处理。但是要注意控制住超时,也就是说你不能让人无限期地等待下去。
  • 同步转异步。这里我们又一次看到了这个手段,它是指如果一个请求没被限流,那就直接同步处理;而如果被限流了,那么这个请求就会被存储起来,等到业务低峰期的时候再处理。这个其实跟降级差不多。(TODO 研究到降级时再过来看一下)
  • 调整负载均衡算法(用redis的话似乎跟负载均衡没关系,如果是在网关里做限流是可以调整负载均衡器的)。如果某个请求被限流了,那么就相当于告诉负载均衡器,应该尽可能少给这个节点发送请求。我在熔断里面给你讲过类似的方案。不过在熔断里面是负载均衡器后续不再发请求,而在限流这里还是会发送请求,只是会降低转发请求到该节点的概率。调整节点的权重就能达成这种效果。

怎么确定限流阈值

观测业务性能数据

我们公司有完善的监控,所以我可以通过观测到的性能数据来确定阈值。比如说观察线上的数据,如果在业务高峰期整个集群的 QPS 都没超过 1000,那么就可以考虑将阈值设定在 1200,多出来的 200 就是余量。
不过这种方式有一个要求,就是服务必须先上线,有了线上的观测数据才能确定阈值。并且,整个阈值很有可能是偏低的。因为业务巅峰并不意味着是集群性能的瓶颈。如果集群本身可以承受每秒 3000 个请求,但是因为业务量不够,每秒只有 1000 个请求,那么我这里预估出来的阈值是显著低于集群真实瓶颈 QPS 的。

压测

不过我个人觉得,最好的方式应该是在线上执行全链路压测,测试出瓶颈。即便不能做全链路压测,也可以考虑模拟线上环境进行压测,再差也应该在测试环境做一个压力测试。

借鉴链路上的其他服务

不过如果真的做不了,或者来不及,或者没资源,那么还可以考虑参考类似服务的阈值。比如说如果 A、B 服务是紧密相关的,也就是通常调用了 A 服务就会调用 B 服务,那么可以用 A 已经确定的阈值作为 B 的阈值。又或者 A 服务到 B 服务之间有一个转化关系。比如说创建订单到支付,会有一个转化率,假如说是 90%,如果创建订单的接口阈值是 100,那么支付的接口就可以设置为 90。

手动计算

实在没办法了,就只能手动计算了。也就是沿着整条调用链路统计出现了多少次数据库查询、多少次微服务调用、多少次第三方中间件访问,如 Redis,Kafka 等。举一个最简单的例子,假如说一个非常简单的服务,整个链路只有一次数据库查询,这是一个会回表的数据库查询,根据公司的平均数据这一次查询会耗时 10ms,那么再增加 10 ms 作为 CPU 计算耗时。也就是说这一个接口预期的响应时间是 20ms。如果一个实例是 4 核,那么就可以简单用 1000ms÷20ms×4=200 得到阈值。

四种静态限流算法

令牌桶

系统会以一个恒定的速率产生令牌,这些令牌会放到一个桶里面,每个请求只有拿到了令牌才会被执行。每当一个请求过来的时候,就需要尝试从桶里面拿一个令牌。如果拿到了令牌,那么请求就会被处理;如果没有拿到,那么这个请求就被限流了。(当令牌桶已满时,新生成的令牌会被丢弃,不会增加桶中的令牌数量。)
你需要注意,本身令牌桶是可以积攒一定数量的令牌的。比如说桶的容量是 100,也就是这里面最多积攒 100 个令牌。那么当某一时刻突然来了 100 个请求,它们都能拿到令牌。
在这里插入图片描述

漏桶

漏桶是指当请求以不均匀的速度到达服务器之后,限流器会以固定的速率转交给业务逻辑。
某种程度上,你可以将漏桶算法看作是令牌桶算法的一种特殊形态。你将令牌桶中桶的容量设想为 0,就是漏桶了。
在这里插入图片描述
在这里插入图片描述
所以你可以看到,在漏桶里面,令牌产生之后你就需要取走,没取走的话也不会积攒下来。因此漏桶是绝对均匀的,而令牌桶不是绝对均匀的。

固定窗口与滑动窗口

固定窗口是指在一个固定时间段,只允许执行固定数量的请求。比如说在一秒钟之内只能执行 100 个请求。滑动窗口类似于固定窗口,也是指在一个固定时间段内,只允许执行固定数量的请求。区别就在于,滑动窗口是平滑地挪动窗口,而不像固定窗口那样突然地挪动窗口。假设窗口大小是一分钟。此时时间是 t1,那么窗口的起始位置是 t1-1 分钟。过了 2 秒之后,窗口大小依旧是 1 分钟,但是窗口的起始位置也向后挪动了 2 秒,变成了 t1 - 1 分钟 + 2 秒。这也就是滑动的含义。
在这里插入图片描述

手写限流算法

参考:
https://blog.csdn.net/z3551906947/article/details/140477024,并且里面阐述了各个算法的优缺点,漏桶是可以用来处理突发流量的。

令牌桶

package limiterimport ("sync""time"
)// TokenBucketLimiter 令牌桶限流器
type TokenBucketLimiter struct {capacity      int        // 容量currentTokens int        // 令牌数量rate          int        // 发放令牌速率/秒lastTime      time.Time  // 上次发放令牌时间mutex         sync.Mutex // 避免并发问题
}// NewTokenBucketLimiter 创建一个新的令牌桶限流器实例。
func NewTokenBucketLimiter(capacity, rate int) *TokenBucketLimiter {return &TokenBucketLimiter{capacity:      capacity,rate:          rate,lastTime:      time.Now(),currentTokens: 0, // 初始化时桶中没有令牌}
}// TryAcquire 尝试从令牌桶中获取一个令牌。
func (l *TokenBucketLimiter) TryAcquire() bool {l.mutex.Lock()defer l.mutex.Unlock()now := time.Now()interval := now.Sub(l.lastTime) // 计算时间间隔// 如果距离上次发放令牌超过 1/rate 秒,则发放新的令牌if float64(interval) >= float64(time.Second)/float64(l.rate) {// 计算应该发放的令牌数量,但不超过桶的容量newTokens := int(float64(interval)/float64(time.Second)* l.rate) l.currentTokens = minInt(l.capacity, l.currentTokens+newTokens)// 更新上次发放令牌的时间l.lastTime = now}// 如果桶中没有令牌,则请求失败if l.currentTokens == 0 {return false}// 桶中有令牌,消费一个令牌l.currentTokens--return true
}// minInt 返回两个整数中的较小值。
func minInt(a, b int) int {if a < b {return a}return b
}func TestName(t *testing.T) {tokenBucket := NewTokenBucketLimiter(5, 10)for i := 0; i < 10; i++ {fmt.Println(tokenBucket.TryAcquire())}time.Sleep(100 * time.Millisecond)fmt.Println(tokenBucket.TryAcquire())
}

漏桶

package limiterimport ("fmt""math""sync""testing""time"
)// LeakyBucketLimiter 漏桶限流器
type LeakyBucketLimiter struct {capacity     int        // 桶容量currentLevel int        // 当前水位rate         int        // 水流速度/秒lastTime     time.Time  // 上次放水时间mutex        sync.Mutex // 避免并发问题
}// NewLeakyBucketLimiter 初始化漏桶限流器
func NewLeakyBucketLimiter(capacity, rate int) *LeakyBucketLimiter {return &LeakyBucketLimiter{capacity:     capacity,currentLevel: 0, // 初始化时水位为0rate:         rate,lastTime:     time.Now(),}
}// TryAcquire 尝试获取处理请求的权限
func (l *LeakyBucketLimiter) TryAcquire() bool {l.mutex.Lock() // 直接获取写锁defer l.mutex.Unlock()// 如果上次放水时间距今不到 1/rate 秒,不需要放水now := time.Now()interval := now.Sub(l.lastTime)// 计算放水后的水位if float64(interval) >= float64(time.Second)/float64(l.rate) {l.currentLevel = int(math.Max(0, float64(l.currentLevel)-float64(interval)/float64(time.Second)*float64(l.rate)))l.lastTime = now}// 尝试增加水位if l.currentLevel < l.capacity {l.currentLevel++return true}return false
}func TestName(t *testing.T) {tokenBucket := NewLeakyBucketLimiter(5, 10)for i := 0; i < 10; i++ {fmt.Println(tokenBucket.TryAcquire())}time.Sleep(100 * time.Millisecond)fmt.Println(tokenBucket.TryAcquire())
}

固定窗口

package mainimport ("sync""time"
)// FixedWindowRateLimiter 定义固定窗口限流器
type FixedWindowRateLimiter struct {mu           sync.MutexmaxRequests  intrequestCount intwindow       time.Time // 窗口的起始点,每个窗口长度1s
}// NewFixedWindowRateLimiter 创建一个新的固定窗口限流器实例
func NewFixedWindowRateLimiter(maxRequests int) *FixedWindowRateLimiter {return &FixedWindowRateLimiter{maxRequests: maxRequests,window:      time.Now().Truncate(time.Second),}
}// TryAcquire 尝试获取请求许可
func (f *FixedWindowRateLimiter) TryAcquire() bool {f.mu.Lock()defer f.mu.Unlock()// 检查是否需要重置窗口if time.Now().After(f.window.Add(time.Second)) {f.requestCount = 0f.window = time.Now().Truncate(time.Second)}// 检查是否达到最大请求次数if f.requestCount >= f.maxRequests {return false}// 请求成功,递增计数器f.requestCount++return true
}func main() {limiter := NewFixedWindowRateLimiter(5)for i := 0; i < 10; i++ {if limiter.TryAcquire() {fmt.Println("请求通过")} else {fmt.Println("请求被拒绝")}time.Sleep(100 * time.Millisecond)}
}

滑动窗口

package mainimport ("sync""time"
)// SlidingWindowRateLimiter 定义滑动窗口限流器
type SlidingWindowRateLimiter struct {mu           sync.MutexmaxRequests  intwindowSize  time.Duration // 窗口长度windows     []intwindowIndex intcurrentTime time.Time //   上个滑窗的起始点
}// NewSlidingWindowRateLimiter 创建一个新的滑动窗口限流器实例
func NewSlidingWindowRateLimiter(maxRequests int, windowSize time.Duration) *SlidingWindowRateLimiter {numWindows := int(windowSize.Seconds())return &SlidingWindowRateLimiter{maxRequests:  maxRequests,windowSize:   windowSize,windows:      make([]int, numWindows),currentTime:  time.Now().Truncate(time.Second),windowIndex:  0,}
}// TryAcquire 尝试获取请求许可
func (s *SlidingWindowRateLimiter) TryAcquire() bool {s.mu.Lock()defer s.mu.Unlock()// 更新当前时间currentTime := time.Now().Truncate(time.Second)// 检查是否需要更新窗口if currentTime.After(s.currentTime.Add(s.windowSize)) {s.currentTime = currentTimes.windowIndex = 0} else if currentTime.After(s.currentTime.Add(time.Second)) {s.windowIndex = (s.windowIndex + 1) % len(s.windows)}// 清除过期窗口for i := range s.windows {if currentTime.Before(s.currentTime.Add(time.Duration(i+1)*time.Second)) {break}s.windows[i] = 0}// 检查是否达到最大请求次数totalRequests := 0for _, count := range s.windows {totalRequests += count}if totalRequests >= s.maxRequests {return false}// 请求成功,递增计数器s.windows[s.windowIndex]++return true
}func main() {limiter := NewSlidingWindowRateLimiter(5, 10*time.Second)for i := 0; i < 10; i++ {if limiter.TryAcquire() {fmt.Println("请求通过")} else {fmt.Println("请求被拒绝")}time.Sleep(100 * time.Millisecond)}
}

分布式限流的具体实现

从单机或者集群的角度看,可以分为单机限流或者集群限流。集群限流一般需要借助 Redis 之类的中间件来记录流量和阈值。换句话说,就是你需要用 Redis 等工具来实现前面提到的限流算法。当然如果是利用网关来实现集群限流,那么可以摆脱 Redis。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com