相信大家对于缓存这个词都不陌生,但凡追求高性能的业务场景,一般都会使用缓存,它可以提高数据的检索速度,减少数据库的压力。缓存大体分为两类:本地缓存和分布式缓存(如 Redis)。本地缓存适用于单机环境下,而分布式缓存适用于分布式环境下。在实际的业务场景中,这两种缓存方式常常被结合使用,以利用各自的优势,实现高性能的数据读取。
本文将会探讨如何极简设计并实现一个可扩展、高性能的本地缓存。
准备好了吗?准备一杯你喜欢的咖啡或茶,随着本文一探究竟吧!
在设计一个本地缓存时,我们需要考虑以下几个关键方面:
goroutine 环境下是安全的。通常使用 sync.Mutex 或 sync.RWMutex 来避免竞态条件和数据不一致的问题。LRU)、最不经常使用(LFU)、先进先出(FIFO)等。除了上面列出的三项,在必要的情况下,我们可能还需要考虑其他方面,例如监控和日志、容错和恢复等。
本文将会讲解图中所给出的四个部分的设计:
Cache[K comparable, V any]:基于策略模式的灵活、可扩展和并发安全的缓存结构体设计。ICache[K comparable, V any]:缓存 API 接口,用于定义缓存 API 规范。SimpleCache[K comparable, V any]:基于简单 map 实现的缓存实例。LRUCache[K comparable, V any]:基于 LRU 淘汰算法实现的缓存实例。首先,定义一个 ICache 接口:
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go
type ICache[K comparable, V any] interface { Set(ctx context.Context, key K, value V) error
Get(ctx context.Context, key K) (V, error)
Delete(ctx context.Context, key K) error
Keys() []K
}
该接口作为多种本地缓存实现的 API 标准,确保不同本地缓存的实现都有相同的基本操作。
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go
type Cache[K comparable, V any] struct {
cache ICache[K, *Item[V]]
mutex sync.RWMutex janitor *janitor
}
上述代码定义的 CacheK[comparable, V any] 结构体是一个基于泛型的缓存适配器实现,它不直接实现本地缓存的逻辑。Cache 结构体有三个字段:
1、cache ICache[K, *Item[V]]:
这是一个接口字段,用于抽象化底层的本地缓存操作。该接口定义了缓存的基本行为,如设置、获取和删除键值对。通过引入这个接口,Cache 结构体遵循了 依赖倒置原则 和 策略模式,使得可以根据具体需求灵活选择不同的缓存实现策略。
*Item[V] 是值的类型,这里使用了指针,指向一个 Item 结构,Item 结构体包含了实际的值和过期时间。
2、mutex sync.RWMutex:
读写互斥锁,用于避免并发读写时数据不一致性的问题。
3、janitor *janitor:
一个用于处理后台任务的结构体,例如定时清理过期数据,单独提出一个结构体是为了解耦。
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go
type ItemOption func(*itemOptions)type itemOptions struct {
expiration time.Time
}
func WithExpiration(exp time.Duration) ItemOption {
return func(o *itemOptions) {
o.expiration = time.Now().Add(exp)
}
}
type Item[V any] struct {
value V
expiration time.Time
}
func newItem[V any](value V, opts ...ItemOption) *Item[V] {
var item = &itemOptions{}
for _, opt := range opts {
opt(item)
}
return &Item[V]{
value: value,
expiration: item.expiration,
}
}
func (i *Item[V]) Expired() bool {
return !i.expiration.IsZero() && i.expiration.Before(time.Now())
}
Item 结构体作为本地缓存适配器 Cache 的 value 值的类型,它有两个字段和一个方法,分别是:
value:用于本地缓存对应 key 的 value 值。expiration :表示缓存值的过期时间。Expired:判断元素是否过期的方法。为了方便创建并初始化 Item 元素,代码中实现了一个 newItem 函数,该函数除了接受 value 值以外,还接受一个或多个 ItemOption 类型的参数。这些参数是可选的,允许我们在创建 Item 实例时设置额外的属性。例如,可以通过 WithExpiration 函数选项来指定过期时间。
Item 这种设计方式使得元素支持 多种过期机制(固定时间过期和永久不过期的机制),同时提高了代码扩展性和灵活性。如果我们后续需要为 value 添加额外的属性,只需要往 Item 结构体新增字段即可,并且 newItem 方法,引入了函数选项模式,即使后面新增字段,这些字段可以作为可选参数初始化。例如支持 滑动过期时间。所有的新增操作都不会影响已有代码。
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go
// NewSimpleCache - 创建一个新的简单缓存。
// interval time.Duration - 清理过期缓存项的时间间隔。在这个间隔内,缓存将自动检查并清理过期项。
func NewSimpleCache[K comparable, V any](ctx context.Context, size int, interval time.Duration) *Cache[K, V] {
cache := &Cache[K, V]{
cache: simple.NewCache[K, *Item[V]](size),
janitor: newJanitor(ctx, interval),
}
cache.janitor.run(cache.DeleteExpired)
return cache
}// NewLruCache - 创建一个新的LRU缓存。
// interval time.Duration - 清理过期缓存项的时间间隔。在这个间隔内,缓存将自动检查并清理过期项。
func NewLruCache[K comparable, V any](ctx context.Context, cap int, interval time.Duration) *Cache[K, V] {
cache := &Cache[K, V]{
cache: lru.NewCache[K, *Item[V]](cap),
janitor: newJanitor(ctx, interval),
}
cache.janitor.run(cache.DeleteExpired)
return cache
}
上述代码段包含了两个构造函数,分别用于创建两种不同类型的本地缓存。以下是对这两个函数的详细说明:
1、NewSimpleCache 函数
这个函数用于创建一个简单缓存的实例。它接受以下参数:
ctx context.Context:上下文,用于管理缓存的生命周期和相关操作。size int:缓存的大小,可能表示缓存可以存储的最大项数。interval time.Duration:用于清理过期缓存项的时间间隔。在这个时间间隔内,缓存将自动检查并清理过期的项。函数的实现逻辑如下:
Cache[K, V] 类型的实例。simple.NewCache[K, *Item[V]](size) 创建一个简单缓存的底层实现,并将其赋值给 Cache 实例的 cache 字段。newJanitor(ctx, interval) 创建一个清理过期项的 janitor,并将其赋值给 Cache 实例的 janitor 字段。cache.janitor.run(cache.DeleteExpired) 启动 janitor,以定期运行 DeleteExpired 方法清理过期项。Cache 实例。2、 NewLruCache 函数
这个函数用于创建一个基于最近最少使用(LRU)策略的缓存实例。它的参数与 NewSimpleCache 相同:
ctx context.Context:上下文,用于管理缓存的生命周期和相关操作。cap int:缓存的容量,指示缓存可以存储的最大项数。interval time.Duration:用于清理过期缓存项的时间间隔。函数的实现逻辑类似于 NewSimpleCache,但它使用 lru.NewCache[K, *Item[V]](cap) 来创建一个基于 LRU 策略的底层缓存实现。
这两个函数提供了不同策略的本地缓存实现,分别适用于不同的应用场景。简单缓存可能适用于基本的缓存需求,而基于 LRU 的缓存更适合于需要淘汰老旧数据以节省空间的场景。通过这样的设计,使用者可以根据具体需求选择最适合的缓存策略。
下一个大章节的内容将详细介绍 simple 和 lru 这两种本地缓存的实现细节。
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go
type janitor struct {
ctx context.Context
interval time.Duration
done chan struct{}
once sync.Once
}func (j *janitor) stop() {
j.once.Do(func() { close(j.done) })
}
func (j *janitor) run(cleanup func(ctx context.Context)) {
go func() {
ticker := time.NewTicker(j.interval)
defer ticker.Stop()
for {
select {
case <-ticker.C:
cleanup(j.ctx)
case <-j.ctx.Done():
j.stop()
case <-j.done:
cleanup(j.ctx)
return
}
}
}()
}
janitor 可以认为是一个处理后台任务的结构体,其作用是定时清理 本地缓存 的过期数据。
下面是对 janitor 结构体的字段和方法的具体解释:
ctx:context 上下文,作用是控制 run 方法中的协程何时停止执行,也就是控制后台任务的停止执行。interval:时间间隔,指定清理操作的执行频率。done:一个通道(channel),用于发出停止信号。当通道被关闭时,意味着 run 方法中的写成停止执行,结束后台任务。once:一个 sync.Once 的实例,确保关闭 done 通道只执行一次。stop 方法:用于停止 janitor 的运行,它利用 sync.Once 来确保关闭 done 通道的操作只执行一次,避免多次关闭通道导致的 panic。关闭 done 通道将导致 run 方法中的协程停止执行。run 方法:该方法接受一个 clean 清理函数,里面包含用户自定义的清理逻辑。run 方法启动一个协程。在协程里,首先创建了一个定时器,用于控制任务的执行间隔时间;接着启动一个 for 循环,它使用 select 语句来监听多个通道:ticker.C 通道接收到信号时(即每隔 j.interval 时间),调用 cleanup 函数执行清理操作。j.ctx.Done() 通道接收到信号时(即上下文被取消或超时),调用 j.stop() 方法来停止 janitor。j.done 通道被关闭时(通过调用 stop 方法),执行最后一次清理操作然后退出协程。// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go
func (c *Cache[K, V]) Get(ctx context.Context, key K) (v V, err error) {
c.mutex.RLock()
defer c.mutex.RUnlock()
item, err := c.cache.Get(ctx, key)
if err != nil {
return
}
if item.Expired() {
return v, cacheError.ErrNoKey
}
return item.value, nil
}
该方法的作用是通过指定的 key 获取对应的 value,核心逻辑:
Expired 方法判断元素是否过期,成立则返回一个明确的错误 error。value 值。// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go
func (c *Cache[K, V]) Set(ctx context.Context, key K, value V, opts ...ItemOption) (err error) {
c.mutex.Lock()
defer c.mutex.Unlock()
item := newItem[V](value, opts...)
return c.cache.Set(ctx, key, item)
}
该方法用于将键值对 key-value 保存到本地缓存中。Set 方法除了接收 key 和 value 作为必要参数,还接受一个或多个 ItemOption 类型的参数作为可选配置。
核心逻辑:
Set 方法首先加上写锁。这样做可以防止在写操作进行时发生读操作,避免可能导致的数据不一致问题。newItem[V] 函数创建一个 Item 实例,其中 value 是必传参数。此外,根据不同的使用场景,可以通过传递 ItemOption 类型的参数来初始化 Item 的可选配置,如设置过期时间等。c.cache.Set 调用底层的实现的方法将键值对保存到本地缓存中。nil 或可能的错误(如果写入过程中发生错误)。// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go
func (c *Cache[K, V]) SetNX(ctx context.Context, key K, value V, opts ...ItemOption) (b bool, err error) {
c.mutex.Lock()
defer c.mutex.Unlock()
_, err = c.cache.Get(ctx, key)
if err != nil {
if errors.Is(err, cacheError.ErrNoKey) {
item := newItem[V](value, opts...)
return true, c.cache.Set(ctx, key, item)
}
return false, err
}
return false, nil
}
该方法和 Set 方法功能相似,但它与 Set 方法的主要区别在于它不会覆盖已存在的键值对。
核心逻辑:
SetNX 方法首先加上写锁。这样做可以防止在写操作进行时发生读操作,避免可能导致的数据不一致问题。key。如果键不存在(识别为 cacheError.ErrNoKey 错误),则继续执行;如果获取过程中发生其他错误,方法将返回错误。SetNX 会利用 newItem[V] 函数创建一个新的 Item 实例,并将其与 key 一起保存到缓存中。在这个过程中,它也接受可选的 ItemOption 参数,允许对缓存项进行进一步的配置,例如设置过期时间。false 和 nil 错误,表示没有新的键值对被添加。如果键不存在且成功设置了新的键值对,方法返回 true 和可能发生的错误 error(如果写入过程中发生错误)。// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go
func (c *Cache[K, V]) Delete(ctx context.Context, key K) (err error) {
c.mutex.Lock()
defer c.mutex.Unlock()
return c.cache.Delete(ctx, key)
}
该方法用于从本地缓存中删除指定的键值对。
核心逻辑:
Delete 方法获取一个写锁。这是为了保证在删除操作进行时,缓存的状态不会被其他的读或写操作所干扰,从而确保操作的协程安全性。c.cache.Delete(ctx, key) 来执行实际的删除操作。这一步骤涉及到对底层缓存数据结构的操作,以确保指定的键 key 被移除。nil 或可能发送的错误 error。// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go
func (c *Cache[K, V]) Keys() []K {
return c.cache.Keys()
}
该方法用于获取本地缓存中所有的键,并以切片的形式返回这些键。返回的键的顺序取决于底层本地缓存实现的具体细节。
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/cache.go
func (c *Cache[K, V]) DeleteExpired(ctx context.Context) {
c.mutex.RLock()
keys := c.Keys()
c.mutex.RUnlock()
i := 0
for _, key := range keys {
if i > 10000 {
return
}
c.mutex.Lock()
if item, err := c.cache.Get(ctx, key); err == nil && item.Expired() {
_ = c.cache.Delete(ctx, key)
}
c.mutex.Unlock()
i++
}
}
该方法用于删除本地缓存中已过期的项。核心逻辑:
c.mutex.RLock()),以安全地访问共享资源。c.Keys() 方法来获取缓存中所有的键,并将这些键存储在 keys 切片中。c.mutex.RUnlock())。keys 切片中的每个键。在遍历过程中,它实现了以下步骤:i,如果检查的项数超过 10000,方法将提前结束。c.mutex.Lock())以安全地执行写操作。item.Expired() 返回 true),则调用 c.cache.Delete(ctx, key) 来删除该键值对。c.mutex.Unlock())。i 递增。这用于控制方法检查的最大项数,避免可能的性能问题。这里做了一个优化:引入了一个计数器,当 i 超过 10000 时,则停止操作。这样做的好处:
计数器 i 的最大值应根据具体场景进行调整,因为不同的应用环境和性能要求会影响到合适的最大值选择。
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/simple/simple_cache.go
type Cache[K comparable, V any] struct {
cache map[K]V
}func NewCache[K comparable, V any](size int) *Cache[K, V] {
return &Cache[K, V]{
cache: make(map[K]V, size),
}
}
func (c *Cache[K, V]) Set(_ context.Context, key K, value V) error {
c.cache[key] = value
return nil
}
func (c *Cache[K, V]) Get(_ context.Context, key K) (V, error) {
var (
value V
ok bool
)
if value, ok = c.cache[key]; !ok {
return value, cacheError.ErrNoKey
}
return value, nil
}
func (c *Cache[K, V]) Delete(_ context.Context, key K) error {
if _, ok := c.cache[key]; ok {
delete(c.cache, key)
return nil
}
return cacheError.ErrNoKey
}
func (c *Cache[K, V]) Keys() []K {
keys := make([]K, 0)
for key := range c.cache {
keys = append(keys, key)
}
return keys
}
simple cache 实现了 ICache 接口,它的设计较为简单,以 map 作为其核心数据结构,使得键值对的存储和检索操作简单高效。这种缓存实现适用于不需要复杂缓存策略的基本用例。
需要注意的是,在 Get 和 Delete 方法中,如果键不存在,则会返回一个明确的错误 cacheError.ErrNoKey,这有助于调用者区分 "缓存未命中" 与其他类型的错误。
// https://github.com/chenmingyong0423/go-generics-cache/blob/master/lru/lru_cache.go
type entry[K comparable, V any] struct {
key K
value V
}func NewCache[K comparable, V any](cap int) *Cache[K, V] {
return &Cache[K, V]{
maxEntries: cap,
cache: make(map[K]*list.Element, cap),
linkedDoublyList: list.New(),
}
}
type Cache[K comparable, V any] struct {
maxEntries int
cache map[K]*list.Element
linkedDoublyList *list.List
}
func (c *Cache[K, V]) Set(_ context.Context, key K, value V) error {
if e, ok := c.cache[key]; ok {
// 元素存在
c.linkedDoublyList.MoveToFront(e)
e.Value.(*entry[K, V]).value = value
return nil
}
// 元素不存在
e := &entry[K, V]{
key: key,
value: value,
}
c.cache[key] = c.linkedDoublyList.PushFront(e)
if c.linkedDoublyList.Len() > c.maxEntries {
// 删除最后一个元素
e := c.linkedDoublyList.Back()
c.linkedDoublyList.Remove(e)
delete(c.cache, e.Value.(*entry[K, V]).key)
}
return nil
}
func (c *Cache[K, V]) Get(_ context.Context, key K) (v V, err error) {
if e, ok := c.cache[key]; ok {
c.linkedDoublyList.MoveToFront(e)
e := e.Value.(*entry[K, V])
return e.value, nil
}
return v, cacheError.ErrNoKey
}
func (c *Cache[K, V]) Delete(_ context.Context, key K) error {
if e, ok := c.cache[key]; ok {
c.linkedDoublyList.Remove(e)
delete(c.cache, key)
return nil
}
return cacheError.ErrNoKey
}
func (c *Cache[K, V]) Keys() []K {
keys := make([]K, 0)
// 根据添加顺序返回
for e := c.linkedDoublyList.Back(); e != nil; e = e.Prev() {
keys = append(keys, e.Value.(*entry[K, V]).key)
}
return keys
}
lru cache 实现了 ICache 接口。这里借助了哈希表(map)和双向链表(这里使用 container 包里的一个具体实现 List)来实现 最近最少使用 lru 本地缓存。
entry[K comparable, V any]:这是一个私有的结构体,用于存储缓存中的键(key)和值(value)。Cache[K comparable, V any]:这是公开的缓存结构体,包含以下字段:maxEntries:缓存能够存储的最大条目数。cache:一个映射,将键映射到双向链表中的元素(list.Element)。linkedDoublyList:一个 list.List 类型的双向链表,用于维护键的使用顺序。NewCache[K comparable, V any](cap int):创建并返回一个新的 Cache[K, V] 实例。接受缓存容量 cap 作为参数,并初始化内部结构。Set(_ context.Context, key K, value V):向缓存中添加一个键值对。基于 最近最少使用 的原则,如果键已经存在,则更新其值并将其移至链表的前端。如果键不存在,则创建一个新的 entry 项并将其加入链表的前端。如果加入新项后缓存超过最大容量,则从链表尾部移除最少使用的项。Get(_ context.Context, key K):根据键从缓存中检索值。如果找到了键,则将对应的链表元素移至前端并返回其值。如果键不存在,则返回 cacheError.ErrNoKey 错误。Delete(_ context.Context, key K):从缓存中删除指定的键及其对应的值。如果键存在,则从链表和 map 中移除相应的元素。Keys():返回一个包含缓存中所有键的切片,按照从最近到最少使用的顺序排列。本文详细介绍了如何设计和实现一个极简的可扩展、高性能的泛型本地缓存。
核心在于引入了 Cache 适配器,它的关键字段 cache 是一个类型为 ICache 的接口。这个设计使得我们能够灵活地提供多种不同底层实现的本地缓存实例,例如 simple cache 和 lru cache。这样,Cache 适配器不仅支持多样化的缓存策略,还保留了通用的缓存操作接口,如 Get、Set、SetNX 和 Delete。
在具体实现方面, simple cache 较为简单,基于 map 的读写操作实现,而 lru cache 则更为复杂,它结合哈希表(map)和双向链表(使用 container 包里的 List,也可以自己实现一个双向链表)来实现 最近最少使用 lru 本地缓存。
要想了解更多的本地缓存实现,可移步至:https://github.com/chenmingyong0423/go-generics-cache。
★本文提到的设计是基于个人理解去实现的,可能会有不妥之处。如果有错误的地方,欢迎指出!
”
推荐阅读