您好,登錄后才能下訂單哦!
本篇文章給大家分享的是有關如何提高進程內緩存的并發,小編覺得挺實用的,因此分享給大家學習,希望大家閱讀完這篇文章后可以有所收獲,話不多說,跟著小編一起來看看吧。
緩存,設計的初衷是為了減少繁重的IO操作,增加系統并發能力。不管是 CPU多級緩存
,page cache
,還是我們業務中熟悉的 redis
緩存,本質都是將有限的熱點數據存儲在一個存取更快的存儲介質中。
計算機本身的緩存設計就是 CPU 采取多級緩存。那對我們服務來說,我們是不是也可以采用這種多級緩存的方式來組織我們的緩存數據。同時 redis
的存取都會經過網絡IO,那我們能不能把熱點數據直接存在本進程內,由進程自己緩存一份最近最熱的這批數據呢?
這就引出了我們今天探討的:local cache
,本地緩存,也叫進程緩存。
作為一個進程存儲設計,當然是 crud
都有的:
我們先初始化 local cache
// 先初始化 local cache cache, err = collection.NewCache(time.Minute, collection.WithLimit(10)) if err != nil { log.Fatal(err) }
其中參數的含義:
expire
:key統一的過期時間
CacheOption
:cache設置。比如key的上限設置等
基礎操作緩存
// 1. add/update 增加/修改都是該API cache.Set("first", "first element") // 2. get 獲取key下的value value, ok := cache.Get("first") // 3. del 刪除一個key cache.Del("first")
Set(key, value)
設置緩存
value, ok := Get(key)
讀取緩存
Del(key)
刪除緩存
高級操作
cache.Take("first", func() (interface{}, error) { // 模擬邏輯寫入local cache time.Sleep(time.Millisecond * 100) return "first element", nil })
前面的 Set(key, value)
是單純將 <key, value>
加入緩存;Take(key, setFunc)
則是在 key 對于的 value 不存在時,執行傳入的 fetch
方法,將具體讀取邏輯交給開發者實現,并自動將結果放到緩存里。
到這里核心使用代碼基本就講完了,其實看起來還是挺簡單的。也可以到 https://github.com/tal-tech/go-zero/blob/master/core/collection/cache_test.go 去看 test 中的使用。
首先緩存實質是一個存儲有限熱點數據的介質,面臨以下的這些問題:
有限容量
熱點數據統計
多線程存取
下面來說說這3個方面我們的設計實踐。
有限就意味著滿了要淘汰,這個就涉及到淘汰策略。cache
中使用的是:LRU
(最近最少使用)。
那淘汰怎么發生呢? 有幾個選擇:
開一個定時器,不斷循環所有key,等到了預設過期時間,執行回調函數(這里是刪除map中過的key)
惰性刪除。訪問時判斷該鍵是否被刪除。缺點是:如果未訪問的話,會加重空間浪費。
而 cache
中采取的是第一種 主動刪除。但是,主動刪除中遇到最大的問題是:
不斷循環,空消耗CPU資源,即使在額外的協程中這么做,也是沒有必要的。
cache
中采取的是時間輪記錄額外過期通知,等過期 channel
中有通知時,然后觸發刪除回調。
> 有關 時間輪 更多的設計文章:https://go-zero.dev/cn/timing-wheel.html
對于緩存來說,我們需要知道這個緩存在使用額外空間和代碼的情況下是否有價值,以及我們想知道需不需要進一步優化過期時間或者緩存大小,所有這些我們就很依賴統計能力了, go-zero
中 sqlc
和 mongoc
也同樣提供了統計能力。所以我們在 cache
中也加入的緩存,為開發者提供本地緩存監控的特性,在接入 ELK
時開發者可以更直觀的監測到緩存的分布情況。
而設計其實也很簡單,就是:Get() 命中,就在統計 count 上加1即可。
func (c *Cache) Get(key string) (interface{}, bool) { value, ok := c.doGet(key) if ok { // 命中hit+1 c.stats.IncrementHit() } else { // 未命中miss+1 c.stats.IncrementMiss() } return value, ok }
當多個協程并發存取的時候,對于緩存來說,涉及的問題以下幾個:
寫-寫沖突
LRU
中元素的移動過程沖突
并發執行寫入緩存時,造成流量沖擊或者無效流量
這種情況下,寫沖突好解決,最簡單的方法就是 加鎖 :
// Set(key, value) func (c *Cache) Set(key string, value interface{}) { // 加鎖,然后將 <key, value> 作為鍵值對寫入 cache 中的 map c.lock.Lock() _, ok := c.data[key] c.data[key] = value // lru add key c.lruCache.add(key) c.lock.Unlock() ... } // 還有一個在操作 LRU 的地方時:Get() func (c *Cache) doGet(key string) (interface{}, bool) { c.lock.Lock() defer c.lock.Unlock() // 當key存在時,則調整 LRU item 中的位置,這個過程也是加鎖的 value, ok := c.data[key] if ok { c.lruCache.add(key) } return value, ok }
而并發執行寫入邏輯,這個邏輯主要是開發者自己傳入的。而這個過程:
func (c *Cache) Take(key string, fetch func() (interface{}, error)) (interface{}, error) { // 1. 先獲取 doGet() 中的值 if val, ok := c.doGet(key); ok { c.stats.IncrementHit() return val, nil } var fresh bool // 2. 多協程中通過 sharedCalls 去獲取,一個協程獲取多個協程共享結果 val, err := c.barrier.Do(key, func() (interface{}, error) { // double check,防止多次讀取 if val, ok := c.doGet(key); ok { return val, nil } ... // 重點是執行了傳入的緩存設置函數 val, err := fetch() ... c.Set(key, val) }) if err != nil { return nil, err } ... return val, nil }
而 sharedCalls
通過共享返回結果,節省了多次執行函數,減少了協程競爭。
以上就是如何提高進程內緩存的并發,小編相信有部分知識點可能是我們日常工作會見到或用到的。希望你能通過這篇文章學到更多知識。更多詳情敬請關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。