從Baa開發中總結Go語言效能漸進優化
在Go生態已經有很多WEB框架,但感覺沒有一個符合我們的想法,我們想要一個簡潔高效
的核心框架,提供路由
,context
,中介軟體
和依賴注入
,而且拒絕使用正則
和反射
,於是我們開始構建Baa框架。一開始使用最簡單的通俗寫法實現了第一版的功能,基本可用,但是效能爛到爆,優化之路漫漫開啟。
最好的文章應該是每一步都加上優化前後的benchmark對比結果,給讀者以最直觀的感受。我先BS一下自己,因為我懶了,沒有再回頭一步步去對比這個結果圖。
拒絕正則和反射
這是我們做這個框架時的一個基本原則,整個實現中沒有使用過regexp、reflect包。這是我們對效能追求的基礎。帶來的另一個收益是,沒有魔法,都是非常容易理解的實現,讓整個框架變得簡單。
使用sync.Pool重用物件
在我上次翻譯的文章CockroachDB GC優化總結中介紹過這些方法,在《Go語言聖經》中作者也介紹了這個方法,使用 sync.Pool 可以在一次GC之間重用物件,避免物件的頻繁建立和記憶體分配。我們在追求效能的過程中,要儘可能減少甚至達到記憶體零分配,這是一個最重要的用法。
在Baa中有如下程式碼片段:
b.pool = sync.Pool{ New: func() interface{} { return newContext(nil, nil, b)
},
}
使用的時候:
c := b.pool.Get().(*Context) c.reset(w, r)
使用完:
b.pool.Put(c)
使用array優化slice
slice的本質就是就是一個可變長度的array,根據儲存的容量會動態的重新分配記憶體遷移資料。如果長度不斷變化,會導致不斷的重新分配記憶體,在特定場景下,如果我們可以使用一個定長的array來優化記憶體分配。
var nameArr [1024]stringpNames := nameArr[0:0]
pNames = append(pNames, "val")
pNames 是一個slice,但資料操作總是在array nameArr上完成,在整個使用過程中不會重新分配記憶體。
上面的虛擬碼,在Baa中已經不存在了,Baa改用了下面的技巧來取代定長的array。
slice也能重用
slice的重用,其實和上面的利用array優化基本一致,就是初始分配一個較大的容量,儘可能在使用的過程中都不會超出容量,當然也不用擔心,萬一不夠用了,會自動擴容,只不過會進行一次記憶體分配。
在Baa中有如下程式碼片段:
// newContext create a http context
func newContext(w http.ResponseWriter, r *http.Request, b *Baa) *Context {
c := new(Context)
c.Resp = NewResponse(w, b)
c.baa = b
c.pNames = make([]string, 0, 32)
c.pValues = make([]string, 0, 32)
c.handlers = make([]HandlerFunc, len(b.middleware), len(b.middleware)+3)
copy(c.handlers, b.middleware)
c.reset(w, r) return c
}
// reset ...
func (c *Context) reset(w http.ResponseWriter, r *http.Request) {
c.Resp.reset(w)
c.Req = r
c.hi = 0
c.handlers = c.handlers[:len(c.baa.middleware)]
c.pNames = c.pNames[:0]
c.pValues = c.pValues[:0]
c.store = nil
}
注意newContext中的 c.pNames和c.pValues 以及 reset中的 c.pNames和c.pValues,通過 slice[:0] 來重用之前的slice,避免記憶體重新分配。至於上面的長度32,是根據經驗得來的一個值,儘可能保證長度滿足大部分情況下的需求又不太大。
使用Radix tree重寫路由
之前在黑夜路人微信群
中還討論過一個問題:演算法、資料結構,在實際工作中有用到過嗎?說實話,一般情況下真不怎麼用到,不過這裡就是一個場景。
在第一版中,路由就是一個map,路由匹配就是一個range,簡單,清晰,但效能自然不好。參考了 macaron
和echo
框架的設計,都是使用基數樹(radix tree)
來實現的,只是實現的細節不同,這裡我們也有不同的細節實現,但思路基本沒變。具體實現可以參考wiki,和 Baa router部分 router.go
string的效能不怎樣
很多文章介紹過了,儘量使用 []byte 替代 string,這裡我們也是這麼做的。
Map的range好低效
map和slice的range效能差一個數量級啊,所以,你會發現我們取消了大量的map改為了slice,在slice也能重用
這一節的程式碼示例中 pNames和pValues就是用來取代原來的 map[string]string,因為map range的效率太低了。
凡是迭代就有開銷
slice的迭代是很快,可是總還是迭代,是迭代就有開銷,為了追求極致的效能也是瘋了。在路由匹配時,我們給所有的路由pattern設定了單位元組的index,如果首字母都不匹配,就沒有必要繼續後面的字元匹配了。
路由條目建立:
// newRoute create a route itemfunc newRoute(pattern string, handles []HandlerFunc, router *Router) *Route {
r := new(Route)
r.pattern = pattern
r.alpha = pattern[0]
r.handlers = handles
r.router = router
r.children = make([]*Route, 0) return r
}
路由條目匹配:
// findChild find child static routefunc (r *Route) findChild(b byte) *Route { var i int
var l = len(r.children) for ; i < l; i++ { if r.children[i].alpha == b && !r.children[i].hasParam { return r.children[i]
}
} return nil
}
注意 r.alpha
就是用來儘可能避免迭代進一步提高效能的。
defer也僅是方便
在追求極致效能的路上,我都快瘋了,在一步步測試的過程中,發現去掉defer也能提高一些效能,雨痕學堂
微信公眾號 中的一篇文章也提到了這個問題,因為defer有額外的開銷來保證延遲呼叫甚至panic時也能執行,而大多數時候我們可以在程式的結束時直接終止,避免defer機制,再快一點點。
函式呼叫也是開銷
離目標越來越近,但還有一點差距,我們也越來越瘋狂,最後居然幹成了這樣,我們把部分頻繁呼叫的函式取消,改為直接在一個函式中完成,因為我們發現,即使只是一個函式呼叫,TMD也是開銷呀。
pprof是神器
在整個過程中,如何一步步分析效能問題,定位可優化的地方,go test -cpuprofile, go test -memprofile, go test -bench 就是最好的工具,每修改一次,bench看結果,profile看效能分析。
總結
本文簡單總結了在優化過程中的各種技巧,和部分程式碼示例,更多使用姿勢,自行體驗,歡迎交流和拍磚。