1. 程式人生 > 程式設計 >廣告倒排索引架構與優化

廣告倒排索引架構與優化

倒排索引架構

在廣告系統中倒排索引起著至關重要的作用,當請求過來時,需要根據定向資訊從倒排索引中匹配合適的廣告。我們的倒排索引採用的是ElasticSearch(後面簡稱ES),考慮點是社群活躍,相關採集、視覺化、監控以及報警等元件比較完善,同時ES基於java開發,所以調優和二次開發相對方便

先看下我們的倒排索引的架構圖

file

這個架構設計成如上圖這樣,經過了下面的思考與迭代

索引問題與優化

單點與穩定性問題

採用多節點部署

其中 A builder和 B builder都是兩個節點,一個主和一個備,他們通過爭搶鎖(用zookeeper實現)來決定誰是主

多個節點會帶來資料不一致問題

  1. 多生產者多消費者產生訊息時序問題

把訊息設定成無狀態的

file

查詢資料庫獲取最新資料(訂單和創意更新頻率低,所以對資料庫壓力不大)

  1. 因為出異常導致資料不一致

採用重試(冪等)和定時任務處理異常

  1. 全量更新索引,影響線上索引查詢功能

採用主備索引

主備索引切換流程:更新備用索引->驗證備用索引->主備切換->更新主索引

file


索引查詢與重建索引問題與優化

壓測ES QPS不高、CPU負載高、YGC頻繁、索引重建索引耗時長

我們分別從查詢和重建兩個方向來看

查詢

  1. 1s一次YGC,STW約10ms,對低延遲系統影響較大

調整 -Xmn 3g->7g,調整後10s一次YGC,STW約12ms

調整前YGC頻繁,對低延遲系統影響較大,所以想增大YGC的時間間隔,降低效能抖動,考慮到YGC採用複製演演算法,每次垃圾回收時間主要包括掃描年輕代存活物件和複製存活物件,掃描物件的成本遠低於複製物件,所以YGC的時間主要取決於存活物件的數量,在物件生命週期沒有較大變化的情況下,YGC的時間自然不會有較大變化

調整後,YGC的時間間隔有了很大改善,GC時間並沒有線性增加

  1. 調整分片數和副本數,減少執行緒損耗、較少IO

ES預設分片數是5,預設條件下,索引會被分配到不同的節點,這樣每個節點只有部分索引,會導致一次請求需要合併多個節點的資料,IO數多

如圖所示,假設有3個節點,2個主分片,每個分片有一個副本。當一次查詢過來的時候

查詢流程大致為:首先是node3收到請求,它可能會把請求轉發到node2的R0或node1的P0,然後完成檢索後把資料彙集到node3,最後返回。其中每個索引的內部,資料會儲存到多個segment中,而對segment的查詢是序列的

file

而我們的場景是請求量大,索引小(100M以內),所以把主分片調整為1,副本調整為節點數-1,這樣能保證每個節點都儲存所有索引,這樣只會有一次io操作,如下圖所示

file

  1. ES(lucencu) 序列讀取所有segment

索引更新會使segment數量增加,es對segment的查詢是序列的,所以我們採用每分鐘定時用 _forcemerge將segment降為1

  1. 熱點方法排查發現JSON反序列化佔50%cpu

禁用source只採用field儲存必要欄位

  1. 指定查詢偏向本機節點

設定preference:_local

重建

  1. 全量重建前關閉從分片,禁用實時索引

replicas:0 refresh_interval:-1

減少索引在重建過程中索引同步帶來的消耗

  1. 批量重建索引

使用 bulk批量重建索引,提高建索引的效能

後記

我們採用的方案,有些並不符合業界常用和推薦的方式,但是符合我們自己的業務,所以方案一定要適合自己團隊的業務,沒有最好的方案,只有更適合的方案