麻豆小视频在线观看_中文黄色一级片_久久久成人精品_成片免费观看视频大全_午夜精品久久久久久久99热浪潮_成人一区二区三区四区

首頁 > 數據庫 > PostgreSQL > 正文

一個提升PostgreSQL性能的小技巧

2020-03-12 23:53:55
字體:
來源:轉載
供稿:網友

這篇文章主要介紹了一個提升Postgres性能的小技巧,通過修改很少的代碼來優化查詢,需要的朋友可以參考下

在一個(差)的PostgreSQL 查詢中只要一個小小到改動(ANY(ARRAY[...])to ANY(VALUES(...)))就能把查詢時間從20s縮減到0.2s。從最簡單的學習使用EXPLAIN ANALYZE開始,到學習使用Postgres community大量學習時間的投入將有百倍時間到回報。

使用Postgres監測慢的Postgres查詢

在這周早些時候,一個用于我們的圖形編輯器上的小表(10GB,1500萬行)的主鍵查詢,在我們的一個(多個)數據庫上發生來大的查詢性能問題。

99.9%到查詢都是非常迅速流暢的,但是在一些使用大量的枚舉值的地方,這些查詢會需要20秒。花費如此多到時間在數據庫上,意味著使用者必須在瀏覽器面前等待圖形編輯器的響應。很明顯只因為這0.01%就會造成很不好到影響。

查詢和查詢計劃

下面是這個出問題的查詢

 

 
  1. SELECT c.key
  2. c.x_key, 
  3. c.tags, 
  4. x.name 
  5. FROM context c 
  6. JOIN x 
  7. ON c.x_key = x.key 
  8. WHERE c.key = ANY (ARRAY[15368196, -- 11,000 other keys --)]) 
  9. AND c.x_key = 1 
  10. AND c.tags @> ARRAY[E'blah']; 

表X有幾千行數據,表C有1500萬條數據。兩張表的主鍵值“key”都有適當的索引。這是一個非常簡單清晰的主鍵查詢。但有趣的是,當增加主鍵內容的數量,如在主鍵有11,000個值的時候,通過在查詢語句上加上 EXPLAIN (ANALYZE, BUFFERS)我們得到如下的查詢計劃。

 

 
  1. Nested Loop (cost=6923.33..11770.59 rows=1 width=362) (actual time=17128.188..22109.283 rows=10858 loops=1) 
  2. Buffers: shared hit=83494 
  3. -> Bitmap Heap Scan on context c (cost=6923.33..11762.31 rows=1 width=329) (actual time=17128.121..22031.783 rows=10858 loops=1) 
  4. Recheck Cond: ((tags @> '{blah}'::text[]) AND (x_key = 1)) 
  5. Filter: (key = ANY ('{15368196,(a lot more keys here)}'::integer[])) 
  6. Buffers: shared hit=50919 
  7. -> BitmapAnd (cost=6923.33..6923.33 rows=269 width=0) (actual time=132.910..132.910 rows=0 loops=1) 
  8. Buffers: shared hit=1342 
  9. -> Bitmap Index Scan on context_tags_idx (cost=0.00..1149.61 rows=15891 width=0) (actual time=64.614..64.614 rows=264777 loops=1) 
  10. Index Cond: (tags @> '{blah}'::text[]) 
  11. Buffers: shared hit=401 
  12. -> Bitmap Index Scan on context_x_id_source_type_id_idx (cost=0.00..5773.47 rows=268667 width=0) (actual time=54.648..54.648 rows=267659 loops=1) 
  13. Index Cond: (x_id = 1) 
  14. Buffers: shared hit=941 
  15. -> Index Scan using x_pkey on x (cost=0.00..8.27 rows=1 width=37) (actual time=0.003..0.004 rows=1 loops=10858) 
  16. Index Cond: (x.key = 1) 
  17. Buffers: shared hit=32575 
  18. Total runtime: 22117.417 ms 

在結果的最底部你可以看到,這個查詢總共花費22秒。我們可以非常直觀的通過下面的CPU使用率圖觀察到這22秒的花費。大部分的時間花費在 Postgres和 OS 上, 只有很少部分用于I/O .

一個提升PostgreSQL性能的小技巧

在最低的層面,這些查詢看起來就像是這些CPU利用率的峰值。CPU圖很少有用,但是在這種條件下它證實了關鍵的一點:數據庫并沒有等待磁盤去讀取數據。它在做一些排序,哈希以及行比較之類的事情。

第二個有趣的度量,就是距離這些峰值很近的軌跡,它們是由Postgres“取得”的行數(本例中沒有返回,就看看再忽略掉吧)。

一個提升PostgreSQL性能的小技巧

顯然有些動作在規則的有條不紊的瀏覽過許多行:我們的查詢。

Postgres 的問題所在:位圖掃描

下面是行匹配的查詢計劃

 

 
  1. Buffers: shared hit=83494 
  2. -> Bitmap Heap Scan on context c (cost=6923.33..11762.31 rows=1 width=329) (actual time=17128.121..22031.783 rows=10858 loops=1) 
  3. Recheck Cond: ((tags @> '{blah}'::text[]) AND (x_key = 1)) 
  4. Filter: (key = ANY ('{15368196,(a lot more keys here)}'::integer[])) 
  5. Buffers: shared hit=50919 

Postgres 使用位圖掃描表C. 當主鍵的數據量小的時候,它能有效的使用索引在內存里建立位圖。如果位圖太大,最優查詢計劃就改變查詢方式了。在我們這個查詢中,因為主鍵包含的數據量很大,所以查詢就使用最優(系統自己判斷的)的方式去檢索查詢候選行,并且立即查詢所有和主鍵匹配的數據。就是這些¨放入內存¨和¨立即查詢¨花費太多的時間(查詢計劃中的Recheck Cond)。

幸好只有30%的數據被導入到內存中,所以還不至于像從硬盤里讀取那么壞。但它仍然對性能有非常明顯的影響。記住,查詢是非常簡單的。這是一個主鍵查詢所以沒有很多明了的方式來確定它有沒有戲劇性的重新架構數據庫或應用程序。PGSQL-Performance mailing list給予了我們很大的幫助.

解決方案

這是我們喜歡開源和喜歡幫助用戶的另外一個原因。Tom Lane是開源代碼作者中最盛產的程序員之一,他建議我們做如下嘗試:

 

 
  1. SELECT c.key
  2. c.x_key, 
  3. c.tags, 
  4. x.name 
  5. FROM context c 
  6. JOIN x 
  7. ON c.x_key = x.key 
  8. WHERE c.key = ANY (VALUES (15368196), -- 11,000 other keys --) 
  9. AND c.x_key = 1 
  10. AND c.tags @> ARRAY[E'blah']; 

把ARRAY改成VALUES,你能指出他們的不同點嗎?

我們使用ARRAY[...]列舉出所有的關鍵字以用來查詢,但是這卻欺騙了查詢優化器。然而Values(...)卻能夠讓優化器充分使用關鍵字索引。僅僅是一行代碼的改變,并且沒有產生任何語義的改變。

下面是新查詢語句的寫法,差別就在于第三和第十四行。

 

 
  1. Nested Loop (cost=168.22..2116.29 rows=148 width=362) (actual time=22.134..256.531 rows=10858 loops=1) 
  2. Buffers: shared hit=44967 
  3. -> Index Scan using x_pkey on x (cost=0.00..8.27 rows=1 width=37) (actual time=0.071..0.073 rows=1 loops=1) 
  4. Index Cond: (id = 1) 
  5. Buffers: shared hit=4 
  6. -> Nested Loop (cost=168.22..2106.54 rows=148 width=329) (actual time=22.060..242.406 rows=10858 loops=1) 
  7. Buffers: shared hit=44963 
  8. -> HashAggregate (cost=168.22..170.22 rows=200 width=4) (actual time=21.529..32.820 rows=11215 loops=1) 
  9. -> Values Scan on "*VALUES*" (cost=0.00..140.19 rows=11215 width=4) (actual time=0.005..9.527 rows=11215 loops=1) 
  10. -> Index Scan using context_pkey on context c (cost=0.00..9.67 rows=1 width=329) (actual time=0.015..0.016 rows=1 loops=11215) 
  11. Index Cond: (c.key = "*VALUES*".column1) 
  12. Filter: ((c.tags @> '{blah}'::text[]) AND (c.x_id = 1)) 
  13. Buffers: shared hit=44963 
  14. Total runtime: 263.639 ms 

查詢時間從22000ms下降到200ms,僅僅一行代碼的改變效率就提高了100倍。

在生產中使用的新查詢

即將發布的一段代碼:

一個提升PostgreSQL性能的小技巧

它使數據庫看起來更美觀輕松.

第三方工具

postgres慢查詢不存在了。但是有誰樂意被0.1%不幸的少數折磨。要立即驗證修改查詢的影響,就需要Datadog來幫助我們判斷修改是否是正確的。

如果你想要找出對Postgres查詢改變的影響,可能需要幾分鐘來注冊一個免費的Datadog賬號。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 国产亚洲精品美女久久久 | 舌头伸进添的我好爽高潮网站 | 国产69精品久久99不卡免费版 | 欧美一a一片一级一片 | 黄色va视频 | 在线观看视频毛片 | 羞羞的视频在线免费观看 | 免费一级毛片电影 | 欧美成人二区 | 国产精品久久久久久久久久久久久久久 | 久草在线视频在线 | 久久中文字幕在线观看 | 亚洲一区二区三区日本久久九 | 国产一区国产二区在线观看 | www成人在线观看 | www.99re1.com| 免费国产一级特黄久久 | 中文字幕1区2区 | 黄网站免费入口 | 久久精品视频12 | 91成人一区二区三区 | 国产精品久久久久久久久久久久午夜 | 国产一级淫 | 久啪视频 | 国产精品亚洲精品日韩已方 | 国产在线欧美日韩 | 久久精品2019中文字幕 | 日韩黄色免费在线观看 | 日本中文字幕高清 | 亚洲国产超高清a毛毛片 | 国产精品久久久久久久四虎电影 | 久草手机视频在线观看 | 成人精品久久久 | 国产精品男女 | 国产免费久久久久 | 国产一区二区三区视频免费 | 国产精品视频一区二区三区四 | 成人在线观看免费观看 | 黄污污网站 | 激情综合在线 | 国产精品午夜未成人免费观看 |