麻豆小视频在线观看_中文黄色一级片_久久久成人精品_成片免费观看视频大全_午夜精品久久久久久久99热浪潮_成人一区二区三区四区

首頁 > 數據庫 > PostgreSQL > 正文

在PostgreSQL中使用數組時值得注意的一些地方

2020-03-12 23:53:51
字體:
來源:轉載
供稿:網友

這篇文章主要介紹了在PostgreSQL中使用數組時值得注意的一些地方,包括如何提高輸入性能,需要的朋友可以參考下

在Heap中,我們依靠PostgreSQL支撐大多數后端繁重的任務,我們存儲每個事件為一個hstoreblob,我們為每個跟蹤的用戶維護一個已完成事件的PostgreSQL數組,并將這些事件按時間排序。 Hstore能夠讓我們以靈活的方式附加屬性到事件中,而且事件數組賦予了我們強大的性能,特別是對于漏斗查詢,在這些查詢中我們計算不同轉化渠道步驟間的輸出。

在這篇文章中,我們看看那些意外接受大量輸入的PostgreSQL函數,然后以高效,慣用的方式重寫它。

你的第一反應可能是將PostgreSQL中的數組看做像C語言中對等的類似物。你之前可能用過變換陣列位置或切片來操縱數據。不過要小心,在PostgreSQL中不要有這樣的想法,特別是數組類型是變長的時,比如JSON、文本或是hstore。如果你通過位置來訪問PostgreSQL數組,你會進入一個意想不到的性能暴跌的境地。

這種情況幾星期前在Heap出現了。我們在Heap為每個跟蹤用戶維護一個事件數組,在這個數組中我們用一個hstore datum代表每個事件。我們有一個導入管道來追加新事件到對應的數組。為了使這一導入管道是冪等的,我們給每個事件設定一個event_id,我們通過一個功能函數重復運行我們的事件數組。如果我們要更新附加到事件的屬性的話,我們只需使用相同的event_id轉儲一個新的事件到管道中。

所以,我們需要一個功能函數來處理hstores數組,并且,如果兩個事件具有相同的event_id時應該使用數組中最近出現的那個。剛開始嘗試這個函數是這樣寫的:

 

 
  1. -- This is slow, and you don't want to use it! 
  2. -- 
  3. -- Filter an array of events such that there is only one event with each event_id. 
  4. -- When more than one event with the same event_id is present, take the latest one. 
  5. CREATE OR REPLACE FUNCTION dedupe_events_1(events HSTORE[]) RETURNS HSTORE[] AS $ 
  6. SELECT array_agg(event) 
  7. FROM ( 
  8. -- Filter for rank = 1, i.e. select the latest event for any collisions on event_id. 
  9. SELECT event 
  10. FROM ( 
  11. -- Rank elements with the same event_id by position in the array, descending. 

這個查詢在擁有2.4GHz的i7CPU及16GB Ram的macbook pro上測得,運行腳本為:https://gist.github.com/drob/9180760。

在這邊究竟發生了什么呢? 關鍵在于PostgreSQL存貯了一個系列的hstores作為數組的值, 而不是指向值的指針. 一個包含了三個hstores的數組看起來像

 

 
  1. {“event_id=>1,data=>foo”, “event_id=>2,data=>bar”, “event_id=>3,data=>baz”} 

相反的是

 

 
  1. {[pointer], [pointer], [pointer]} 

對于那些長度不一的變量, 舉個例子. hstores, json blobs, varchars,或者是 text fields, PostgreSQL 必須去找到每一個變量的長度. 對于evaluateevents[2], PostgreSQL 解析從左側讀取的事件直到讀取到第二次讀取的數據. 然后就是 forevents[3], 她再一次的從第一個索引處開始掃描,直到讀到第三次的數據! 所以, evaluatingevents[sub]是 O(sub), 并且 evaluatingevents[sub]對于在數組中的每一個索引都是 O(N2), N是數組的長度.

PostgreSQL能得到更加恰當的解析結果, 它可以在這樣的情況下分析該數組一次. 真正的答案是可變長度的元素與指針來實現,以數組的值, 以至于,我們總能夠處理 evaluateevents[i]在不變的時間內.

即便如此,我們也不應該讓PostgreSQL來處理,因為這不是一個地道的查詢。除了generate_subscripts我們可以用unnest,它解析數組并返回一組條目。這樣一來,我們就不需要在數組中顯式加入索引了。

 

 
  1. -- Filter an array of events such that there is only one event with each event_id. 
  2. -- When more than one event with the same event_id, is present, take the latest one. 
  3. CREATE OR REPLACE FUNCTION dedupe_events_2(events HSTORE[]) RETURNS HSTORE[] AS $ 
  4. SELECT array_agg(event) 
  5. FROM ( 
  6. -- Filter for rank = 1, i.e. select the latest event for any collisions on event_id. 
  7. SELECT event 
  8. FROM ( 
  9. -- Rank elements with the same event_id by position in the array, descending. 
  10. SELECT event, row_number AS index, rank() 
  11. OVER (PARTITION BY (event -> 'event_id')::BIGINT ORDER BY row_number DESC) 
  12. FROM ( 
  13. -- Use unnest instead of generate_subscripts to turn an array into a set. 
  14. SELECT event, row_number() 
  15. OVER (ORDER BY event -> 'time'
  16. FROM unnest(events) AS event 
  17. ) unnested_data 
  18. ) deduped_events 
  19. WHERE rank = 1 
  20. ORDER BY index ASC 
  21. ) to_agg; 
  22. $ LANGUAGE SQL IMMUTABLE; 

結果是有效的,它花費的時間跟輸入數組的大小呈線性關系。對于100K個元素的輸入它需要大約半秒,而之前的實現需要40秒。

這實現了我們的需求:

一次解析數組,不需要unnest。

按event_id劃分。

對每個event_id采用最新出現的。

按輸入索引排序。

教訓:如果你需要訪問PostgreSQL數組的特定位置,考慮使用unnest代替。

 

 
  1. SELECT events[sub] AS event, sub, rank() 
  2. OVER (PARTITION BY (events[sub] -> 'event_id')::BIGINT ORDER BY sub DESC) 
  3. FROM generate_subscripts(events, 1) AS sub 
  4. ) deduped_events 
  5. WHERE rank = 1 
  6. ORDER BY sub ASC 
  7. ) to_agg; 
  8. $ LANGUAGE SQL IMMUTABLE; 

這樣奏效,但大輸入是性能下降了。這是二次的,在輸入數組有100K各元素時它需要大約40秒!

在PostgreSQL中使用數組時值得注意的一些地方

這個查詢在擁有2.4GHz的i7CPU及16GB Ram的macbook pro上測得,運行腳本為:https://gist.github.com/drob/9180760。

在這邊究竟發生了什么呢? 關鍵在于PostgreSQL存貯了一個系列的hstores作為數組的值, 而不是指向值的指針. 一個包含了三個hstores的數組看起來像

 

 
  1. {“event_id=>1,data=>foo”, “event_id=>2,data=>bar”, “event_id=>3,data=>baz”} 

相反的是

 

 
  1. {[pointer], [pointer], [pointer]} 

對于那些長度不一的變量, 舉個例子. hstores, json blobs, varchars,或者是 text fields, PostgreSQL 必須去找到每一個變量的長度. 對于evaluateevents[2], PostgreSQL 解析從左側讀取的事件直到讀取到第二次讀取的數據. 然后就是 forevents[3], 她再一次的從第一個索引處開始掃描,直到讀到第三次的數據! 所以, evaluatingevents[sub]是 O(sub), 并且 evaluatingevents[sub]對于在數組中的每一個索引都是 O(N2), N是數組的長度.

PostgreSQL能得到更加恰當的解析結果, 它可以在這樣的情況下分析該數組一次. 真正的答案是可變長度的元素與指針來實現,以數組的值, 以至于,我們總能夠處理 evaluateevents[i]在不變的時間內.

即便如此,我們也不應該讓PostgreSQL來處理,因為這不是一個地道的查詢。除了generate_subscripts我們可以用unnest,它解析數組并返回一組條目。這樣一來,我們就不需要在數組中顯式加入索引了。

 

 
  1. -- Filter an array of events such that there is only one event with each event_id. 
  2. -- When more than one event with the same event_id, is present, take the latest one. 
  3. CREATE OR REPLACE FUNCTION dedupe_events_2(events HSTORE[]) RETURNS HSTORE[] AS $ 
  4. SELECT array_agg(event) 
  5. FROM ( 
  6. -- Filter for rank = 1, i.e. select the latest event for any collisions on event_id. 
  7. SELECT event 
  8. FROM ( 
  9. -- Rank elements with the same event_id by position in the array, descending. 
  10. SELECT event, row_number AS index, rank() 
  11. OVER (PARTITION BY (event -> 'event_id')::BIGINT ORDER BY row_number DESC) 
  12. FROM ( 
  13. -- Use unnest instead of generate_subscripts to turn an array into a set. 
  14. SELECT event, row_number() 
  15. OVER (ORDER BY event -> 'time'
  16. FROM unnest(events) AS event 
  17. ) unnested_data 
  18. ) deduped_events 
  19. WHERE rank = 1 
  20. ORDER BY index ASC 
  21. ) to_agg; 
  22. $ LANGUAGE SQL IMMUTABLE; 

結果是有效的,它花費的時間跟輸入數組的大小呈線性關系。對于100K個元素的輸入它需要大約半秒,而之前的實現需要40秒。

這實現了我們的需求:

一次解析數組,不需要unnest。

按event_id劃分。

對每個event_id采用最新出現的。

按輸入索引排序。

教訓:如果你需要訪問PostgreSQL數組的特定位置,考慮使用unnest代替。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 中文字幕在线免费观看电影 | av老司机久久 | 高清av免费 | 一级全毛片 | 亚洲最新色 | 国产精品视频成人 | 久久91精品久久久久清纯 | 精品99在线视频 | 亚洲第一成av人网站懂色 | 欧美女孩videos | 91精品视频网址 | 在线观看免费av网 | 无码专区aaaaaa免费视频 | 国产一国产精品一级毛片 | av亚洲在线观看 | 国产女王女m视频vk 中文日韩 | 久夜草 | 亚洲一区 国产精品 | av在线免费看片 | 亚洲成人精品区 | avav在线播放 | av成人免费在线观看 | 一级毛片播放 | 日韩高清影视 | 日本高清电影在线播放 | 久久骚 | 高清成人在线 | 欧美巨乳在线观看 | www亚洲| 在线成人av | 日本一区二区高清不卡 | 九九热精品在线视频 | 久久靖品 | 亚洲一二区精品 | 久久老司机 | 免费久久久 | 国产精品一区视频 | 国产色91| 九九热九九热 | 欧产日产国产精品v | 精品黑人一区二区三区国语馆 |