亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb

首頁 > 數據庫 > PostgreSQL > 正文

在PostgreSQL中使用數組時值得注意的一些地方

2020-10-29 21:49:57
字體:
來源:轉載
供稿:網友

在Heap中,我們依靠PostgreSQL支撐大多數后端繁重的任務,我們存儲每個事件為一個hstore blob,我們為每個跟蹤的用戶維護一個已完成事件的PostgreSQL數組,并將這些事件按時間排序。 Hstore能夠讓我們以靈活的方式附加屬性到事件中,而且事件數組賦予了我們強大的性能,特別是對于漏斗查詢,在這些查詢中我們計算不同轉化渠道步驟間的輸出。

在這篇文章中,我們看看那些意外接受大量輸入的PostgreSQL函數,然后以高效,慣用的方式重寫它。

你的第一反應可能是將PostgreSQL中的數組看做像C語言中對等的類似物。你之前可能用過變換陣列位置或切片來操縱數據。不過要小心,在PostgreSQL中不要有這樣的想法,特別是數組類型是變長的時,比如JSON、文本或是hstore。如果你通過位置來訪問PostgreSQL數組,你會進入一個意想不到的性能暴跌的境地。


這種情況幾星期前在Heap出現了。我們在Heap為每個跟蹤用戶維護一個事件數組,在這個數組中我們用一個hstore datum代表每個事件。我們有一個導入管道來追加新事件到對應的數組。為了使這一導入管道是冪等的,我們給每個事件設定一個event_id,我們通過一個功能函數重復運行我們的事件數組。如果我們要更新附加到事件的屬性的話,我們只需使用相同的event_id轉儲一個新的事件到管道中。

所以,我們需要一個功能函數來處理hstores數組,并且,如果兩個事件具有相同的event_id時應該使用數組中最近出現的那個。剛開始嘗試這個函數是這樣寫的:
 

-- This is slow, and you don't want to use it!---- Filter an array of events such that there is only one event with each event_id.-- When more than one event with the same event_id is present, take the latest one.CREATE OR REPLACE FUNCTION dedupe_events_1(events HSTORE[]) RETURNS HSTORE[] AS $$ SELECT array_agg(event) FROM (  -- Filter for rank = 1, i.e. select the latest event for any collisions on event_id.  SELECT event  FROM (   -- Rank elements with the same event_id by position in the array, descending.

這個查詢在擁有2.4GHz的i7CPU及16GB Ram的macbook pro上測得,運行腳本為:https://gist.github.com/drob/9180760。


在這邊究竟發生了什么呢? 關鍵在于PostgreSQL存貯了一個系列的hstores作為數組的值, 而不是指向值的指針. 一個包含了三個hstores的數組看起來像

{“event_id=>1,data=>foo”, “event_id=>2,data=>bar”, “event_id=>3,data=>baz”}

相反的是

{[pointer], [pointer], [pointer]}

 

對于那些長度不一的變量, 舉個例子. hstores, json blobs, varchars,或者是 text fields, PostgreSQL 必須去找到每一個變量的長度. 對于evaluateevents[2], PostgreSQL 解析從左側讀取的事件直到讀取到第二次讀取的數據. 然后就是 forevents[3], 她再一次的從第一個索引處開始掃描,直到讀到第三次的數據! 所以, evaluatingevents[sub]是 O(sub), 并且 evaluatingevents[sub]對于在數組中的每一個索引都是 O(N2), N是數組的長度.

PostgreSQL能得到更加恰當的解析結果,  它可以在這樣的情況下分析該數組一次. 真正的答案是可變長度的元素與指針來實現,以數組的值, 以至于,我們總能夠處理 evaluateevents[i]在不變的時間內.


即便如此,我們也不應該讓PostgreSQL來處理,因為這不是一個地道的查詢。除了generate_subscripts我們可以用unnest,它解析數組并返回一組條目。這樣一來,我們就不需要在數組中顯式加入索引了。
 

-- Filter an array of events such that there is only one event with each event_id.-- When more than one event with the same event_id, is present, take the latest one.CREATE OR REPLACE FUNCTION dedupe_events_2(events HSTORE[]) RETURNS HSTORE[] AS $$ SELECT array_agg(event) FROM (  -- Filter for rank = 1, i.e. select the latest event for any collisions on event_id.  SELECT event  FROM (   -- Rank elements with the same event_id by position in the array, descending.   SELECT event, row_number AS index, rank()   OVER (PARTITION BY (event -> 'event_id')::BIGINT ORDER BY row_number DESC)   FROM (    -- Use unnest instead of generate_subscripts to turn an array into a set.    SELECT event, row_number()    OVER (ORDER BY event -> 'time')    FROM unnest(events) AS event   ) unnested_data  ) deduped_events  WHERE rank = 1  ORDER BY index ASC ) to_agg;$$ LANGUAGE SQL IMMUTABLE;

結果是有效的,它花費的時間跟輸入數組的大小呈線性關系。對于100K個元素的輸入它需要大約半秒,而之前的實現需要40秒。

這實現了我們的需求:

  •     一次解析數組,不需要unnest。
  •     按event_id劃分。
  •     對每個event_id采用最新出現的。
  •     按輸入索引排序。

教訓:如果你需要訪問PostgreSQL數組的特定位置,考慮使用unnest代替。 

   SELECT events[sub] AS event, sub, rank()   OVER (PARTITION BY (events[sub] -> 'event_id')::BIGINT ORDER BY sub DESC)   FROM generate_subscripts(events, 1) AS sub  ) deduped_events  WHERE rank = 1  ORDER BY sub ASC ) to_agg;$$ LANGUAGE SQL IMMUTABLE;

這樣奏效,但大輸入是性能下降了。這是二次的,在輸入數組有100K各元素時它需要大約40秒!

2015421145745565.png (668×436)

這個查詢在擁有2.4GHz的i7CPU及16GB Ram的macbook pro上測得,運行腳本為:https://gist.github.com/drob/9180760。


在這邊究竟發生了什么呢? 關鍵在于PostgreSQL存貯了一個系列的hstores作為數組的值, 而不是指向值的指針. 一個包含了三個hstores的數組看起來像

{“event_id=>1,data=>foo”, “event_id=>2,data=>bar”, “event_id=>3,data=>baz”}

相反的是

{[pointer], [pointer], [pointer]}

 

對于那些長度不一的變量, 舉個例子. hstores, json blobs, varchars,或者是 text fields, PostgreSQL 必須去找到每一個變量的長度. 對于evaluateevents[2], PostgreSQL 解析從左側讀取的事件直到讀取到第二次讀取的數據. 然后就是 forevents[3], 她再一次的從第一個索引處開始掃描,直到讀到第三次的數據! 所以, evaluatingevents[sub]是 O(sub), 并且 evaluatingevents[sub]對于在數組中的每一個索引都是 O(N2), N是數組的長度.

PostgreSQL能得到更加恰當的解析結果,  它可以在這樣的情況下分析該數組一次. 真正的答案是可變長度的元素與指針來實現,以數組的值, 以至于,我們總能夠處理 evaluateevents[i]在不變的時間內.


即便如此,我們也不應該讓PostgreSQL來處理,因為這不是一個地道的查詢。除了generate_subscripts我們可以用unnest,它解析數組并返回一組條目。這樣一來,我們就不需要在數組中顯式加入索引了。
 

-- Filter an array of events such that there is only one event with each event_id.-- When more than one event with the same event_id, is present, take the latest one.CREATE OR REPLACE FUNCTION dedupe_events_2(events HSTORE[]) RETURNS HSTORE[] AS $$ SELECT array_agg(event) FROM (  -- Filter for rank = 1, i.e. select the latest event for any collisions on event_id.  SELECT event  FROM (   -- Rank elements with the same event_id by position in the array, descending.   SELECT event, row_number AS index, rank()   OVER (PARTITION BY (event -> 'event_id')::BIGINT ORDER BY row_number DESC)   FROM (    -- Use unnest instead of generate_subscripts to turn an array into a set.    SELECT event, row_number()    OVER (ORDER BY event -> 'time')    FROM unnest(events) AS event   ) unnested_data  ) deduped_events  WHERE rank = 1  ORDER BY index ASC ) to_agg;$$ LANGUAGE SQL IMMUTABLE;

結果是有效的,它花費的時間跟輸入數組的大小呈線性關系。對于100K個元素的輸入它需要大約半秒,而之前的實現需要40秒。

這實現了我們的需求:

  •     一次解析數組,不需要unnest。
  •     按event_id劃分。
  •     對每個event_id采用最新出現的。
  •     按輸入索引排序。

教訓:如果你需要訪問PostgreSQL數組的特定位置,考慮使用unnest代替。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb
久久99精品久久久久久琪琪| 欧美日韩在线第一页| 日韩精品www| 欧美特级www| 在线性视频日韩欧美| 这里只有精品视频在线| 成人a在线观看| 国产亚洲精品美女| 成人国产精品色哟哟| 日韩av在线网址| 亚洲视频第一页| 91大神在线播放精品| 亚洲成人av片在线观看| www.美女亚洲精品| 51视频国产精品一区二区| 91精品中国老女人| 亚洲欧洲黄色网| 亚洲成人动漫在线播放| 亚洲欧美一区二区精品久久久| 欧美日韩在线影院| 亚洲欧洲在线看| 在线播放国产一区中文字幕剧情欧美| 亚洲3p在线观看| 疯狂欧美牲乱大交777| 黑人巨大精品欧美一区二区三区| 夜夜躁日日躁狠狠久久88av| 国产精品情侣自拍| 国产噜噜噜噜噜久久久久久久久| 第一福利永久视频精品| 一区二区三区黄色| 97色伦亚洲国产| 国产精品精品久久久久久| 久久久久久综合网天天| 欧美高清视频在线播放| 欧美精品电影在线| 成人免费大片黄在线播放| 色综合久久悠悠| 一本色道久久88精品综合| 日韩经典第一页| 亚洲天堂免费观看| 欧美成人午夜剧场免费观看| 国产精品久久久久福利| 欧美成人第一页| 亚洲第一福利在线观看| 欧美成人黑人xx视频免费观看| 在线播放日韩精品| 成人黄色激情网| 国产日韩中文字幕| 欧美在线视频在线播放完整版免费观看| 精品露脸国产偷人在视频| 亚洲午夜av久久乱码| 97高清免费视频| 色噜噜狠狠狠综合曰曰曰88av| 中文字幕日韩av| 国产免费一区视频观看免费| 亚洲黄页视频免费观看| 日本不卡视频在线播放| 久久久久国产精品免费网站| 欧美午夜激情在线| 欧美视频一区二区三区…| 久久999免费视频| 日韩大片免费观看视频播放| 久久91精品国产91久久久| 欧美精品999| 日韩成人激情影院| 97在线观看免费| 亚洲视频欧洲视频| 欧美超级乱淫片喷水| 久久成人av网站| 国产在线视频一区| 日本欧美中文字幕| 亚洲成人精品视频| 国产精品久久久久久久久久久久久| 久久久久久久影视| 久久久伊人欧美| 日韩av大片在线| 成人免费福利视频| 久久精品国产视频| 国产日韩一区在线| 久久精彩免费视频| 久久综合电影一区| 日韩一区二区福利| 国产精品久久久久久久久粉嫩av| 亚州成人av在线| 亚洲乱亚洲乱妇无码| 韩国三级电影久久久久久| 少妇高潮久久久久久潘金莲| 国产一区在线播放| 欧美日韩国产丝袜另类| 亚洲午夜精品久久久久久性色| 欧美激情xxxx| 6080yy精品一区二区三区| 亚洲激情在线观看视频免费| 色悠悠国产精品| 欧洲亚洲女同hd| 国产色视频一区| 欧美多人爱爱视频网站| 日韩在线视频观看正片免费网站| 国产日韩中文字幕在线| 欧美午夜精品久久久久久人妖| 国产精品国产三级国产aⅴ浪潮| 在线观看成人黄色| 色中色综合影院手机版在线观看| 精品国产拍在线观看| 中文字幕久热精品在线视频| 欧美第一黄色网| 欧美丝袜一区二区三区| 亚洲欧美一区二区三区四区| 亚洲高清一区二| 81精品国产乱码久久久久久| 777午夜精品福利在线观看| 久久久久久国产| 国产欧美婷婷中文| 人妖精品videosex性欧美| 国产成人涩涩涩视频在线观看| 国产亚洲激情在线| 欧美国产日韩中文字幕在线| 欧美成人性生活| 国产精品视频区1| 亚洲国产精彩中文乱码av| 亚洲第一页自拍| 九九九久久国产免费| 亚洲图片欧美午夜| 日韩黄色在线免费观看| 亚洲性视频网站| 成人精品视频在线| 亚洲人成电影网站色…| 中文字幕精品在线视频| 国产在线日韩在线| 久久久精品一区二区| 日本久久久久久久久久久| 欧美另类交人妖| 97成人超碰免| 都市激情亚洲色图| 91麻豆国产语对白在线观看| 国内精品美女av在线播放| 久久久久久国产精品三级玉女聊斋| 91在线免费视频| 亚洲天堂色网站| 亚洲va久久久噜噜噜久久天堂| 亚洲精品v欧美精品v日韩精品| 亚洲欧美激情视频| 亚洲天堂第二页| 国产精品一区二区三区在线播放| 欧美日韩精品中文字幕| 欧美一区二区色| 日韩av网址在线| 欧美在线亚洲一区| 精品人伦一区二区三区蜜桃免费| 日韩精品欧美国产精品忘忧草| 国内精品模特av私拍在线观看| 色婷婷亚洲mv天堂mv在影片| 97久久精品国产| 国产视频久久久久| 国产一区私人高清影院| 欧美电影免费观看电视剧大全| 日韩成人高清在线| 午夜精品久久久久久久男人的天堂| 韩国三级日本三级少妇99| 高清一区二区三区日本久| 韩国精品美女www爽爽爽视频| 国产视频一区在线| 欧美亚洲另类视频| 亚洲成人黄色在线观看|