欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

在PostgreSQL中使用數(shù)組時(shí)值得注意的一些地方

 更新時(shí)間:2015年04月21日 15:00:45   投稿:goldensun  
這篇文章主要介紹了在PostgreSQL中使用數(shù)組時(shí)值得注意的一些地方,包括如何提高輸入性能,需要的朋友可以參考下

在Heap中,我們依靠PostgreSQL支撐大多數(shù)后端繁重的任務(wù),我們存儲(chǔ)每個(gè)事件為一個(gè)hstore blob,我們?yōu)槊總€(gè)跟蹤的用戶維護(hù)一個(gè)已完成事件的PostgreSQL數(shù)組,并將這些事件按時(shí)間排序。 Hstore能夠讓我們以靈活的方式附加屬性到事件中,而且事件數(shù)組賦予了我們強(qiáng)大的性能,特別是對(duì)于漏斗查詢,在這些查詢中我們計(jì)算不同轉(zhuǎn)化渠道步驟間的輸出。

在這篇文章中,我們看看那些意外接受大量輸入的PostgreSQL函數(shù),然后以高效,慣用的方式重寫它。

你的第一反應(yīng)可能是將PostgreSQL中的數(shù)組看做像C語(yǔ)言中對(duì)等的類似物。你之前可能用過(guò)變換陣列位置或切片來(lái)操縱數(shù)據(jù)。不過(guò)要小心,在PostgreSQL中不要有這樣的想法,特別是數(shù)組類型是變長(zhǎng)的時(shí),比如JSON、文本或是hstore。如果你通過(guò)位置來(lái)訪問(wèn)PostgreSQL數(shù)組,你會(huì)進(jìn)入一個(gè)意想不到的性能暴跌的境地。


這種情況幾星期前在Heap出現(xiàn)了。我們?cè)贖eap為每個(gè)跟蹤用戶維護(hù)一個(gè)事件數(shù)組,在這個(gè)數(shù)組中我們用一個(gè)hstore datum代表每個(gè)事件。我們有一個(gè)導(dǎo)入管道來(lái)追加新事件到對(duì)應(yīng)的數(shù)組。為了使這一導(dǎo)入管道是冪等的,我們給每個(gè)事件設(shè)定一個(gè)event_id,我們通過(guò)一個(gè)功能函數(shù)重復(fù)運(yùn)行我們的事件數(shù)組。如果我們要更新附加到事件的屬性的話,我們只需使用相同的event_id轉(zhuǎn)儲(chǔ)一個(gè)新的事件到管道中。

所以,我們需要一個(gè)功能函數(shù)來(lái)處理hstores數(shù)組,并且,如果兩個(gè)事件具有相同的event_id時(shí)應(yīng)該使用數(shù)組中最近出現(xiàn)的那個(gè)。剛開(kāi)始嘗試這個(gè)函數(shù)是這樣寫的:
 

-- This is slow, and you don't want to use it!
--
-- Filter an array of events such that there is only one event with each event_id.
-- When more than one event with the same event_id is present, take the latest one.
CREATE OR REPLACE FUNCTION dedupe_events_1(events HSTORE[]) RETURNS HSTORE[] AS $$
 SELECT array_agg(event)
 FROM (
  -- Filter for rank = 1, i.e. select the latest event for any collisions on event_id.
  SELECT event
  FROM (
   -- Rank elements with the same event_id by position in the array, descending.

這個(gè)查詢?cè)趽碛?.4GHz的i7CPU及16GB Ram的macbook pro上測(cè)得,運(yùn)行腳本為:https://gist.github.com/drob/9180760。


在這邊究竟發(fā)生了什么呢? 關(guān)鍵在于PostgreSQL存貯了一個(gè)系列的hstores作為數(shù)組的值, 而不是指向值的指針. 一個(gè)包含了三個(gè)hstores的數(shù)組看起來(lái)像

{“event_id=>1,data=>foo”, “event_id=>2,data=>bar”, “event_id=>3,data=>baz”}

相反的是

{[pointer], [pointer], [pointer]}

 

對(duì)于那些長(zhǎng)度不一的變量, 舉個(gè)例子. hstores, json blobs, varchars,或者是 text fields, PostgreSQL 必須去找到每一個(gè)變量的長(zhǎng)度. 對(duì)于evaluateevents[2], PostgreSQL 解析從左側(cè)讀取的事件直到讀取到第二次讀取的數(shù)據(jù). 然后就是 forevents[3], 她再一次的從第一個(gè)索引處開(kāi)始掃描,直到讀到第三次的數(shù)據(jù)! 所以, evaluatingevents[sub]是 O(sub), 并且 evaluatingevents[sub]對(duì)于在數(shù)組中的每一個(gè)索引都是 O(N2), N是數(shù)組的長(zhǎng)度.

PostgreSQL能得到更加恰當(dāng)?shù)慕馕鼋Y(jié)果,  它可以在這樣的情況下分析該數(shù)組一次. 真正的答案是可變長(zhǎng)度的元素與指針來(lái)實(shí)現(xiàn),以數(shù)組的值, 以至于,我們總能夠處理 evaluateevents[i]在不變的時(shí)間內(nèi).


即便如此,我們也不應(yīng)該讓PostgreSQL來(lái)處理,因?yàn)檫@不是一個(gè)地道的查詢。除了generate_subscripts我們可以用unnest,它解析數(shù)組并返回一組條目。這樣一來(lái),我們就不需要在數(shù)組中顯式加入索引了。
 

-- Filter an array of events such that there is only one event with each event_id.
-- When more than one event with the same event_id, is present, take the latest one.
CREATE OR REPLACE FUNCTION dedupe_events_2(events HSTORE[]) RETURNS HSTORE[] AS $$
 SELECT array_agg(event)
 FROM (
  -- Filter for rank = 1, i.e. select the latest event for any collisions on event_id.
  SELECT event
  FROM (
   -- Rank elements with the same event_id by position in the array, descending.
   SELECT event, row_number AS index, rank()
   OVER (PARTITION BY (event -> 'event_id')::BIGINT ORDER BY row_number DESC)
   FROM (
    -- Use unnest instead of generate_subscripts to turn an array into a set.
    SELECT event, row_number()
    OVER (ORDER BY event -> 'time')
    FROM unnest(events) AS event
   ) unnested_data
  ) deduped_events
  WHERE rank = 1
  ORDER BY index ASC
 ) to_agg;
$$ LANGUAGE SQL IMMUTABLE;

結(jié)果是有效的,它花費(fèi)的時(shí)間跟輸入數(shù)組的大小呈線性關(guān)系。對(duì)于100K個(gè)元素的輸入它需要大約半秒,而之前的實(shí)現(xiàn)需要40秒。

這實(shí)現(xiàn)了我們的需求:

  •     一次解析數(shù)組,不需要unnest。
  •     按event_id劃分。
  •     對(duì)每個(gè)event_id采用最新出現(xiàn)的。
  •     按輸入索引排序。

教訓(xùn):如果你需要訪問(wèn)PostgreSQL數(shù)組的特定位置,考慮使用unnest代替。 

   SELECT events[sub] AS event, sub, rank()
   OVER (PARTITION BY (events[sub] -> 'event_id')::BIGINT ORDER BY sub DESC)
   FROM generate_subscripts(events, 1) AS sub
  ) deduped_events
  WHERE rank = 1
  ORDER BY sub ASC
 ) to_agg;
$$ LANGUAGE SQL IMMUTABLE;

這樣奏效,但大輸入是性能下降了。這是二次的,在輸入數(shù)組有100K各元素時(shí)它需要大約40秒!

2015421145745565.png (668×436)

這個(gè)查詢?cè)趽碛?.4GHz的i7CPU及16GB Ram的macbook pro上測(cè)得,運(yùn)行腳本為:https://gist.github.com/drob/9180760。


在這邊究竟發(fā)生了什么呢? 關(guān)鍵在于PostgreSQL存貯了一個(gè)系列的hstores作為數(shù)組的值, 而不是指向值的指針. 一個(gè)包含了三個(gè)hstores的數(shù)組看起來(lái)像

{“event_id=>1,data=>foo”, “event_id=>2,data=>bar”, “event_id=>3,data=>baz”}

相反的是

{[pointer], [pointer], [pointer]}

 

對(duì)于那些長(zhǎng)度不一的變量, 舉個(gè)例子. hstores, json blobs, varchars,或者是 text fields, PostgreSQL 必須去找到每一個(gè)變量的長(zhǎng)度. 對(duì)于evaluateevents[2], PostgreSQL 解析從左側(cè)讀取的事件直到讀取到第二次讀取的數(shù)據(jù). 然后就是 forevents[3], 她再一次的從第一個(gè)索引處開(kāi)始掃描,直到讀到第三次的數(shù)據(jù)! 所以, evaluatingevents[sub]是 O(sub), 并且 evaluatingevents[sub]對(duì)于在數(shù)組中的每一個(gè)索引都是 O(N2), N是數(shù)組的長(zhǎng)度.

PostgreSQL能得到更加恰當(dāng)?shù)慕馕鼋Y(jié)果,  它可以在這樣的情況下分析該數(shù)組一次. 真正的答案是可變長(zhǎng)度的元素與指針來(lái)實(shí)現(xiàn),以數(shù)組的值, 以至于,我們總能夠處理 evaluateevents[i]在不變的時(shí)間內(nèi).


即便如此,我們也不應(yīng)該讓PostgreSQL來(lái)處理,因?yàn)檫@不是一個(gè)地道的查詢。除了generate_subscripts我們可以用unnest,它解析數(shù)組并返回一組條目。這樣一來(lái),我們就不需要在數(shù)組中顯式加入索引了。
 

-- Filter an array of events such that there is only one event with each event_id.
-- When more than one event with the same event_id, is present, take the latest one.
CREATE OR REPLACE FUNCTION dedupe_events_2(events HSTORE[]) RETURNS HSTORE[] AS $$
 SELECT array_agg(event)
 FROM (
  -- Filter for rank = 1, i.e. select the latest event for any collisions on event_id.
  SELECT event
  FROM (
   -- Rank elements with the same event_id by position in the array, descending.
   SELECT event, row_number AS index, rank()
   OVER (PARTITION BY (event -> 'event_id')::BIGINT ORDER BY row_number DESC)
   FROM (
    -- Use unnest instead of generate_subscripts to turn an array into a set.
    SELECT event, row_number()
    OVER (ORDER BY event -> 'time')
    FROM unnest(events) AS event
   ) unnested_data
  ) deduped_events
  WHERE rank = 1
  ORDER BY index ASC
 ) to_agg;
$$ LANGUAGE SQL IMMUTABLE;

結(jié)果是有效的,它花費(fèi)的時(shí)間跟輸入數(shù)組的大小呈線性關(guān)系。對(duì)于100K個(gè)元素的輸入它需要大約半秒,而之前的實(shí)現(xiàn)需要40秒。

這實(shí)現(xiàn)了我們的需求:

  •     一次解析數(shù)組,不需要unnest。
  •     按event_id劃分。
  •     對(duì)每個(gè)event_id采用最新出現(xiàn)的。
  •     按輸入索引排序。

教訓(xùn):如果你需要訪問(wèn)PostgreSQL數(shù)組的特定位置,考慮使用unnest代替。

相關(guān)文章

  • 淺談數(shù)據(jù)庫(kù)緩存最終一致性的四種方案

    淺談數(shù)據(jù)庫(kù)緩存最終一致性的四種方案

    緩存是軟件開(kāi)發(fā)中一個(gè)非常有用的概念,數(shù)據(jù)庫(kù)緩存更是在項(xiàng)目中必然會(huì)遇到的場(chǎng)景,緩存一致性的保證,更是在面試中被反復(fù)問(wèn)到。下面我們就一起來(lái)了解一下
    2021-04-04
  • 幾種常用DB驅(qū)動(dòng)和DB連接串小結(jié)

    幾種常用DB驅(qū)動(dòng)和DB連接串小結(jié)

    幾種常用DB驅(qū)動(dòng)和DB連接串,方便大家用各種程序,連接數(shù)據(jù)庫(kù)。
    2009-12-12
  • mssql 區(qū)分大小寫的詳細(xì)說(shuō)明

    mssql 區(qū)分大小寫的詳細(xì)說(shuō)明

    mssql區(qū)分大小寫,沒(méi)想到mysql也區(qū)分大小寫。相關(guān)的文章稍后奉獻(xiàn)給大家
    2008-03-03
  • 詳解關(guān)于Dbeaver的常用操作

    詳解關(guān)于Dbeaver的常用操作

    這篇文章主要介紹了詳解關(guān)于Dbeaver的常用操作,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧
    2020-11-11
  • Hadoop 2.x偽分布式環(huán)境搭建詳細(xì)步驟

    Hadoop 2.x偽分布式環(huán)境搭建詳細(xì)步驟

    這篇文章主要為大家詳細(xì)介紹了Hadoop 2.x偽分布式環(huán)境搭建詳細(xì)步驟,感興趣的朋友可以參考一下
    2016-05-05
  • SQL修改語(yǔ)法語(yǔ)句梳理總結(jié)

    SQL修改語(yǔ)法語(yǔ)句梳理總結(jié)

    這篇文章主要介紹了關(guān)于SQL修改語(yǔ)句的語(yǔ)法梳理總結(jié),文中附含詳細(xì)的修改語(yǔ)句示例,有需要的朋友 可以借鑒參考下,希望能夠有所幫助
    2021-10-10
  • Dbeaver做數(shù)據(jù)遷移的詳細(xì)過(guò)程記錄

    Dbeaver做數(shù)據(jù)遷移的詳細(xì)過(guò)程記錄

    DBeaver是一款跨平臺(tái)的通用數(shù)據(jù)庫(kù)開(kāi)源管理工具,支持 MySQL,PostgreSQL,Oracle,DB2,MSSQL,Sybase,Mimer,HSQLDB,Derby以及其他兼容JDBC的數(shù)據(jù)庫(kù),下面這篇文章主要給大家介紹了關(guān)于Dbeaver做數(shù)據(jù)遷移的詳細(xì)過(guò)程,需要的朋友可以參考下
    2023-05-05
  • 數(shù)據(jù)設(shè)計(jì)之權(quán)限的實(shí)現(xiàn)

    數(shù)據(jù)設(shè)計(jì)之權(quán)限的實(shí)現(xiàn)

    這篇文章主要介紹了數(shù)據(jù)設(shè)計(jì)之權(quán)限的實(shí)現(xiàn),文章圍繞主題展開(kāi)詳細(xì)的內(nèi)容介紹,具有一定的參考價(jià)值,需要的朋友可以參考一下
    2022-08-08
  • Access轉(zhuǎn)成SQL數(shù)據(jù)庫(kù)的方法

    Access轉(zhuǎn)成SQL數(shù)據(jù)庫(kù)的方法

    很多朋友想用SQL2000數(shù)據(jù)庫(kù)的編程方法,但是卻又苦于自己是學(xué)ACCESS的,對(duì)SQL只是一點(diǎn)點(diǎn)的了解而已,這里我給大家提供以下參考---將ACCESS轉(zhuǎn)化成SQL2000的方法和注意事項(xiàng)。
    2015-09-09
  • dbeaver導(dǎo)入導(dǎo)出數(shù)據(jù)庫(kù)簡(jiǎn)單圖文教程

    dbeaver導(dǎo)入導(dǎo)出數(shù)據(jù)庫(kù)簡(jiǎn)單圖文教程

    DBeaver是一款適用于開(kāi)發(fā)人員、數(shù)據(jù)庫(kù)管理員和分析師的多平臺(tái)、多數(shù)據(jù)庫(kù)管理工具,這篇文章主要給大家介紹了關(guān)于dbeaver導(dǎo)入導(dǎo)出數(shù)據(jù)庫(kù)的相關(guān)資料,需要的朋友可以參考下
    2024-01-01

最新評(píng)論