PostgreSQL提供了一些幫助提升性能的功能。主要有一些幾個方面。
1.使用EXPLAIN
EXPLAIN命令可以查看執行計劃,在前面的blog中已經介紹過。這個方法是我們最主要的調試工具。
2.及時更新執行計劃中使用的統計信息
由于統計 信息不是每次操作數據庫都進行更新的,一般是在 VACUUM 、 ANALYZE 、 CREATE INDEX等DDL執行的時候會更新統計信息,因此執 行 計 劃所用的 統計 信息很有可能比 較 舊。 這樣執 行 計 劃的分析結果可能誤差會變大。
以下是表tenk1的相關的一部分統計信息。
SELECT relname, relkind, reltuples, relpages FROM pg_class WHERE relname LIKE 'tenk1%';
relname | relkind | reltuples | relpages
------------------------------+---------+-----------+----------
tenk1 | r | 10000 | 358
tenk1_hundred | i | 10000 | 30
tenk1_thous_tenthous | i | 10000 | 30
tenk1_unique1 | i | 10000 | 30
tenk1_unique2 | i | 10000 | 30
(5 rows)
其中 relkind是類型,r是自身表,i是索引index;reltuples是項目數;relpages是所占硬盤的塊數。
3.明確用join來關聯表
一般寫法:SELECT * FROM a, b, c WHERE a.id = b.id AND b.ref = c.id;
如果明確用join的話,執行時候執行計劃相對容易控制一些。
例子:
SELECT * FROM a CROSS JOIN b CROSS JOIN c WHERE a.id = b.id AND b.ref = c.id;
SELECT * FROM a JOIN (b JOIN c ON (b.ref = c.id)) ON (a.id = b.id);
4.關閉自動提交(autocommit=false)
5.多次插入數據是用copy命令更有效率
我們有的處理中要對同一張表執行很多次insert操作。這個時候我們用copy命令更有效率。因為insert一次,其相關的index都要做一次,比較花費時間。
6.臨時刪除index
有時候我們在備份和重新導入數據的時候,如果數據量很大的話,要很幾個小時才能完成。這個時候可以先把index刪除掉。導入在建index。
7.外鍵關聯的刪除
如果表的有外鍵的話,每次操作都沒去check外鍵整合性。因此比較慢。數據導入后在建立外鍵也是一種選擇。
8.增加maintenance_work_mem參數大小
增加這個參數可以提升CREATE INDEX和ALTER TABLE ADD FOREIGN KEY的執行效率。
9.增加checkpoint_segments參數的大小
增加這個參數可以提升大量數據導入時候的速度。
10.設置archive_mode無效
這個參數設置為無效的時候,能夠提升以下的操作的速度
?CREATE TABLE AS SELECT
?CREATE INDEX
?ALTER TABLE SET TABLESPACE
?CLUSTER等。
11.最后執行VACUUM ANALYZE
表中數據大量變化的時候建議執行VACUUM ANALYZE。
|
新聞熱點
疑難解答
圖片精選