您好,登錄后才能下訂單哦!
這篇文章將為大家詳細講解有關asp.net如何實現Postgresql寫入/讀取大量數據,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。
環境及測試
使用.net驅動npgsql連接post數據庫。配置:win10 x64, i5-4590, 16G DDR3, SSD 850EVO.
postgresql 9.6.3,數據庫與數據都安裝在SSD上,默認配置,無擴展。
CREATE TABLE public.mesh ( x integer NOT NULL, y integer NOT NULL, z integer, CONSTRAINT prim PRIMARY KEY (x, y) )
1. 導入
使用數據備份,csv格式導入,文件位于機械硬盤上,480MB,數據量2500w+。
使用COPY
copy mesh from 'd:/user.csv' csv
運行時間107s
使用insert
單連接,c# release any cpu 非調試模式。
class Program { static void Main(string[] args) { var list = GetData("D:\\user.csv"); TimeCalc.LogStartTime(); using (var sm = new SqlManipulation(@"Strings", SqlType.PostgresQL)) { sm.Init(); foreach (var n in list) { sm.ExcuteNonQuery($"insert into mesh(x,y,z) values({n.x},{n.y},{n.z})"); } } TimeCalc.ShowTotalDuration(); Console.ReadKey(); } static List<(int x, int y, int z)> GetData(string filepath) { List<ValueTuple<int, int, int>> list = new List<(int, int, int)>(); foreach (var n in File.ReadLines(filepath)) { string[] x = n.Split(','); list.Add((Convert.ToInt32(x[0]), Convert.ToInt32(x[1]), Convert.ToInt32(x[2]))); } return list; } }
Postgresql CPU占用率很低,但是跑了一年,程序依然不能結束,沒有耐性了...,這么插入不行。
multiline insert
使用multiline插入,一條語句插入約100條數據。
var bag = GetData("D:\\user.csv"); //使用時,直接執行stringbuilder的tostring方法。 List<StringBuilder> listbuilder = new List<StringBuilder>(); StringBuilder sb = new StringBuilder(); for (int i = 0; i < bag.Count; i++) { if (i % 100 == 0) { sb = new StringBuilder(); listbuilder.Add(sb); sb.Append("insert into mesh(x,y,z) values"); sb.Append($"({bag[i].x}, {bag[i].y}, {bag[i].z})"); } else sb.Append($",({bag[i].x}, {bag[i].y}, {bag[i].z})"); }
Postgresql CPU占用率差不多27%,磁盤寫入大約45MB/S,感覺就是在干活,最后時間217.36s。
改為1000一行的話,CPU占用率提高,但是磁盤寫入平均來看有所降低,最后時間160.58s.
prepare語法
prepare語法可以讓postgresql提前規劃sql,優化性能。
使用單行插入 CPU占用率不到25%,磁盤寫入63MB/S左右,但是,使用單行插入的方式,效率沒有改觀,時間太長還是等不來結果。
使用多行插入 CPU占用率30%,磁盤寫入50MB/S,最后結果163.02,最后的時候出了個異常,就是最后一組數據長度不滿足條件,無傷大雅。
static void Main(string[] args) { var bag = GetData("D:\\user.csv"); List<StringBuilder> listbuilder = new List<StringBuilder>(); StringBuilder sb = new StringBuilder(); for (int i = 0; i < bag.Count; i++) { if (i % 1000 == 0) { sb = new StringBuilder(); listbuilder.Add(sb); //sb.Append("insert into mesh(x,y,z) values"); sb.Append($"{bag[i].x}, {bag[i].y}, {bag[i].z}"); } else sb.Append($",{bag[i].x}, {bag[i].y}, {bag[i].z}"); } StringBuilder sbp = new StringBuilder(); sbp.Append("PREPARE insertplan ("); for (int i = 0; i < 1000; i++) { sbp.Append("int,int,int,"); } sbp.Remove(sbp.Length - 1, 1); sbp.Append(") AS INSERT INTO mesh(x, y, z) values"); for (int i = 0; i < 1000; i++) { sbp.Append($"(${i*3 + 1},${i* 3 + 2},${i*3+ 3}),"); } sbp.Remove(sbp.Length - 1, 1); TimeCalc.LogStartTime(); using (var sm = new SqlManipulation(@"string", SqlType.PostgresQL)) { sm.Init(); sm.ExcuteNonQuery(sbp.ToString()); foreach (var n in listbuilder) { sm.ExcuteNonQuery($"EXECUTE insertplan({n.ToString()})"); } } TimeCalc.ShowTotalDuration(); Console.ReadKey(); }
使用Transaction
在前面的基礎上,使用事務改造。每條語句插入1000條數據,每1000條作為一個事務,CPU 30%,磁盤34MB/S,耗時170.16s。
改成100條一個事務,耗時167.78s。
使用多線程
還在前面的基礎上,使用多線程,每個線程建立一個連接,一個連接處理100條sql語句,每條sql語句插入1000條數據,以此種方式進行導入。注意,連接字符串可以將maxpoolsize設置大一些,我機器上實測,不設置會報連接超時錯誤。
CPU占用率上到80%, 磁盤這里需要注意,由于生成了非常多個Postgresql server進程,不好統計,累積算上應該有小100MB/S,最終時間,98.18s。
使用TPL,由于Parallel.ForEach返回的結果沒有檢查,可能導致時間不是很準確(偏小)。
var lists = new List<List<string>>(); var listt = new List<string>(); for (int i = 0; i < listbuilder.Count; i++) { if (i % 1000 == 0) { listt = new List<string>(); lists.Add(listt); } listt.Add(listbuilder[i].ToString()); } TimeCalc.LogStartTime(); Parallel.ForEach(lists, (x) => { using (var sm = new SqlManipulation(@";string;MaxPoolSize=1000;", SqlType.PostgresQL)) { sm.Init(); foreach (var n in x) { sm.ExcuteNonQuery(n); } } }); TimeCalc.ShowTotalDuration();
寫入方式 | 耗時(1000條/行) | |
---|---|---|
COPY | 107s | |
insert | N/A | |
多行insert | 160.58s | |
prepare多行insert | 163.02s | |
事務多行insert | 170.16s | |
多連接多行insert | 98.18s |
2. 寫入更新
數據實時更新,數量可能繼續增長,使用簡單的insert或者update是不行的,操作使用postgresql 9.5以后支持的新語法。
insert into mesh on conflict (x,y) do update set z = excluded.z
吐槽postgresql這么晚才支持on conflict,mysql早有了...
在表中既有數據2500w+的前提下,重復往數據庫里面寫這些數據。這里只做多行插入更新測試,其他的結果應該差不多。
普通多行插入,耗時272.15s。
多線程插入的情況,耗時362.26s,CPU占用率一度到了100%。猜測多連接的情況下,更新互鎖導致性能下降。
3. 讀取
Select方法
標準讀取還是用select方法,ADO.NET直接讀取。
使用adapter方式,耗時135.39s;使用dbreader方式,耗時71.62s。
Copy方法
postgresql的copy方法提供stdout binary方式,可以指定一條查詢進行輸出,耗時53.20s。 public List<(int x, int y, int z)> BulkIQueryNpg() { List<(int, int, int)> dict = new List<(int, int, int)>(); using (var reader = ((NpgsqlConnection)_conn).BeginBinaryExport("COPY (select x,y,z from mesh) TO STDOUT (FORMAT BINARY)")) { while (reader.StartRow() != -1) { var x = reader.Read<int>(NpgsqlDbType.Integer); var y = reader.Read<int>(NpgsqlDbType.Integer); var z = reader.Read<int>(NpgsqlDbType.Integer); dict.Add((x, y, z)); } } return dict; }
結論
總結測試結果,對于較多數據的情況下,可以得出以下結論:
向空數據表導入或者沒有重復數據表的導入,優先使用COPY語句(為什么有這個前提詳見P.S.);
使用一條語句插入多條數據的方式能夠大幅度改善插入性能,可以實驗確定最優條數;
使用transaction或者prepare插入,在本場景中優化效果不明顯;
使用多連接/多線程操作,速度上有優勢,但是把握不好容易造成資源占用率過高,連接數太大也容易影響其他應用;
寫入更新是postgresql新特性,使用會造成一定的性能消耗(相對直接插入);
讀取數據時,使用COPY語句能夠獲得較好的性能;
ado.net dbreader對象由于不需要fill的過程,讀取速度也較快(雖然趕不上COPY),也可優先考慮。
P.S.
為什么不用mysql
沒有最好的,只有最合適的,講道理我也是挺喜歡用mysql的。使用postgresql的原因主要在于:
postgresql導入導出的sql指令“copy”直接支持Binary模式到stdin和stdout,如果程序想直接集成,那么用這個是比較方便的;相比較,mysql的sql語法(load data infile)并不支持到stdin或者stdout,導出可以通過mysqldump.exe實現,導入暫時沒什么特別好的辦法(mysqlimport或許可以)。
相較于mysql缺點
postgresql使用copy導入的時候,如果目標表已經有數據,那么在有主鍵約束的表遇到錯誤時,COPY自動終止,而且可能導致不完全插入的情況,換言之,是不支持導入的過程進行update操作;mysql的load語法可以顯式指定出錯之后的動作(IGNORE/REPLACE),不會打斷導入過程。
其他
如果需要使用mysql從程序導入數據,可以考慮先通過程序導出到文件,然后借助文件進行導入,據說效率也要比insert高出不少。
關于“asp.net如何實現Postgresql寫入/讀取大量數據”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,使各位可以學到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。