您好,登錄后才能下訂單哦!
這篇文章主要介紹“數據庫大數據量刪除的分析”,在日常操作中,相信很多人在數據庫大數據量刪除的分析問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”數據庫大數據量刪除的分析”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!
概 述
在您能夠找到大量刪除的方案和流程之前,您必須處理好一些戰略性(長期)和策略性(短期)問題。
在戰略層面您會有這樣的問題:您為什么要刪除?您希望從中得到什么?如果您達到了初始的目標,接下來的策略(如果有)是什么?您有什么樣的證據能夠證明它值得你付出努力(人和機器)?您有沒有仔細想過即使修復了舊的問題也可能帶來新的問題?
在策略層面您可能會問決定采用的工作流程的一些細節問題:有哪些資源?您是否允許長時間中斷服務或者短時間的中斷服務?在或者根本不允許中斷任何服務?如果應用層序必須在刪除任務執行階段運行,那么,它是否可以減少部分功能或者降低一下執行性能?您對您的系統是否足夠了解呢?您是否查看過Oracle最近有哪些特性或者增強可用幫助您安全(和快速的)完成工作?
讓我們看幾個我最近參與的幾次在線交談的一些想法:
設想 A
在OTN論壇中最近有一個貼子描述了“大量刪除”的一個極端例子,用戶有一個4tb的普通堆表,其中保留了3年數據,現在想將數據減少到每天分區并保留15天歷史數據。可能促使人們大量刪除數據是為了清理大量的歷史數據,當然,最好的策略是以這樣的目標設計系統,將刪除數據變成簡單的“刪除分區”,這樣可以做到幾乎沒有開銷。
在這個特殊的例子中,用戶(在我看來)是非常幸運的,因為他們想清除大部分數據并且只保留一小部分數據。他們需要花費一些時間去計劃和測試所有相關細節(參照完整性和索引等),但是所有的這些都需要創建一個合適的范圍分區表,將此表作為交換后的表,然后每天開始進行分區,之后等待16天,在刪除最后的分區以清除最近三年的數據。
另外一些人可能沒有那么幸運,我常常看到類似一張表中有幾年的數據,而且需要按照周或者月進行分區,然后保留兩年或者三年的數據,“交換一次等待三年”的方式并不可取,但是刪除幾年或者復制幾年數據帶來的開銷同樣是不可取的。
設想 B
不久之前我收到的一個問題是某人來詢問關于大量數據刪除的策略,因為根據他們之前經驗,快速刪除大量數據前先刪除全部索引,并在之后重建索引,最近他們測試一個案例,盡管這種方法和“僅僅刪除它”的時間差異非常小,但似乎采用稍微復雜(刪除索引在重建/因此有風險)的方式并沒有很大好處。
這就提出了一個有趣的問題:多大的數據量刪除才算是“大量數據”?這個人刪除了2500w行數據,這聽起來相當大,但是它僅僅是表中的4%,所以它并不是那么的龐大(相對而言);此外表已經被分區,這就降低了幾分風險,另外一方面,它至少包含一個全局唯一索引,這就有點讓他討厭了,然而這臺服務器可以將該任務并行加到16,因此在絕對值上來說,每個并行任務約為150w行數據,所以可能它并不是真的很大。
事實上,無論采用什么方法,完成任務的時間大約為17分30秒,但值得注意的是,如果我們用簡單的刪除策略,在任務期間其他用戶仍然可以使用該表,由于并發使用該表,刪除操作可能需要更長時間,由于爭用和讀一致性,要求用戶活動可能會更慢(注:按照特定的順序一次刪除一個分區有什么好處么?),并且始終存在鎖和死鎖威脅而導致的災難,刪除這4%的數據大概要多久一次,可能它的數據量大致相當于兩年內中的一個月的數據,所以可能每個月定期清理一次,但可能不會有人介意因為"drop/delete/rebuild"失去訪問權限15分鐘,這些操作總是有一些好處的,大多數的索引在刪除數據之后可以更加高效的運行。
注意事項
當"大數據量刪除"浮現在你的腦海中時,我希望這兩個例子可以讓你知道需要考慮些什么?因此,在我們開始"怎樣"之前,先讓我們來對可能出現的情況和與之相關的想法進行分類。
我想我過去遇到過三種基本刪除模式和兩種刪除原因。
刪除原因非常簡單:
1.提升性能。
2.回收空間 - 希望可能是數據庫或者特定表空間的空間;它最終可能是數據庫之外的磁盤空間。
常見刪除模式有:
1.根據時間來對表中的數據進行刪除。
2.根據表中數據處理完成時間來進行刪除。
3.從表中刪除一類數據(這可能意味著我們要創建兩張表,或者分區表(列表分區),或許非分區表)。
一旦我們找出原因,我們就會提出一些關鍵問題--如何刪除數據才能提高性能?我們如何通過其他的方式來提高效率(例如改進索引)?通過刪除數據釋放的空間是否可以立即使用,或者還必須做些其他操作?刪除的帶來的負面影響是什么?我們可能采取的進一步措施帶來的負面影響又是什么?我們是否有真實的平臺?我們可以對預測的停機時間進行驗證,執行相應的任務,測試不可以預測的負面影響有哪些?
理解模式非常重要,但在使用數據庫時卻經常被忽略。當你刪除數據時,在表塊中和索引塊中釋放出相應的空間,當新數據出現時可能會重新使用該空間。但由于這種方式表中釋放的空閑空間意味著新數據的物理分布與當前其他數據所遵循的分布模式不同,這意味著隨著時間的推移,因為模式的不同查詢(a)可能變得非常低效,優化器(b)可能認定某個索引不在是最好的選擇,因為數據分布模式的改變導致索引的"clustering_factor"出現了變化。
我提出的三種主要的刪除模式,是基于他們對性能的威脅程度。如果假設你是第一次進行大數據刪除,那么最容易考慮這些模式。有些時候,只有你進行了幾次刪除周期后威脅才會出現。如果按照數據的原始到達日期刪除,很可能會在表段的開頭(前幾個區)留下很多的空閑塊,這就意味著新插入的數據可能會插入到表段開頭的一組區中,而不是表段的末尾。具體來說,假設有一個包含100000個塊的表,你剛剛刪除該表中前5000個塊中的數據,接下來插入的幾十萬行數據將插入到1-5000的塊中,而不是100001-105000;盡管表中的絕對位置已改變,但數據的模式不會改變。
如果是根據"處理完成"日期進行刪除,那么初始刪除模式可能有所不同 - 也許前1000個數據塊實際上是空的,接下來1000個塊的使用量下降到20%,在接下來2000個塊使用量下降到40%,在接下來4000個塊使用量下降到70%。隨著時間的推移,新的數據將分布在比以往更多的數據塊中(也許你刪除的塊中有一些不允許被重用直到你進行下一次大量的刪除操作)。如果不參考實際應用,很難想象當大量刪除發生時,為什么任何人的數據可能顯示這種"衰減"模式 - 但你可能會想到一個應用獲得了1、2、3或者5年的借貸協議。
在最后一種模式中 - 刪除整個數據類別,"借貸"可能是很好的一個例子。出于某些原因我們可能決定為5年貸款創建一張單獨的表,因為貸款已經成為業務的重要部分 - 所以我們必須從當前的貸款表中刪除他們。當然,這種就是剛剛刪除表中每個塊10%-30%數據的模式。我們可能發現這些塊均沒有出現在空閑空間中,或者我們發現在接下來的九個月里,我們在表的每個塊中插入了少數幾行數據,而人們會抱怨“2016年的性能非常的差”。
索 引
當然,我們在研究數據模式時還應該考慮索引中的模式(和副作用)。因為我們從少數相鄰塊中刪除所有行,那即使其中的一個場景也意味著我們可以高效的從表中刪除數據,我們還需要考慮表中每個索引都會發生什么事情。非常緊湊的表刪除可能導致非常分散的索引刪除,因為隨機I/O - 讀(通過會話)和寫(數據庫寫入),可能需要很長的時間,可能不會給我們任何后續空間和性能好處。
考慮從"股票價格"表中刪除2001年4月1日的數據:所有的行都將一起到達,所以我們可以清空表中連續的幾百個塊 - 如果我們有一個索引(報價_日期,股票_代碼),我們將清空索引中的幾百個連續的塊,如果這是我們驅動刪除的索引,則不會產生過多的I/O;如果我們有一個索引(股票_代碼,報價_日期) - 我們很可能會不得不訪問幾千個索引葉塊來刪除每個索引條目!因為要執行大量的隨機I/O,刪除可能非常緩慢。OTN中關于插入和刪除最常見的抱怨之一就是"db file sequential read"等待;執行計劃中不會告訴我們關于索引維護的開銷,所以很容易忘記一個大的刪除操作會導致非常緩慢的隨機I/O。(有趣的是SQL Server會告訴你刪除操作會維護哪些索引)。
索引維護對于大的刪除操作影響如此之大 - 而且會產生持久的后果 - 這一點確實值得我們思考。實際上,我們可以設計一種策略,根據每個索引的定義和實際使用情況,對單個表上的索引進行不同的處理。對于給定的表,我們可以刪除(或者標記不可以)和重建一些索引,與此同時保留一部分索引,在刪除后進行重建索引或者合并索引。
到此,關于“數據庫大數據量刪除的分析”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。