您好,登錄后才能下訂單哦!
Spring Boot假死診斷的實例分析,針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。
這兩天遇到一個服務假死的問題,具體現象就是服務不再接收任何請求,客戶端會拋出Broken Pipe。
執行top,發現CPU和內存占用都不高,但是通過命令
netstat -n | awk '/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}'
發現有大量的CLOSE_WAIT端口占用,繼續調用該服務的api,等待超時之后發現CLOSE_WAIT的數量也沒有上升,也就是說服務幾乎完全僵死。
懷疑可能是線程有死鎖,決定先dump一下線程情況,執行
jstack <pid> > /tmp/thread.hump
發現tomcat線程基本也正常,都是parking狀態。
這就比較奇怪了,繼續想是不是GC導致了STW,使用jstat
查看垃圾回收情況
app@server:/tmp$ jstat -gcutil 1 2000 10 S0 S1 E O M CCS YGC YGCT FGC FGCT GCT 0.00 27.79 65.01 15.30 94.75 92.23 1338 44.375 1881 475.064 519.439
一看嚇一跳,FGC的次數居然超過了YGC,時長有475s。一定是有什么原因觸發了FGC,好在我們打開了GC log。
發現一段時間內頻繁發生Allocation Failure引起的Full GC。而且eden區的使用占比也很大,考慮有頻繁新建對象逃逸到老年代造成問題。詢問了一下業務的開發,確認有一個外部對接API沒有分頁,查詢后可能會產生大量對象。
由于外部API暫時無法聯系對方修改,所以為了先解決問題,對原有的MaxNewSize進擴容,從192MB擴容到一倍。經過幾天的觀察,發現gc基本趨于正常
S0 S1 E O M CCS YGC YGCT FGC FGCT GCT 0.00 3.37 60.55 8.60 95.08 92.98 87 2.421 0 0.000 2.421
擴容之前對heap進行了dump
jmap -dump:format=b,file=heapDump <PID>
通過MAT分析內存泄露,居然疑似是jdbc中的一個類,但其實整體占用堆容量并不多。
分析了線程數量,大約是240多條,與正常時也并沒有很大的出入。而且大量的是在sleep的定時線程。
本次排查其實并未找到真正的原因,間接表象是FGC頻繁導致服務假死。而且acturator端口是正常工作的,導致health check進程誤認為服務正常,沒有觸發告警。如果你也遇到類似的情況歡迎一起討論。
關于Spring Boot假死診斷的實例分析問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。