您好,登錄后才能下訂單哦!
老東家監測Redis的慢查詢日志,采用Crontab 每隔一段時間對慢查詢日志采樣,然后追加寫入一個文本文件。
所以文本文件中有很多重復的慢查詢日志
如何對整段重復的慢查詢日志去重呢?
采用Shell 命令的方式最簡單和直接。
awk '/^1\)/{print s;s=""};{ s=(s" "$0)}; END{print s } ' b.txt | sort | uniq | sed 's/ /\n /g' | awk '/^ 1\) \(integer\)/{rc =rc+1;rowdata=rc") \t" $1" "$2" "$3"\n\t"$4" "$5" "$6" "$7"\n\t"$8" "$9" "$10;print rowdata};/^ /{print "\t"$0} END{print "不重復日志總數:" rc}'
核心就是把整段的redis日志先合并為一行,去重之后,在還原格式。
下面是用于測試的附件
redisSlowLog.txt
附王工對這個問題的需求描述和說明。
https://blog.csdn.net/wzy0623/article/details/83652539?tdsourcetag=s_pcqq_aiomsg
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。