亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python 統計MySQL大于100萬的表

發布時間:2020-08-01 14:31:39 來源:網絡 閱讀:100 作者:John966 欄目:編程語言

一、需求分析

線上的MySQL服務器,最近有很多慢查詢。需要統計出行數大于100萬的表,進行統一優化。

需要篩選出符合條件的表,統計到excel中,格式如下:

庫名 表名 行數
db1 users 1234567

二、統計表的行數

統計表的行數,有2中方法:

1. 通過查詢mysql的information_schema數據庫中INFODB_SYS_TABLESTATS表,它記錄了innodb類 型每個表大致的數據行數
2. select count(1) from 庫名.表名

下面來分析一下這2種方案。

第一種方案,不是精確記錄的。雖然效率快,但是表會有遺漏!

第二鐘方案,才是準確的。雖然慢,但是表不會遺漏。

備注:

count(1)其實這個1,并不是表示第一個字段,而是表示一個固定值。

count(1),其實就是計算一共有多少符合條件的行。
1并不是表示第一個字段,而是表示一個固定值。
其實就可以想成表中有這么一個字段,這個字段就是固定值1,count(1),就是計算一共有多少個1.

寫入json文件
下面這段代碼,是參考我之前寫的一篇文章:

https://www.cnblogs.com/xiao987334176/p/9901692.html

在此基礎上,做了部分修改,完整代碼如下:
#!/usr/bin/env python3
# coding: utf-8
import pymysql
import json
conn = pymysql.connect(
    host="192.168.91.128",  # mysql ip地址
    user="root",
    passwd="root",
    port=3306,  # mysql 端口號,注意:必須是int類型
    connect_timeout = 3  # 超時時間
)
cur = conn.cursor()  # 創建游標
# 獲取mysql中所有數據庫
cur.execute('SHOW DATABASES')
data_all = cur.fetchall()  # 獲取執行的返回結果
# print(data_all)
dic = {}  # 大字典,第一層
for i in data_all:
    if i[0] not in dic:  # 判斷庫名不在dic中時
        # 排序列表,排除mysql自帶的數據庫
        exclude_list = ["sys", "information_schema", "mysql", "performance_schema"]
        if i[0] not in exclude_list:  # 判斷不在列表中時
            # 寫入第二層數據
            dic[i[0]] = {'name': i[0], 'table_list': []}
            conn.select_db(i[0])  # 切換到指定的庫中
            cur.execute('SHOW TABLES')  # 查看庫中所有的表
            ret = cur.fetchall()  # 獲取執行結果
            for j in ret:
                # 查詢表的行數
                cur.execute('select count(1) from `%s`;'% j[0])
                ret = cur.fetchall()
                # print(ret)
                for k in ret:
                    print({'tname': j[0], 'rows': k[0]})
                    dic[i[0]]['table_list'].append({'tname': j[0], 'rows': k[0]})

with open('tj.json','w',encoding='utf-8') as f:
    f.write(json.dumps(dic))
三、寫入excel中
直接讀取tj.json文件,進行寫入,完整代碼如下:
#!/usr/bin/env python3
# coding: utf-8
import xlwt
import json
from collections import OrderedDict
f = xlwt.Workbook()
sheet1 = f.add_sheet('統計', cell_overwrite_ok=True)
row0 = ["庫名", "表名", "行數"]
# 寫第一行
for i in range(0, len(row0)):
    sheet1.write(0, i, row0[i])
# 加載json文件
with open("tj.json", 'r') as load_f:
    load_dict = json.load(load_f)  # 反序列化文件
    order_dic = OrderedDict()  # 有序字典
    for key in sorted(load_dict):  # 先對普通字典key做排序
        order_dic[key] = load_dict[key]  # 再寫入key
    num = 0  # 計數器
    for i in order_dic:
        # 遍歷所有表
        for j in order_dic[i]["table_list"]:
            # 判斷行數大于100萬時
            if j['rows'] > 1000000:
                # 寫入庫名
                sheet1.write(num + 1, 0, i)
                # 寫入表名
                sheet1.write(num + 1, 1, j['tname'])
                # 寫入行數
                sheet1.write(num + 1, 2, j['rows'])
                num += 1  # 自增1
    f.save('test1.xls')

執行程序,打開excel文件,效果如下:
python 統計MySQL大于100萬的表

歡迎大家一起來玩好PY,一起交流。QQ群:198447500

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

古交市| 郑州市| 常宁市| 芒康县| 富民县| 武鸣县| 桑植县| 阿拉善左旗| 海兴县| 晋宁县| 松江区| 乌苏市| 广东省| 洪洞县| 全州县| 齐齐哈尔市| 台北县| 双鸭山市| 鄂温| 酉阳| 卢湾区| 柘城县| 巨鹿县| 温州市| 桑日县| 邛崃市| 五寨县| 河南省| 浦东新区| 扎兰屯市| 丰镇市| 连山| 广东省| 遂昌县| 五家渠市| 佛坪县| 邻水| 东乌珠穆沁旗| 舒兰市| 岑溪市| 唐山市|