您好,登錄后才能下訂單哦!
這篇文章將為大家詳細講解有關利用pandas進行數據清洗的方法是怎樣的,文章內容質量較高,因此小編分享給大家做個參考,希望大家閱讀完這篇文章后對相關知識有一定的了解。
我們有下面的一個數據,利用其做簡單的數據分析。
這是一家服裝店統計的會員數據。最上面的一行是列坐標,最左側一列是行坐標。列坐標中,第 0 列代表的是序號,第 1 列代表的會員的姓名,第 2 列代表年齡,第 3 列代表體重,第 4~6 列代表男性會員的三圍尺寸,第 7~9 列代表女性會員的三圍尺寸。
數據清洗規則總結為以下 4 個關鍵點,統一起來叫“完全合一”,下面來解釋下:
完整性:單條數據是否存在空值,統計的字段是否完善。
全面性:觀察某一列的全部數值,比如在 Excel 表中,我們選中一列,可以看到該列的平均值、最大值、最小值。我們可以通過常識來判斷該列是否有問題,比如:數據定義、單位標識、數值本身。
合法性:數據的類型、內容、大小的合法性。比如數據中存在非 ASCII 字符,性別存在了未知,年齡超過了 150 歲等。
唯一性:數據是否存在重復記錄,因為數據通常來自不同渠道的匯總,重復的情況是常見的。行數據、列數據都需要是唯一的,比如一個人不能重復記錄多次,且一個人的體重也不能在列指標中重復記錄多次。
一般情況下,由于數據量巨大,在采集數據的過程中,會出現有些數據單元沒有被采集到,也就是數據存在缺失。通常面對這種情況,我們可以采用以下三種方法:
刪除:刪除數據缺失的記錄
均值:使用當前列的均值填充
高頻:使用當前列出現頻率最高的數據
比如我們相對data[‘Age']中缺失的數值使用平均年齡進行填充,可以寫:
df['Age'].fillna(df['Age'].mean(), inplace=True)
如果我們用最高頻的數據進行填充,可以先通過 value_counts 獲取 Age 字段最高頻次 age_maxf,然后再對 Age 字段中缺失的數據用 age_maxf 進行填充:
age_maxf = train_features['Age'].value_counts().index[0] train_features['Age'].fillna(age_maxf, inplace=True)
我們發現數據中有一個空行,除了 index 之外,全部的值都是 NaN。Pandas 的 read_csv() 并沒有可選參數來忽略空行,這樣,我們就需要在數據被讀入之后再使用 dropna() 進行處理,刪除空行。
# 刪除全空的行 df.dropna(how='all',inplace=True)
如果某一列數據其單位并不統一,比如weight列,有的單位為千克(Kgs),有的單位是磅(Lbs)。
這里我們使用千克作為統一的度量單位,將磅轉化為千克:
# 獲取 weight 數據列中單位為 lbs 的數據 rows_with_lbs = df['weight'].str.contains('lbs').fillna(False) print df[rows_with_lbs] # 將 lbs轉換為 kgs, 2.2lbs=1kgs for i,lbs_row in df[rows_with_lbs].iterrows(): # 截取從頭開始到倒數第三個字符之前,即去掉lbs。 weight = int(float(lbs_row['weight'][:-3])/2.2) df.at[i,'weight'] = '{}kgs'.format(weight)
假設在數據集中 Firstname 和 Lastname 有一些非 ASCII 的字符。我們可以采用刪除或者替換的方式來解決非 ASCII 問題,這里我們使用刪除方法,也就是用replace方法:
# 刪除非 ASCII 字符 df['first_name'].replace({r'[^\x00-\x7F]+':''}, regex=True, inplace=True) df['last_name'].replace({r'[^\x00-\x7F]+':''}, regex=True, inplace=True)
假設姓名(Name)包含了兩個參數 Firstname和Lastname。為了達到數據整潔的目的,我們將 Name 列拆分成 Firstname 和 Lastname 兩個字段。我們使用 Python 的 split 方法,str.split(expand=True),將列表拆成新的列,再將原來的 Name 列刪除。
# 切分名字,刪除源數據列 df[['first_name','last_name']] = df['name'].str.split(expand=True) df.drop('name', axis=1, inplace=True)
我們校驗一下數據中是否存在重復記錄。如果存在重復記錄,就使用 Pandas 提供的 drop_duplicates() 來刪除重復數據。
# 刪除重復數據行 df.drop_duplicates(['first_name','last_name'],inplace=True)
這樣,我們就將上面案例中中的會員數據進行了清理,來看看清理之后的數據結果。
關于利用pandas進行數據清洗的方法是怎樣的就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。