Pandas 拼接操作 數據處理


數據分析

生成器 迭代器 裝飾器 (兩層傳參) 單例模式() ios七層 io多路

數據分析:是把隱藏在一些看似雜亂無章的數據背后的信息提煉出來,總結出所研究對象的內在規律

pandas的拼接操作

  • pandas的拼接分為兩種:
    • 級聯:pd.concat, pd.append
    • 合並:pd.merge, pd.join

使用pd.concat()級聯

pandas使用pd.concat函數,與np.concatenate函數類似,只是多了一些參數:

  • objs
    axis=0
    join='outer' / 'inner':表示的是級聯的方式,outer會將所有的項進行級聯(忽略匹配和不匹配),而inner只會將匹配的項級聯到一起,不匹配的不級聯
    ignore_index=False
import pandas as pd
from pandas import Series,DataFrame
import numpy as np
  • 1)匹配級聯

# 創建數據料
df1 = DataFrame(data=np.random.randint(0,100,size=(3,3)),index=['a','b','c'],columns=['A','B','C'])
df2 = DataFrame(data=np.random.randint(0,100,size=(3,3)),index=['a','b','d'],columns=['A','B','D'])
# 顯示兩張表
display(df1,df2)
A B C
a 67 93 7
b 84 67 70
c 85 93 7
A B D
a 0 61 32
b 23 44 55
d 99 25 76
# 將兩張表連接在一起
pd.concat([df1,df1],axis=0,join='inner',ignore_index=True)
  • 2) 不匹配級聯

  • 不匹配指的是級聯的維度的索引不一致。例如縱向級聯時列索引不一致,橫向級聯時行索引不一致

    有2種連接方式:

    • 外連接:補NaN(默認模式)
    • 內連接:只連接匹配的項
# 連接兩張不同的表
# 縱向連接 不匹配的 補空
pd.concat([df1,df2],axis=0)
# 縱向連接 內連接  只顯示可以比配到的 數據 
pd.concat([df1,df2],axis=0,join='inner')

  • 3) 使用df.append()函數添加

由於在后面級聯的使用非常普遍,因此有一個函數append專門用於在后面添加

df1.append(df2)

使用pd.merge()合並

  • merge與concat的區別在於,merge需要依據某一共同的列來進行合並

    使用pd.merge()合並時,會自動根據兩者相同column名稱的那一列,作為key來進行合並。

    注意每一列元素的順序不要求一致

    參數:

    • how:out取並集 inner取交集

    • on:當有多列相同的時候,可以使用on來指定使用那一列進行合並,on的值為一個列表

  • 1) 一對一合並

df1 = DataFrame({'employee':['Bob','Jake','Lisa'],
                'group':['Accounting','Engineering','Engineering'],
                })
df2 = DataFrame({'employee':['Lisa','Bob','Jake'],
                'hire_date':[2004,2008,2012],
                })
# 數據合並
pd.merge(df1,df2)
    ```{'employee':['Lisa','Bob','Jake'],
     	'hire_date':[2004,2008,2012],
     	'group':['Accounting','Engineering','Engineering'],
    } ```
  • 2) 多對一合並

df3 = DataFrame({
    'employee':['Lisa','Jake'],
    'group':['Accounting','Engineering'],
    'hire_date':[2004,2016]})
df4 = DataFrame({'group':['Accounting','Engineering','Engineering'],
                       'supervisor':['Carly','Guido','Steve']
                })
# 合並
pd.merge(df3,df4)
    {
        'employee':['Lisa','Jake','Jake'],
        'group':['Accounting','Engineering','Engineering'],
        'hire_date':[2004,2016,2016],
        'supervisor':['Carly','Guido','Steve']
    }

  • 3) 多對多合並

df1 = DataFrame({'employee':['Bob','Jake','Lisa'],
                 'group':['Accounting','Engineering','Engineering']})

df5 = DataFrame({'group':['Engineering','Engineering','HR'],
                'supervisor':['Carly','Guido','Steve']
                })

pd.merge(df1,df5,how='right')  # how='right'/'lest'  以右 或 左 表的 內容為為准

  • 加載excl數據:pd.read_excel('excl_path',sheetname=1)

pd.read_excel('data.xlsx',sheet_name=1)  # sheet_name=1 指定讀取哪張表
  • 4) key的規范化

  • 當列沖突時,即有多個列名稱相同時,需要使用on=來指定哪一個列作為key,配合suffixes指定沖突列名

df1 = DataFrame({'employee':['Jack',"Summer","Steve"],
                 'group':['Accounting','Finance','Marketing']})

df2 = DataFrame({'employee':['Jack','Bob',"Jake"],
                 'hire_date':[2003,2009,2012],
                'group':['Accounting','sell','ceo']})
# 指定那個字段來進行連接
pd.merge(df1,df2,on='group')

  • 當兩張表沒有可進行連接的列時,可使用left_on和right_on手動指定merge中左右兩邊的哪一列列作為連接的列
df1 = DataFrame({'employee':['Bobs','Linda','Bill'],
                'group':['Accounting','Product','Marketing'],
               'hire_date':[1998,2017,2018]})
df5 = DataFrame({'name':['Lisa','Bobs','Bill'],
                'hire_dates':[1998,2016,2007]})
pd.merge(df1,df5,left_on='employee',right_on='name')

  1. 自行練習多對一,多對多的情況
  2. 自學left_index,right_index
  • 5) 內合並與外合並:out取並集 inner取交集

    • 內合並:只保留兩者都有的key(默認模式)
df6 = DataFrame({'name':['Peter','Paul','Mary'],
               'food':['fish','beans','bread']}
               )
df7 = DataFrame({'name':['Mary','Joseph'],
                'drink':['wine','beer']})

  • ​ 外合並 how='outer':補NaN
df6 = DataFrame({'name':['Peter','Paul','Mary'],
               'food':['fish','beans','bread']}
               )
df7 = DataFrame({'name':['Mary','Joseph'],
                'drink':['wine','beer']})

pandas 數據處理-5

1. 刪除重復元素

  • 使用duplicated()函數檢測重復的行,返回元素為布爾類型的Series對象,每個元素對應一行,如果該行不是第一次出現,則元素為True

    • keep參數:指定保留哪一重復的行數據
  • 使用duplicated()

    import numpy as np
    import pandas as pd
    from pandas import DataFrame
    
    #創建一個df
    df = DataFrame(data=np.random.randint(0,100,size=(10,6)))
    df.iloc[1] = [6,6,6,6,6,6]
    df.iloc[3] = [6,6,6,6,6,6]
    df.iloc[4] = [6,6,6,6,6,6]
    
    
    # 使用duplicated查看所有重復元素行
    # 查找重復的行 first,last 保留第一個 或最后一個
    df.duplicated(keep='first')
    
    # 使用 drop() 刪除
    d_index = df.loc[df.duplicated(keep='first')].index
    df.drop(labels=d_index,axis=0)
    
  • 使用 drop_duplicates(keep='last')

    # 使用drop_duplicates()函數刪除重復的行
    df.drop_duplicates(keep='last')
    

2.映射

1) replace()函數:替換元素

  • 使用replace()函數,對values進行映射操作

    Series替換操作

    • 單值替換
      • 普通替換
      • 字典替換(推薦)
    • 多值替換
      • 列表替換
      • 字典替換(推薦)
    • 參數
      • to_replace:被替換的元素

    replace參數說明:

    • method:對指定的值使用相鄰的值填充替換

    • limit:設定填充次數

    DataFrame替換操作

    • 單值替換
      • 普通替換: 替換所有符合要求的元素:to_replace=15,value='e'
      • 按列指定單值替換: to_replace={列標簽:替換值} value='value'
    • 多值替換
      • 列表替換: to_replace=[] value=[]
      • 字典替換(推薦) to_replace={to_replace:value,to_replace:value}
    # 將數據中 所有的 6 替換為 333
    df.replace(to_replace=6,value=333)
    
    # 將數據中的  6, 9  替換為 333
    df.replace(to_replace=[6,9],value=333)
    
    # 將數據中的  0 替換為 zero
    df.replace(to_replace={0:'zero'})
    
    # 指定列 替換  第 9 列的 3 替換為 666
    df.replace(to_replace={9:3},value=666)
    

    注意:DataFrame中,無法使用method和limit參數

2) map()函數:映射

​ 新建一列 , map函數並不是df的方法,而是series的方法

  • map() 可以映射新一列數據

  • map() 中可以使用lambd表達式

  • map() 中可以使用方法,可以是自定義的方法

    eg:map({to_replace:value})

  • 注意 map()中不能使用sum之類的函數,for循環

  • 新增一列:給df中,添加一列,該列的值為英文名對應的中文名

    # 數據
    dic = {
        'name':['Jay','Tom','Jay'],
        'salary':[7777,6666,7777]
    }
    df = DataFrame(data=dic)
    
    #指定一個映射關系表
    dic = {
        'Jay':'張三',
        'Tom':'李四'
    }
    df['c_name'] = df['name'].map(dic)
    
    map當做一種運算工具,至於執行何種運算,是由map函數的參數決定的(參數:lambda,函數)
    • 使用自定義函數
    #超過3000部分的錢繳納50%的稅
    def after_sal(s):
        if s <= 3000:
            return s
        else:
            return s - (s-3000)*0.5
        
    df['after_sal'] = df['salary'].map(after_sal)
    

    注意:並不是任何形式的函數都可以作為map的參數。只有當一個函數具有一個參數且有返回值,那么該函數才可以作為map的參數

3.使用聚合操作

  • 使用聚合操作 對數據異常值檢測和過濾

    使用df.std()函數可以求得DataFrame對象每一列的標准差

    • 創建一個1000行3列的df 范圍(0-1),求其每一列的標准差
    df = DataFrame(np.random.random(size=(1000,3)),columns=['A','B','C'])
    df
    
    # 對df應用篩選條件,去除標准差太大的數據:假設過濾條件為 C列數據大於兩倍的C列標准差
    # 獲取  C  列數據標准差
    c_st = df['C'].std() 
    # 獲取所有 大於 C 列數據 兩倍的標准差的 數據
    indexs = df.loc[df['C'] > c_st * 2].index
    # 刪除操作
    df.drop(labels=indexs,axis=0)
    

4. 排序

  • 使用.take()函數排序

    • take()函數接受一個索引列表,用數字表示,使得df根據列表中索引的順序進行排序
    • eg:df.take([1,3,4,2,5])

    np.random.permutation(x)可以生成x個從0-(x-1)的隨機數列

    # 普通 排列  指定 隱式索引  對 A B C 排列
    df.take([2,0,1],axis=1)
    
    • 隨機抽樣

      當DataFrame規模足夠大時,直接使用np.random.permutation(x)函數,就配合take()函數實現隨機抽樣

    df_ = df.take(np.random.permutation(1000),axis=0).take(np.random.permutation(3),axis=1)
    df_[0:100]
    

5. 數據分類處理【重點】

  • 數據聚合是數據處理的最后一步,通常是要使每一個數組生成一個單一的數值。

    數據分類處理:

    • 分組:先把數據分為幾組
    • 用函數處理:為不同組的數據應用不同的函數以轉換數據
    • 合並:把不同組得到的結果合並起來
    數據分類處理的核心:
    • groupby()函數
    • groups屬性查看分組情況
    • eg: df.groupby(by='item').groups

1) 分組 groupby()

  • 使用groupby實現分組
# 數據
from pandas import DataFrame,Series
df = DataFrame({'item':['Apple','Banana','Orange','Banana','Orange','Apple'],
                'price':[4,3,3,2.5,4,2],
               'color':['red','yellow','yellow','green','green','green'],
               'weight':[12,20,50,30,20,44]})

# 分組
df.groupby(by='item',axis=0)

  • 使用groups查看分組情況
#該函數可以進行數據的分組,但是不顯示分組情況
df.groupby(by='item',axis=0).groups
  • 分組后的聚合操作:分組后的成員中可以被進行運算的值會進行運算,不能被運算的值不進行運算

  • 平均值 mean()

#給df創建一個新列,內容為各個水果的平均價格
# df.groupby(by='item').mean()
# df.groupby(by='item').mean()['price']
mean_price_s = df.groupby(by='item')['price'].mean()

dic = mean_price_s.to_dict()
# 使用映射添加到原表中
df['mean_price'] = df['item'].map(dic)

# 計算出蘋果的平均價格
df.groupby(by='item')['price'].mean()['Apple']

6. 高級數據聚合

  • 使用groupby分組后,也可以使用transform和apply提供自定義函數實現更多的運算

    • df.groupby('item')['price'].sum() <==> df.groupby('item')['price'].apply(sum)
    • transform和apply都會進行運算,在transform或者apply中傳入函數即可
    • transform和apply也可以傳入一個lambda表達式
def fun(s):
    sum = 0
    for i in s:
        sum+=i
    return sum/s.size

#使用apply函數求出水果的平均價格
# 不顯示重復行
df.groupby(by='item')['price'].apply(fun)

#使用transform函數求出水果的平均價格
# 顯示出每行的 平均值
df.groupby(by='item')['price'].transform(fun)


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM