將dataframe
利用pandas
列合並為一行,類似於sql
的GROUP_CONCAT
函數。例如如下dataframe
id_part pred pred_class v_id
0 d 0 0.122817 woman d1
1 b 0.015449 other_label d2
2 5 0.019208 cat d3
3 d 0.050064 dog d1
想要變成如下形式:
v_id pred_class pred id_part
0 d1 woman, dog [0 0.122817 , 0.050064] d
1 d2 other_label [0.015449] b
2 d3 cat [0.019208] 5
利用 groupby
去實現就好,spark
里面可以用 concat_ws
實現,可以看這個 Spark中SQL列合並為一行,而這里沒有 concat_ws
只能用另外一種方式實現:
df2 = other_label.groupby(['v_id']).agg({'pred_class': [', '.join],
'pred': lambda x: list(x),
'id_part': 'first'}).reset_index()
得到結果為:
v_id pred_class pred id_part
0 d1 woman, dog [0 0.122817 , 0.050064] d
1 d2 other_label [0.015449] b
2 d3 cat [0.019208] 5
而還有另外一種方式,但是可能會輸出少了那么幾列:
df1 = data.groupby(['v_id', 'id_part'])['pred_class'].apply(lambda x: list(x)).reset_index()
v_id id_part pred_class
0 d1 d [woman, dog]
1 d2 b [other_label]
2 d3 5 [cat]