当我们需要找到那些data中重复的数据时,可以这么做:
1、采用drop_duplicates方法来数据去重,保留第一个
a = public.drop_duplicates( subset = [ ‘wind_product_code‘ ], keep = ‘first‘ )
2、去掉data中重复的数据
b = public.drop_duplicates( subset = [ ‘wind_product_code‘ ], keep = False )
3、差集思想,用 a - b,其中b是a的真子集,两者之差就是重复的数据
c = a.append( b ).drop_duplicates( subset = [ ‘wind_product_code‘ ], keep = False )
4、获得原始数据中的重复项
data_cf = public.loc[ public[ ‘wind_product_code‘ ].isin( c[ ‘wind_product_code‘ ] ) ]
原文:https://www.cnblogs.com/xiaodongsuibi/p/11634196.html