我需要计数每个域中的唯一ID值。
我有数据:
ID, domain
123, 'vk.com'
123, 'vk.com'
123, 'twitter.com'
456, 'vk.com'
456, 'facebook.com'
456, 'vk.com'
456, 'google.com'
789, 'twitter.com'
789, 'vk.com'
我试试df。groupby([‘域’,‘身份证’]).count ()
但是我想要
domain, count
vk.com 3
twitter.com 2
facebook.com 1
google.com 1
一般来说,要在一列中计算不同的值,你可以使用Series.value_counts:
df.domain.value_counts()
#'vk.com' 5
#'twitter.com' 2
#'facebook.com' 1
#'google.com' 1
#Name: domain, dtype: int64
要查看一列中有多少唯一值,请使用Series.nunique:
df.domain.nunique()
# 4
要获得所有这些不同的值,可以使用unique或drop_duplicate,这两个函数之间的细微区别是unique返回numpy。数组而drop_duplicate返回一个pandas。系列:
df.domain.unique()
# array(["'vk.com'", "'twitter.com'", "'facebook.com'", "'google.com'"], dtype=object)
df.domain.drop_duplicates()
#0 'vk.com'
#2 'twitter.com'
#4 'facebook.com'
#6 'google.com'
#Name: domain, dtype: object
对于这个特定的问题,由于你想要计算相对于另一个变量的不同值,除了这里其他答案提供的groupby方法外,你也可以简单地先删除重复项,然后执行value_counts():
import pandas as pd
df.drop_duplicates().domain.value_counts()
# 'vk.com' 3
# 'twitter.com' 2
# 'facebook.com' 1
# 'google.com' 1
# Name: domain, dtype: int64
你需要nunique:
df = df.groupby('domain')['ID'].nunique()
print (df)
domain
'facebook.com' 1
'google.com' 1
'twitter.com' 2
'vk.com' 3
Name: ID, dtype: int64
如果你需要剥离'字符:
df = df.ID.groupby([df.domain.str.strip("'")]).nunique()
print (df)
domain
facebook.com 1
google.com 1
twitter.com 2
vk.com 3
Name: ID, dtype: int64
或者就像Jon Clements评论的那样:
df.groupby(df.domain.str.strip("'"))['ID'].nunique()
你可以像这样保留列名:
df = df.groupby(by='domain', as_index=False).agg({'ID': pd.Series.nunique})
print(df)
domain ID
0 fb 1
1 ggl 1
2 twitter 2
3 vk 3
区别在于nunique()返回一个Series, agg()返回一个DataFrame。
如果我理解正确的话,您需要每个域的不同id的数量。那么你可以试试这个:
output = df.drop_duplicates()
output.groupby('domain').size()
输出:
domain
facebook.com 1
google.com 1
twitter.com 2
vk.com 3
dtype: int64
您还可以使用value_counts,它的效率稍低。但最好的是Jezrael使用nunique的回答:
%timeit df.drop_duplicates().groupby('domain').size()
1000 loops, best of 3: 939 µs per loop
%timeit df.drop_duplicates().domain.value_counts()
1000 loops, best of 3: 1.1 ms per loop
%timeit df.groupby('domain')['ID'].nunique()
1000 loops, best of 3: 440 µs per loop