我有一个熊猫数据框架在以下格式:

df = pd.DataFrame([
    [1.1, 1.1, 1.1, 2.6, 2.5, 3.4,2.6,2.6,3.4,3.4,2.6,1.1,1.1,3.3], 
    list('AAABBBBABCBDDD'), 
    [1.1, 1.7, 2.5, 2.6, 3.3, 3.8,4.0,4.2,4.3,4.5,4.6,4.7,4.7,4.8], 
    ['x/y/z','x/y','x/y/z/n','x/u','x','x/u/v','x/y/z','x','x/u/v/b','-','x/y','x/y/z','x','x/u/v/w'],
    ['1','3','3','2','4','2','5','3','6','3','5','1','1','1']
]).T
df.columns = ['col1','col2','col3','col4','col5']

df:

   col1 col2 col3     col4 col5
0   1.1    A  1.1    x/y/z    1
1   1.1    A  1.7      x/y    3
2   1.1    A  2.5  x/y/z/n    3
3   2.6    B  2.6      x/u    2
4   2.5    B  3.3        x    4
5   3.4    B  3.8    x/u/v    2
6   2.6    B    4    x/y/z    5
7   2.6    A  4.2        x    3
8   3.4    B  4.3  x/u/v/b    6
9   3.4    C  4.5        -    3
10  2.6    B  4.6      x/y    5
11  1.1    D  4.7    x/y/z    1
12  1.1    D  4.7        x    1
13  3.3    D  4.8  x/u/v/w    1

我想要得到每一行的计数,如下所示。预期的输出:

col5 col2 count
1    A      1
     D      3
2    B      2
etc...

如何得到我期望的输出?我想为每个“col2”值找到最大的计数?


当前回答

如果你想构造一个DataFrame作为最终结果(不是pandas Series),使用as_index=参数:

df.groupby(['col5', 'col2'], as_index=False).size()


为了得到最终想要的输出,也可以使用pivot_table(而不是double groupby):

df.pivot_table(index='col5', columns='col2', aggfunc='size').max()


如果你不想计算NaN值,你可以使用groupby.count:

df.groupby(['col5', 'col2']).count()

注意,由于每个列可能有不同数量的非nan值,除非您指定了列,否则可以使用简单的groupby。Count调用可以为每个列返回不同的计数,如上面的示例所示。以['col5', 'col2']为例,col1中非nan值的数量如下:

df.groupby(['col5', 'col2'])['col1'].count()

其他回答

如果你想在数据帧中添加一个包含组计数的新列(例如'count_column'):

df.count_column=df.groupby(['col5','col2']).col5.transform('count')

(我选择“col5”,因为它不包含nan)

只使用单个组的惯用解决方案

(df.groupby(['col5', 'col2']).size() 
   .sort_values(ascending=False) 
   .reset_index(name='count') 
   .drop_duplicates(subset='col2'))

  col5 col2  count
0    3    A      3
1    1    D      3
2    5    B      2
6    3    C      1

解释

groupby size方法的结果是一个索引中包含col5和col2的Series。从这里开始,您可以使用另一个groupby方法来查找col2中每个值的最大值,但这是不必要的。您可以简单地对所有值进行递减排序,然后使用drop_duplicate方法只保留col2第一次出现的行。

在pandas数据框架中插入数据并提供列名。

import pandas as pd
df = pd.DataFrame([['A','C','A','B','C','A','B','B','A','A'], ['ONE','TWO','ONE','ONE','ONE','TWO','ONE','TWO','ONE','THREE']]).T
df.columns = [['Alphabet','Words']]
print(df)   #printing dataframe.

这是我们的打印数据:

为了在pandas和counter中制作一组数据框架, 你需要再提供一个列来计数分组,让我们把这个列称为dataframe中的“COUNTER”。

是这样的:

df['COUNTER'] =1       #initially, set that counter to 1.
group_data = df.groupby(['Alphabet','Words'])['COUNTER'].sum() #sum function
print(group_data)

输出:

如果你想构造一个DataFrame作为最终结果(不是pandas Series),使用as_index=参数:

df.groupby(['col5', 'col2'], as_index=False).size()


为了得到最终想要的输出,也可以使用pivot_table(而不是double groupby):

df.pivot_table(index='col5', columns='col2', aggfunc='size').max()


如果你不想计算NaN值,你可以使用groupby.count:

df.groupby(['col5', 'col2']).count()

注意,由于每个列可能有不同数量的非nan值,除非您指定了列,否则可以使用简单的groupby。Count调用可以为每个列返回不同的计数,如上面的示例所示。以['col5', 'col2']为例,col1中非nan值的数量如下:

df.groupby(['col5', 'col2'])['col1'].count()

从熊猫1.1.0开始。,你可以在一个DataFrame上value_counts:

out = df[['col5','col2']].value_counts().sort_index()

输出:

col5  col2
1     A       1
      D       3
2     B       2
3     A       3
      C       1
4     B       1
5     B       2
6     B       1
dtype: int64