groupby 到 return 第 n 组 - 不是行

groupby to return nth group - NOT row

我正在尝试在较长的 (>2M) 行中按两个因素进行分组。

数据背景

第二个因素实际上是测试日期 - 对于给定的样本(第一组),可以重新测试样本。 然而,测试可以改变样本,因此能够select从第二次测试(或第三次、第四次等)中主动提取一批测试数据是很有用的

之前的问题和当前代码

前段时间问了一个问题,得到了一个函数,非常感谢Praveen 但这非常慢:运行 在 1.2M 行数据集上,到目前为止,它在具有 96gb ram 的 JupyterHub 服务器上花费了 20 多分钟,并且仍在继续。

df1 = df.sort_values(['id', 'date'], ascending=[True, False])
df1['date_rank'] = df1.groupby(['id'])['date'].transform(lambda x: list(map(lambda y: dict(map(reversed, dict(enumerate(x.unique())).items()))[y]+1,x)) )

目前的想法

不是用数字标记测试日期,这是我的第一个想法,感觉这与 cumcount、groupby.nth 或 getgroup 接近可以实现 - 但我无法实现。有人有什么想法吗? 下面的数据集仍然相关:

df = pd.DataFrame({
'id':[1, 1, 1, 2, 2, 3, 3, 3, 4, 4, 5, 5, 6,6,6,7,7], 
'value':[.01, .4, .5, .7, .77, .1,.2, 0.3, .11, .21, .4, .01, 3, .5, .8, .9, .1],
'date':['10/01/2017 15:45:00','10/01/2017 15:45:00','05/01/2017 15:56:00',
    '11/01/2017 15:22:00','11/01/2017 15:22:00','06/01/2017 11:02:00','05/01/2017 09:37:00','05/01/2017 09:37:00','05/01/2017 09:55:00',
    '05/01/2017 09:55:00','05/01/2017 10:08:00','05/01/2017 10:09:00','03/02/2017 08:55:00',
    '03/02/2017 09:15:00','03/02/2017 09:31:00','09/01/2017 15:42:00',
    '19/01/2017 16:34:00']})

我正在尝试生成 date_rank 列中的数据;虽然我很高兴不生成列,但我只想能够 select 包含第二个测试日期数据的行。

例如:

df.groupby(['id','date'])['value'].unique()

Returns:

id  date               
1   05/01/2017 15:56:00           [0.5]
    10/01/2017 15:45:00     [0.01, 0.4]
2   11/01/2017 15:22:00     [0.7, 0.77]
3   05/01/2017 09:37:00      [0.2, 0.3]
    06/01/2017 11:02:00           [0.1]
4   05/01/2017 09:55:00    [0.11, 0.21]
5   05/01/2017 10:08:00           [0.4]
    05/01/2017 10:09:00          [0.01]
6   03/02/2017 08:55:00           [3.0]
    03/02/2017 09:15:00           [0.5]
    03/02/2017 09:31:00           [0.8]
7   09/01/2017 15:42:00           [0.9]
    19/01/2017 16:34:00           [0.1]

我希望能够select(例如)一组中的第二组如果可用例如:

1 - 10/01/2017 15:45:00 [0.01, 0.04]
3 - 06/01/2017 11:02:00 [0.1]
5 - 05/01/2017 10:09:00 [0.01]
6 - 03/02/2017 09:15:00 [0.5]

非常感谢任何帮助或想法。

你可以reset_index,然后使用GroupBy + nth:

res = df.reset_index().groupby('id').nth(1)

print(res)

                   date        value
id                                  
1   10/01/2017 15:45:00  [0.01, 0.4]
3   06/01/2017 11:02:00        [0.1]
5   05/01/2017 10:09:00       [0.01]
6   03/02/2017 09:15:00        [0.5]
7   19/01/2017 16:34:00        [0.1]