考虑下面的代码:

avgDists = np.array([1, 8, 6, 9, 4])
ids = avgDists.argsort()[:n]

这给出了n个最小元素的下标。是否可以使用相同的argsort按降序得到n个最高元素的下标?


当前回答

您可以创建数组的副本,然后将每个元素与-1相乘。 结果,前面最大的元素会变成最小的元素。 副本中最小的n个元素的折号就是原始文件中最大的n个元素。

其他回答

就像Python一样,[::-1]颠倒argsort()返回的数组,[:n]给出最后n个元素:

>>> avgDists=np.array([1, 8, 6, 9, 4])
>>> n=3
>>> ids = avgDists.argsort()[::-1][:n]
>>> ids
array([3, 1, 2])

这个方法的优点是ids是avgdist的一个视图:

>>> ids.flags
  C_CONTIGUOUS : False
  F_CONTIGUOUS : False
  OWNDATA : False
  WRITEABLE : True
  ALIGNED : True
  UPDATEIFCOPY : False

('OWNDATA'为False表示这是一个视图,而不是一个副本)

另一种方法是:

(-avgDists).argsort()[:n]

问题是这种工作方式是为数组中的每个元素创建负数:

>>> (-avgDists)
array([-1, -8, -6, -9, -4])

ANd创建一个副本来这样做:

>>> (-avgDists_n).flags['OWNDATA']
True

所以如果你用这个很小的数据集计算每一个时间:

>>> import timeit
>>> timeit.timeit('(-avgDists).argsort()[:3]', setup="from __main__ import avgDists")
4.2879798610229045
>>> timeit.timeit('avgDists.argsort()[::-1][:3]', setup="from __main__ import avgDists")
2.8372560259886086

view方法基本上更快(并且使用1/2的内存…)

用你的例子:

avgDists = np.array([1, 8, 6, 9, 4])

获取n个最大值的索引:

ids = np.argpartition(avgDists, -n)[-n:]

按降序排序:

ids = ids[np.argsort(avgDists[ids])[::-1]]

获得结果(n=4):

>>> avgDists[ids]
array([9, 8, 6, 4])

如果对数组求反,最低的元素就变成最高的元素,反之亦然。因此,最高n个元素的指数为:

(-avgDists).argsort()[:n]

另一种推理方法,正如评论中提到的,是观察到大元素在argsort中出现在最后。所以,你可以从argsort的尾部读取n个最高的元素:

avgDists.argsort()[::-1][:n]

这两种方法的时间复杂度都是O(n log n),因为argsort调用在这里占主导地位。但是第二种方法有一个很好的优势:它用O(1)切片替换了数组的O(n)负。如果在循环中使用的是小型数组,那么避免这种否定可能会获得一些性能收益;如果使用的是大型数组,那么可以节省内存使用,因为否定会创建整个数组的副本。

请注意,这些方法并不总是给出等效的结果:如果请求一个稳定的排序实现来进行argsort,例如通过传递关键字参数kind='mergesort',那么第一种策略将保持排序稳定性,但第二种策略将破坏稳定性(即相等项的位置将颠倒)。

示例计时:

使用100个浮动的小数组和长度为30的尾部,查看方法大约快了15%

>>> avgDists = np.random.rand(100)
>>> n = 30
>>> timeit (-avgDists).argsort()[:n]
1.93 µs ± 6.68 ns per loop (mean ± std. dev. of 7 runs, 1000000 loops each)
>>> timeit avgDists.argsort()[::-1][:n]
1.64 µs ± 3.39 ns per loop (mean ± std. dev. of 7 runs, 1000000 loops each)
>>> timeit avgDists.argsort()[-n:][::-1]
1.64 µs ± 3.66 ns per loop (mean ± std. dev. of 7 runs, 1000000 loops each)

对于较大的数组,argsort占主导地位,并且没有显著的时间差异

>>> avgDists = np.random.rand(1000)
>>> n = 300
>>> timeit (-avgDists).argsort()[:n]
21.9 µs ± 51.2 ns per loop (mean ± std. dev. of 7 runs, 10000 loops each)
>>> timeit avgDists.argsort()[::-1][:n]
21.7 µs ± 33.3 ns per loop (mean ± std. dev. of 7 runs, 10000 loops each)
>>> timeit avgDists.argsort()[-n:][::-1]
21.9 µs ± 37.1 ns per loop (mean ± std. dev. of 7 runs, 10000 loops each)

请注意下面nedim的评论是不正确的。在反转之前还是反转之后截断对效率没有影响,因为这两种操作只是对数组的视图进行不同的跨步操作,而不是实际复制数据。

正如@Kanmani所暗示的,更容易解释的实现可能使用numpy。翻转,如下所示:

import numpy as np

avgDists = np.array([1, 8, 6, 9, 4])
ids = np.flip(np.argsort(avgDists))
print(ids)

通过使用访问者模式而不是成员函数,可以更容易地读取操作的顺序。

而不是用np。Argsort你可以用np。Argpartition -如果你只需要最低/最高n个元素的索引。

这并不需要对整个数组进行排序,只需要对你需要的部分进行排序,但请注意“分区内的顺序”是未定义的,所以虽然它给出了正确的索引,但它们的顺序可能并不正确:

>>> avgDists = [1, 8, 6, 9, 4]
>>> np.array(avgDists).argpartition(2)[:2]  # indices of lowest 2 items
array([0, 4], dtype=int64)

>>> np.array(avgDists).argpartition(-2)[-2:]  # indices of highest 2 items
array([1, 3], dtype=int64)