考虑下面的代码:
avgDists = np.array([1, 8, 6, 9, 4])
ids = avgDists.argsort()[:n]
这给出了n个最小元素的下标。是否可以使用相同的argsort按降序得到n个最高元素的下标?
考虑下面的代码:
avgDists = np.array([1, 8, 6, 9, 4])
ids = avgDists.argsort()[:n]
这给出了n个最小元素的下标。是否可以使用相同的argsort按降序得到n个最高元素的下标?
当前回答
用你的例子:
avgDists = np.array([1, 8, 6, 9, 4])
获取n个最大值的索引:
ids = np.argpartition(avgDists, -n)[-n:]
按降序排序:
ids = ids[np.argsort(avgDists[ids])[::-1]]
获得结果(n=4):
>>> avgDists[ids]
array([9, 8, 6, 4])
其他回答
就像Python一样,[::-1]颠倒argsort()返回的数组,[:n]给出最后n个元素:
>>> avgDists=np.array([1, 8, 6, 9, 4])
>>> n=3
>>> ids = avgDists.argsort()[::-1][:n]
>>> ids
array([3, 1, 2])
这个方法的优点是ids是avgdist的一个视图:
>>> ids.flags
C_CONTIGUOUS : False
F_CONTIGUOUS : False
OWNDATA : False
WRITEABLE : True
ALIGNED : True
UPDATEIFCOPY : False
('OWNDATA'为False表示这是一个视图,而不是一个副本)
另一种方法是:
(-avgDists).argsort()[:n]
问题是这种工作方式是为数组中的每个元素创建负数:
>>> (-avgDists)
array([-1, -8, -6, -9, -4])
ANd创建一个副本来这样做:
>>> (-avgDists_n).flags['OWNDATA']
True
所以如果你用这个很小的数据集计算每一个时间:
>>> import timeit
>>> timeit.timeit('(-avgDists).argsort()[:3]', setup="from __main__ import avgDists")
4.2879798610229045
>>> timeit.timeit('avgDists.argsort()[::-1][:3]', setup="from __main__ import avgDists")
2.8372560259886086
view方法基本上更快(并且使用1/2的内存…)
一种优雅的方式可以如下-
ids = np.flip(np.argsort(avgDists))
这将给出按降序排序的元素索引。 现在你可以使用常规切片…
top_n = ids[:n]
正如@Kanmani所暗示的,更容易解释的实现可能使用numpy。翻转,如下所示:
import numpy as np
avgDists = np.array([1, 8, 6, 9, 4])
ids = np.flip(np.argsort(avgDists))
print(ids)
通过使用访问者模式而不是成员函数,可以更容易地读取操作的顺序。
另一种方法是在argsort的参数中只使用一个'-',例如:"df[np。Argsort (-df[:, 0])]",如果df是数据帧,你想要按第一列排序(由列号'0'表示)。适当地更改列名。当然,列必须是数字。
如果对数组求反,最低的元素就变成最高的元素,反之亦然。因此,最高n个元素的指数为:
(-avgDists).argsort()[:n]
另一种推理方法,正如评论中提到的,是观察到大元素在argsort中出现在最后。所以,你可以从argsort的尾部读取n个最高的元素:
avgDists.argsort()[::-1][:n]
这两种方法的时间复杂度都是O(n log n),因为argsort调用在这里占主导地位。但是第二种方法有一个很好的优势:它用O(1)切片替换了数组的O(n)负。如果在循环中使用的是小型数组,那么避免这种否定可能会获得一些性能收益;如果使用的是大型数组,那么可以节省内存使用,因为否定会创建整个数组的副本。
请注意,这些方法并不总是给出等效的结果:如果请求一个稳定的排序实现来进行argsort,例如通过传递关键字参数kind='mergesort',那么第一种策略将保持排序稳定性,但第二种策略将破坏稳定性(即相等项的位置将颠倒)。
示例计时:
使用100个浮动的小数组和长度为30的尾部,查看方法大约快了15%
>>> avgDists = np.random.rand(100)
>>> n = 30
>>> timeit (-avgDists).argsort()[:n]
1.93 µs ± 6.68 ns per loop (mean ± std. dev. of 7 runs, 1000000 loops each)
>>> timeit avgDists.argsort()[::-1][:n]
1.64 µs ± 3.39 ns per loop (mean ± std. dev. of 7 runs, 1000000 loops each)
>>> timeit avgDists.argsort()[-n:][::-1]
1.64 µs ± 3.66 ns per loop (mean ± std. dev. of 7 runs, 1000000 loops each)
对于较大的数组,argsort占主导地位,并且没有显著的时间差异
>>> avgDists = np.random.rand(1000)
>>> n = 300
>>> timeit (-avgDists).argsort()[:n]
21.9 µs ± 51.2 ns per loop (mean ± std. dev. of 7 runs, 10000 loops each)
>>> timeit avgDists.argsort()[::-1][:n]
21.7 µs ± 33.3 ns per loop (mean ± std. dev. of 7 runs, 10000 loops each)
>>> timeit avgDists.argsort()[-n:][::-1]
21.9 µs ± 37.1 ns per loop (mean ± std. dev. of 7 runs, 10000 loops each)
请注意下面nedim的评论是不正确的。在反转之前还是反转之后截断对效率没有影响,因为这两种操作只是对数组的视图进行不同的跨步操作,而不是实际复制数据。