我想将NumPy数组转换为单位向量。更具体地说,我正在寻找这个归一化函数的等效版本:
def normalize(v):
norm = np.linalg.norm(v)
if norm == 0:
return v
return v / norm
这个函数处理向量v的范数为0的情况。
在sklearn或numpy中是否提供了类似的函数?
我想将NumPy数组转换为单位向量。更具体地说,我正在寻找这个归一化函数的等效版本:
def normalize(v):
norm = np.linalg.norm(v)
if norm == 0:
return v
return v / norm
这个函数处理向量v的范数为0的情况。
在sklearn或numpy中是否提供了类似的函数?
当前回答
如果你想要[0;1]为1d-array,然后使用
(a - a.min(axis=0)) / (a.max(axis=0) - a.min(axis=0))
a是你的一维数组。
一个例子:
>>> a = np.array([0, 1, 2, 4, 5, 2])
>>> (a - a.min(axis=0)) / (a.max(axis=0) - a.min(axis=0))
array([0. , 0.2, 0.4, 0.8, 1. , 0.4])
注意该方法。对于保存值之间的比例有一个限制:一维数组必须至少有一个0,并且由0和正数组成。
其他回答
如果你想要[0;1]为1d-array,然后使用
(a - a.min(axis=0)) / (a.max(axis=0) - a.min(axis=0))
a是你的一维数组。
一个例子:
>>> a = np.array([0, 1, 2, 4, 5, 2])
>>> (a - a.min(axis=0)) / (a.max(axis=0) - a.min(axis=0))
array([0. , 0.2, 0.4, 0.8, 1. , 0.4])
注意该方法。对于保存值之间的比例有一个限制:一维数组必须至少有一个0,并且由0和正数组成。
你提到了scikit learn,所以我想分享另一个解决方案。
学习MinMaxScaler
在sci-kit learn中,有一个叫做MinMaxScaler的API,它可以自定义你喜欢的值范围。
它也为我们处理了NaN问题。
nan被视为缺失值:不考虑是否合适,并予以维护 在transform. ...参见参考文献[1]
代码示例
代码很简单,只需输入即可
# Let's say X_train is your input dataframe
from sklearn.preprocessing import MinMaxScaler
# call MinMaxScaler object
min_max_scaler = MinMaxScaler()
# feed in a numpy array
X_train_norm = min_max_scaler.fit_transform(X_train.values)
# wrap it up if you need a dataframe
df = pd.DataFrame(X_train_norm)
Reference
[1] sklearn.preprocessing.MinMaxScaler
如果你在使用scikit-learn,你可以使用sklearn.预处理。normalize:
import numpy as np
from sklearn.preprocessing import normalize
x = np.random.rand(1000)*10
norm1 = x / np.linalg.norm(x)
norm2 = normalize(x[:,np.newaxis], axis=0).ravel()
print np.all(norm1 == norm2)
# True
如果您正在处理3D向量,您可以使用vg工具带简单地做到这一点。它是numpy之上的一个轻量级层,支持单值和堆叠向量。
import numpy as np
import vg
x = np.random.rand(1000)*10
norm1 = x / np.linalg.norm(x)
norm2 = vg.normalize(x)
print np.all(norm1 == norm2)
# True
我在上次创业时创建了这个库,它的动机是这样的:简单的想法在NumPy中太啰嗦了。
这可能对你也有用
import numpy as np
normalized_v = v / np.sqrt(np.sum(v**2))
但当v的长度为0时失效。
在这种情况下,引入一个小常数来防止零除法可以解决这个问题。
正如评论中所建议的,人们也可以使用
v/np.linalg.norm(v)