这是一个logistic sigmoid函数:

我知道x,现在如何用Python计算F(x) ?

设x = 0.458。

F(x) = ?


当前回答

使用pandas DataFrame/Series或numpy数组时的向量化方法:

上面的答案是用于单点计算的优化方法,但当你想将这些方法应用到pandas系列或numpy数组时,它需要apply,这基本上是在后台进行循环,将遍历每一行并应用该方法。这是非常低效的。

为了加速我们的代码,我们可以使用向量化和numpy广播:

x = np.arange(-5,5)
np.divide(1, 1+np.exp(-x))

0    0.006693
1    0.017986
2    0.047426
3    0.119203
4    0.268941
5    0.500000
6    0.731059
7    0.880797
8    0.952574
9    0.982014
dtype: float64

或与熊猫系列:

x = pd.Series(np.arange(-5,5))
np.divide(1, 1+np.exp(-x))

其他回答

可以计算为:

import math
def sigmoid(x):
  return 1 / (1 + math.exp(-x))

或概念性的,更深的,没有任何进口性的:

def sigmoid(x):
  return 1 / (1 + 2.718281828 ** -x)

或者你可以对矩阵使用numpy:

import numpy as np #make sure numpy is already installed
def sigmoid(x):
  return 1 / (1 + np.exp(-x))

下面是如何以数字稳定的方式实现逻辑sigmoid(如这里所述):

def sigmoid(x):
    "Numerically-stable sigmoid function."
    if x >= 0:
        z = exp(-x)
        return 1 / (1 + z)
    else:
        z = exp(x)
        return z / (1 + z)

或许这句话更准确:

import numpy as np

def sigmoid(x):  
    return np.exp(-np.logaddexp(0, -x))

在内部,它实现了与上面相同的条件,但随后使用log1p。

一般而言,多项logistic乙型为:

def nat_to_exp(q):
    max_q = max(0.0, np.max(q))
    rebased_q = q - max_q
    return np.exp(rebased_q - np.logaddexp(-max_q, np.logaddexp.reduce(rebased_q)))

(然而,logaddexp。Reduce可能更准确。)

它也可以在scipy中获得:http://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.logistic.html

In [1]: from scipy.stats import logistic

In [2]: logistic.cdf(0.458)
Out[2]: 0.61253961344091512

这只是另一个scipy函数的一个昂贵的包装器(因为它允许你缩放和转换逻辑函数):

In [3]: from scipy.special import expit

In [4]: expit(0.458)
Out[4]: 0.61253961344091512

如果您关心性能,请继续阅读,否则只需使用expit。

一些基准测试:

In [5]: def sigmoid(x):
  ....:     return 1 / (1 + math.exp(-x))
  ....: 

In [6]: %timeit -r 1 sigmoid(0.458)
1000000 loops, best of 1: 371 ns per loop


In [7]: %timeit -r 1 logistic.cdf(0.458)
10000 loops, best of 1: 72.2 µs per loop

In [8]: %timeit -r 1 expit(0.458)
100000 loops, best of 1: 2.98 µs per loop

如预期的后勤。CDF比出口慢得多。当使用单个值调用expit时,它仍然比python的sigmoid函数慢,因为它是用C编写的通用函数(http://docs.scipy.org/doc/numpy/reference/ufuncs.html),因此有调用开销。当使用单个值调用expit时,这个开销比它的编译性质所给出的计算加速要大。但当涉及到大型数组时,它变得可以忽略不计:

In [9]: import numpy as np

In [10]: x = np.random.random(1000000)

In [11]: def sigmoid_array(x):                                        
   ....:    return 1 / (1 + np.exp(-x))
   ....: 

(你会注意到数学上的微小变化。Exp到np。Exp(第一个不支持数组,但如果只有一个值需要计算,则速度要快得多))

In [12]: %timeit -r 1 -n 100 sigmoid_array(x)
100 loops, best of 1: 34.3 ms per loop

In [13]: %timeit -r 1 -n 100 expit(x)
100 loops, best of 1: 31 ms per loop

但是当你真的需要性能时,一种常见的做法是在RAM中保存一个预先计算的sigmoid函数表,并以一些精度和内存换取一些速度(例如:http://radimrehurek.com/2013/09/word2vec-in-python-part-two-optimizing/)

另外,请注意,从0.14.0版本开始,出口实现在数值上是稳定的:https://github.com/scipy/scipy/issues/3385

如果把-放在x前面使您感到困惑,您可以简单地声明1 / np.exp(x)。

def sigmoid(x):
     return 1 /(1 + 1 / np.exp(x))

sigmoid(0.458)

使用pandas DataFrame/Series或numpy数组时的向量化方法:

上面的答案是用于单点计算的优化方法,但当你想将这些方法应用到pandas系列或numpy数组时,它需要apply,这基本上是在后台进行循环,将遍历每一行并应用该方法。这是非常低效的。

为了加速我们的代码,我们可以使用向量化和numpy广播:

x = np.arange(-5,5)
np.divide(1, 1+np.exp(-x))

0    0.006693
1    0.017986
2    0.047426
3    0.119203
4    0.268941
5    0.500000
6    0.731059
7    0.880797
8    0.952574
9    0.982014
dtype: float64

或与熊猫系列:

x = pd.Series(np.arange(-5,5))
np.divide(1, 1+np.exp(-x))