我正在读这本书(NLTK),它令人困惑。熵的定义为:
熵是每个标签的概率之和 乘以相同标签的log概率
我如何在文本挖掘方面应用熵和最大熵?有人能给我举个简单的例子吗?
我正在读这本书(NLTK),它令人困惑。熵的定义为:
熵是每个标签的概率之和 乘以相同标签的log概率
我如何在文本挖掘方面应用熵和最大熵?有人能给我举个简单的例子吗?
当前回答
首先,最好了解信息的度量方法。
我们如何衡量这些信息?
当一件不太可能发生的事情发生时,我们说这是一个大新闻。此外,当我们说一些可预测的事情时,它真的不有趣。为了量化这个有趣的东西,函数应该满足
如果事件的概率为1(可预测),则函数给出0 如果事件的概率接近于0,则函数应给出较高的数值 如果概率为0.5的事件发生,则给出1比特的信息。
满足约束条件的一个自然度量是
I(X) = -log_2(p)
其中p是事件x的概率,单位是位,与计算机使用的位相同。0或者1。
示例1
公平抛硬币:
从一次抛硬币中我们能得到多少信息?
答案:-log(p) = -log(1/2) = 1(位)
示例2
如果明天有一颗流星撞击地球,p=2^{-22},那么我们可以得到22位的信息。
如果太阳明天升起,p ~ 1,那么它是0位信息。
熵
所以如果我们对事件Y的有趣性取期望,那么它就是熵。 也就是说,熵是一个事件有趣度的期望值。
H(Y) = E[ I(Y)]
更正式地说,熵是一个事件的预期比特数。
例子
Y = 1:事件X发生的概率为p
Y = 0:事件X发生的概率为1-p
H(Y) = E[I(Y)] = p I(Y==1) + (1-p) I(Y==0)
= - p log p - (1-p) log (1-p)
以2为底的对数。
其他回答
我假设熵是在构建决策树时提到的。
为了说明这一点,想象一下学习把名字分成男性和女性两组的任务。给出一个名字列表,每个名字都标有m或f,我们想要学习一个符合数据的模型,可以用来预测一个新的未见过的名字的性别。
name gender
----------------- Now we want to predict
Ashley f the gender of "Amro" (my name)
Brian m
Caroline f
David m
第一步是确定哪些数据特征与我们想要预测的目标类相关。一些例子特征包括:第一个/最后一个字母,长度,元音的数量,是否以元音结尾,等等。所以在特征提取之后,我们的数据看起来是这样的:
# name ends-vowel num-vowels length gender
# ------------------------------------------------
Ashley 1 3 6 f
Brian 0 2 5 m
Caroline 1 4 8 f
David 0 2 5 m
目标是建立一个决策树。树的一个例子是:
length<7
| num-vowels<3: male
| num-vowels>=3
| | ends-vowel=1: female
| | ends-vowel=0: male
length>=7
| length=5: male
基本上每个节点都表示对单个属性执行的测试,我们将根据测试结果向左或向右移动。我们继续遍历树,直到到达包含类预测(m或f)的叶节点
因此,如果我们沿着这棵树运行Amro这个名字,我们从测试“长度是否<7?”开始,答案是“是”,所以我们沿着这个分支向下。在分支之后,下一个测试“元音的数量是否<3?”再次评估为true。这导致了一个标记为m的叶节点,因此预测是男性(我碰巧是男性,所以树正确地预测了结果)。
决策树是以自顶向下的方式构建的,但问题是如何选择在每个节点上拆分哪个属性?答案是找到能最好地将目标类划分为最纯粹的子节点的特性(即:不包含男女混合的节点,而是只有一个类的纯节点)。
这种纯度的测量被称为信息。它表示给定到达节点的示例,指定一个新实例(名字)应该分类为男性还是女性所需的预期信息量。我们计算一下 基于节点上的男性和女性类的数量。
另一方面,熵是杂质的度量(相反)。它被定义为值为a/b的二进制类:
Entropy = - p(a)*log(p(a)) - p(b)*log(p(b))
这个二进制熵函数如下图所示(随机变量可以取两个值之一)。当概率p=1/2时,它达到最大值,这意味着p(X=a)=0.5或p(X=b)=0.5有50%/50%的机会是a或b(不确定性处于最大值)。当概率p=1或p=0且完全确定(分别为p(X=a)=1或p(X=a)=0,后者表示p(X=b)=1)时,熵函数最小值为零。
当然,熵的定义可以推广到一个离散随机变量X有N个结果(而不仅仅是两个):
(公式中的对数通常取以2为底的对数)
回到我们的名称分类任务,让我们看一个例子。想象一下,在构建树的过程中,我们正在考虑以下分裂:
ends-vowel
[9m,5f] <--- the [..,..] notation represents the class
/ \ distribution of instances that reached a node
=1 =0
------- -------
[3m,4f] [6m,1f]
如你所见,在拆分之前,我们有9名男性和5名女性,即P(m)=9/14, P(f)=5/14。根据熵的定义:
Entropy_before = - (5/14)*log2(5/14) - (9/14)*log2(9/14) = 0.9403
接下来,我们将它与通过查看两个子分支考虑分裂后计算的熵进行比较。在ends-vowel=1的左分支中,我们有:
Entropy_left = - (3/7)*log2(3/7) - (4/7)*log2(4/7) = 0.9852
而ends-vowel=0的右支,我们有:
Entropy_right = - (6/7)*log2(6/7) - (1/7)*log2(1/7) = 0.5917
我们结合左/右熵,使用每个分支的实例数作为权重因子(7个实例向左,7个实例向右),并得到分裂后的最终熵:
Entropy_after = 7/14*Entropy_left + 7/14*Entropy_right = 0.7885
现在通过比较拆分前后的熵,我们得到了一个信息增益的度量,或者我们通过使用特定的特征进行拆分获得了多少信息:
Information_Gain = Entropy_before - Entropy_after = 0.1518
你可以这样解释上面的计算:通过使用结尾元音特征进行分割,我们能够将子树预测结果中的不确定性降低0.1518(以比特作为信息单位)。
在树的每个节点上,对每个特征都进行这种计算,并以贪婪的方式选择信息增益最大的特征进行分割(因此倾向于产生低不确定性/熵的纯分割的特征)。这个过程从根节点向下递归地应用,当叶子节点包含所有具有相同类的实例时(不需要进一步拆分它),该过程就会停止。
注意,我跳过了一些超出这篇文章范围的细节,包括如何处理数字特征、缺失值、过拟合和修剪树等。
当我在实现一个算法来计算图像的熵时,我发现了这些链接,看这里和这里。
这是我使用的伪代码,你需要调整它来处理文本而不是图像,但原则应该是相同的。
//Loop over image array elements and count occurrences of each possible
//pixel to pixel difference value. Store these values in prob_array
for j = 0, ysize-1 do $
for i = 0, xsize-2 do begin
diff = array(i+1,j) - array(i,j)
if diff lt (array_size+1)/2 and diff gt -(array_size+1)/2 then begin
prob_array(diff+(array_size-1)/2) = prob_array(diff+(array_size-1)/2) + 1
endif
endfor
//Convert values in prob_array to probabilities and compute entropy
n = total(prob_array)
entrop = 0
for i = 0, array_size-1 do begin
prob_array(i) = prob_array(i)/n
//Base 2 log of x is Ln(x)/Ln(2). Take Ln of array element
//here and divide final sum by Ln(2)
if prob_array(i) ne 0 then begin
entrop = entrop - prob_array(i)*alog(prob_array(i))
endif
endfor
entrop = entrop/alog(2)
我从某处得到了这个代码,但我找不到链接。
当你在读一本关于NLTK的书时,你会很有趣地读到MaxEnt分类器模块http://www.nltk.org/api/nltk.classify.html#module-nltk.classify.maxent
对于文本挖掘分类,步骤可以是:预处理(标记化,蒸,信息增益的特征选择……),转换为数字(频率或TF-IDF)(我认为这是理解使用文本作为只接受数字的算法的输入时的关键步骤),然后使用MaxEnt进行分类,当然这只是一个例子。
非正式的
熵是信息或知识的可用性,信息的缺乏会导致预测未来的困难,这是高熵(文本挖掘中的下一个词预测),信息/知识的可用性将帮助我们更现实地预测未来(低熵)。
任何类型的相关信息都会减少熵,帮助我们预测更现实的未来,这些信息可以是句子中有“肉”这个词,也可以是句子中没有“肉”这个词。这就是所谓的信息获取
正式
熵是缺乏可预测性的顺序
首先,最好了解信息的度量方法。
我们如何衡量这些信息?
当一件不太可能发生的事情发生时,我们说这是一个大新闻。此外,当我们说一些可预测的事情时,它真的不有趣。为了量化这个有趣的东西,函数应该满足
如果事件的概率为1(可预测),则函数给出0 如果事件的概率接近于0,则函数应给出较高的数值 如果概率为0.5的事件发生,则给出1比特的信息。
满足约束条件的一个自然度量是
I(X) = -log_2(p)
其中p是事件x的概率,单位是位,与计算机使用的位相同。0或者1。
示例1
公平抛硬币:
从一次抛硬币中我们能得到多少信息?
答案:-log(p) = -log(1/2) = 1(位)
示例2
如果明天有一颗流星撞击地球,p=2^{-22},那么我们可以得到22位的信息。
如果太阳明天升起,p ~ 1,那么它是0位信息。
熵
所以如果我们对事件Y的有趣性取期望,那么它就是熵。 也就是说,熵是一个事件有趣度的期望值。
H(Y) = E[ I(Y)]
更正式地说,熵是一个事件的预期比特数。
例子
Y = 1:事件X发生的概率为p
Y = 0:事件X发生的概率为1-p
H(Y) = E[I(Y)] = p I(Y==1) + (1-p) I(Y==0)
= - p log p - (1-p) log (1-p)
以2为底的对数。