信息熵


信息熵的公式

计算信息熵的公式为:

\[ H(x)=-\sum p(x_i)logp(x_i) \]

其中\(p(x_i)\)表示事件结果为\(x_i\)的概率

理解

信息熵表示对事件不确定性的一个度量,计算思路为“编码一个事件的最短平均编码长度”(任意进制编码都行,彼此差一个常数,但常用的是二进制以及自然对数)

所以信息熵的计算也可以写作:

\[ H(x)=\sum p(x_i)f(x_i) \]

其中\(p(x_i)\)表示事件结果为\(x_i\)的概率,\(f(x_i)\)为编码\(x_i\)需要的位数(这也是为什么在比较概率分布的时候,会选择用拟合的概率来计算\(f(x_i)\)

Huffman编码树

类比哈夫曼树,根据贪心思想,

  • 出现概率大的结果应该占据相对短的编码
  • 编码结果的种类和编码位数是指数级关系

所以我们得到

\[ f(x_i)=-logp(x_i) \]

代入就得到了最终形式。

应用

  • KL散度
  • 交叉熵损失

参考资料


文章作者: bg51717
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 bg51717 !
由于评论系统依托于Github的Discuss存在,因此默认评论者会收到所有通知。可以在邮件里点击"unsubscribe"停止接受,后续也可以点击下列仓库进行通知管理: bg51717/Hexo-Blogs-comments
Since the comment system relies on GitHub's Discussions feature, by default, commentators will receive all notifications. You can click "unsubscribe" in the email to stop receiving them, and you can also manage your notifications by clicking on the following repositories: bg51717/Hexo-Blogs-comments
  目录