139 字
1 分钟
交叉熵
2024-10-08

定义#

在信息论中,基于相同事件测度的两个概率分布p和q的交叉熵(英语:Cross entropy)是指,当基于一个“非自然”(相对于“真实”分布p)的概率分布q进行编码时,在事件集合中唯一标识一个事件所需要的平均比特数(bit)。

硬币正反面朝上的概率为p(h)和p(t),我们的估计为q(h)和q(t),那么给定了估计的概率分布,对于实际分布的信息量就如下:

H(p,q)=piIi=pilog(qi)H(p,q)=\sum{p_iI_i}=-\sum{p_ilog(q_i)}
交叉熵
https://fuwari.vercel.app/posts/数学/信息论/交叉熵/
作者
FlyingWhite
发布于
2024-10-08
许可协议
CC BY-NC-SA 4.0