240 字
1 分钟
互信息
2024-10-11

互信息 MI 是量化两个随机变量之间的互相依赖程度,是一种衡量变量之间的统计相关性的非参数度量,能够反应线性/非线性关系.

原理和定义#

互信息测量知道了一个随机变量的值后,我们还能得到另一个随机变量的信息量,也就是其他衡量了两个变量的联合分布相较于他们自身独立分布的额外信息量.如果两个变量完全独立,那么他们的 MI 为 0,如果一个变量完全确定另一个变量,那么他们的互信息达到最大.

公式#

I(x,y)=xXyYP(x,y)log(P(x,y)P(x)P(y))I(x,y)=\sum_{x∈X} \sum_{y∈Y}P(x,y)\log\left( \frac{P(x,y)}{P(x)P(y)} \right)I(x,y)=xyp(x,y)log(p(x,y)p(x)p(y))dxdyI(x,y)=\int_{x}\int_{y}p(x,y)\log\left( \frac{p(x,y)}{p(x)p(y)} \right) dxdy

上面一个是离散一个是连续. 相较于相关系数,互信息不止局限于线性关系,而皮尔森先关系数主要衡量线性关系.这个互信息是信息论的基础.

互信息
https://fuwari.vercel.app/posts/数学/互信息/
作者
FlyingWhite
发布于
2024-10-11
许可协议
CC BY-NC-SA 4.0