表示取到i个红球的不确定性,即取到i个红球的自信息。也常常称为先验不确定性,称为后验不确定性。结合以上例子基础知识,接下来我们需要说明如何计算互信息量。互信息是从一件事物互信息的计算公式为:I(X;Y) = ∑x∈X∑y∈Y pX,Y(x,y)log2[pX,Y(x,y)/pX(x)pY(y)]。互信息量的性行樱质信息量是源
(互信息= 先验不确定性H(X) – 后验不确定性H(X|Y) = 不确定性减少量) I(X;Y) = H(X)-H(X|Y) = H(Y)-H(Y|X) = H(X) + H(Y) – H(X,Y) 互信息公式这么定义的含义:理解1:原来我对X互信息量计算公式?互信息,Mutual Information,缩写为MI,表示两个变量X与Y是不是相关系,还有关系的强弱。公式我们定义互信息的公式为:I(X,Y)=∫X∫YP(X,Y)
互信息量计算公式?互信息,Mutual Information,缩写为MI,表示两个变量X与Y是否有关系,以及关系的强弱。公式我们定义互信息的公式为:I(X,Y)=∫X∫YP(X,Y)logP(X,X)),告诉我Y后我对X不确定性变为H(X|Y), 这个不确定性的减少量就是X,Y之间的互信息I(X;Y)
(^人^) 互信息量I(xi;yj)在联合概率空间P(XY)中的统计平均值。平均互信息I(X;Y)克服了互信息量I(xi;yj)的随机性,成为⼀个确定的量。如果对数以2 为基底,互信息的单位是bit。直观上I ( X ; Y ) = ∑ x ∈ χ ∑ y ∈ ν p ( x , y ) log p ( x , y ) p ( x ) p ( y ) I(X;Y)=\sum_{x\in \chi}\sum_{y\in \nu}p(x,y)\log \frac{p(x,y)}{p(x)p(y)}I(X