間違いしかありません.コメントにてご指摘いただければ幸いです(気が付いた点を特に断りなく頻繁に書き直していますのでご注意ください).

平均符号長の下限(エントロピー, Kullback-Leiblerダイバージェンス)

符号長(l(xn))がShannon情報量(log2P(xn))と等しい場合(確率P(xn)に基づく符号化(P-based coding))

l(xn)=log2P(xn)l(xn)=log2P(xn)2l(xn)=2log2P(xn)=P(xn)P(xn)=2l(xn)xnχnP(xn)1P(xn)1,P(xn)1xnχn2l(xn)12l(xn)=P(xn)1,P(xn)1 劣確率凾数は P(x)0 の条件は確率(質量)凾数と同じで,P(x)1となる凾数.

符号長の期待値とその下限

EPn[l(Xn)]Hn(P)Hn(P)=defEPn[log2P(Xn)]P(xn)l(Xn)=log2P(Xn) Hn(P)をエントロピー(entropy)と呼ぶ.

確率Pで発生しているデータ系列を確率Qに基づく符号化した場合の平均符号長

log2P(xn)log2P(xn)=log2Q(xn)log2Q(xn)log2Q(xn)=log2P(xn)+log2P(xn)log2Q(xn)=log2P(xn)+log2P(xn)Q(xn)EPn[log2Q(Xn)]=EPn[log2P(Xn)]+EPn[log2P(Xn)Q(Xn)]=Hn(P)+Dn(PQ)Dn(PQ)=defEPn[log2P(Xn)Q(Xn)] Dn(PQ)をKullback-Leiblerダイバージェンス(Kullback-Leibler divergence)と呼ぶ.

0 件のコメント:

コメントを投稿