間違いしかありません.コメントにてご指摘いただければ幸いです(気が付いた点を特に断りなく頻繁に書き直していますのでご注意ください).

ベルヌイモデルのエントロピーやKLダイバージェンスを考える

PBerHn(x)Dn(xy)を考える

n回の試行結果であるxnの1の発生回数をmとするとPBerθの最尤推定値θ^mnとなる. θ^=mnHn(P)=defEPn[log2P(Xn)]H(θ)=defθlog2(θ)(1θ)log2(1θ)P=PBerθH(θ^)=θ^log2(θ^)(1θ^)log2(1θ^)=mnlog2(mn)(1mn)log2(1mn)=1n{mlog2(mn)(nm)log2(nmn)}=1n{mlog2(m)+mlog2(n)(nm)log2(nm)+(nm)log2(n)}D(θ^θ)=θ^log2(θ^θ)+(1θ^)log2(1θ^1θ)=mnlog2(mnθ)+(1mn)log2(1mn1θ)=1n{mlog2(mnθ)+(nm)log2(1mn1θ)}=1n{mlog2(mn)mlog2(θ)+(nm)log2(1mn)(nm)log2(1θ)}=1n{mlog2(m)mlog2(n)mlog2(θ)+(nm)log2(nm)(nm)log2(n)(nm)log2(1θ)}H(θ^)+D(θ^θ)=1n{mlog2(θ)(nm)log2(1θ)}n{H(θ^)+D(θ^θ)}=mlog2(θ)(nm)log2(1θ) log2(L(θ|xn))=mlog2(θ)(nm)log2(1θ)n{H(θ^)+D(θ^θ)}=mlog2(θ)(nm)log2(1θ)log2(L(θ|xn))=n{H(θ^)+D(θ^θ)}=nH(θ^)+nD(θ^θ)log2(L(θ^|xn))=nH(θ^)+nD(θ^θ^)θ=θ^=nH(θ^)+n0D(θ^θ^)=0=nH(mn)θ^=mn

0 件のコメント:

コメントを投稿