数理工学

フィッシャー情報量

この情報量は、パラメータを持つ確率モデルがあったとき、与えられたデータ(情報)を用いて、どこまで真のパラメータを推定できるかを表現したものである。つまり、パラメータを正確に推定できるデータが、大きな情報量を持つと考える。

次のような統計モデルが与えられた時、 \[\lbrace f_{X}(\boldsymbol{x}\mid\boldsymbol{\theta})\rbrace\]

of a random vector

\[{X}\]

フィッシャーの情報行列(the Fisher information matrix)は

\[I\]

スコア関数の分散(variance of the score function)として表せる。

\[ I=\operatorname{Var}[U]\]

この時、もし、パラメータ(parameter)が一つしかないならば、この式はフィッシャー情報量と呼ばれる。

\[I=f_{X}(\boldsymbol{x}\mid\theta)\]

もし、フィッシャー情報量が指数分布族(exponential family)であるならば、

\[f_{X}(\boldsymbol{x}\mid\boldsymbol{\theta})\]

\[I=\operatorname{E}\big[U^{\operatorname{T}}U\big]\]

Furthermore, with some regularity conditions imposed, we have

\[I=-\operatorname{E}\Big[\frac{\partial U}{\partial\boldsymbol{\theta}}\Big]\]

例えば、正規分布(the normal distribution)の場合は、

\[N(\mu,\sigma^2)\]

は指数分布族(exponential family)であり、その尤度関数(log-likelihood function)は

\[\ell(\boldsymbol{\theta}\mid x)\] \[-\frac{1}{2}\operatorname{ln}(2\pi\sigma^2)-\frac{(x-\mu)^2}{2\sigma^2}\]

\[\boldsymbol{\theta}=(\mu,\sigma^2)\]


トップ   一覧 単語検索 最終更新   ヘルプ   最終更新のRSS