統計検定1級では十分統計量について問われることが多いように感じる。十分統計量は分布のパラメータを十分に推定できる統計量のことで、フィッシャー・ネイマンの分解定理はそんな十分統計量を簡単に見分けることができる定理である。その分解定理を離散の場合での証明を本エントリで紹介する。
無作為抽出した標本からデータの背後に隠れる確率分布のパラメータを推し測るための枠組みである推定と点推定量が満たすと望ましい性質(不偏性・一致性・有効性)について紹介する。
統計検定一級で頻出されるため勉強をしていく上で欠かせない「変数変換によって作られる新しい確率変数の確率関数を求める」方法について先日紹介した、本エントリではその具体例を挙げて実際の計算過程について紹介していく。
統計検定一級で頻出されるため勉強をしていく上で欠かせない「変数変換によって作られる新しい確率変数の確率関数を求める」方法について紹介する。 それにあたって同時確率密度関数の周辺化と分布関数についても知っておかなければ話が見えにくくなるので、まずは分布関数とは何か、同時確率密度関数の周辺化とは何かから始めて最終的に変数変換によって確率密度関数を導出する方法を説明していく。
統計検定一級では確率分布に関して自在に扱える能力が必須となる。 自在に扱うためには何ができればいいのか、分かっていればいいのかは積率母関数が導出できる、期待値・分散を導出できることであると考えている。なぜこの三点でいいのかについて本エントリーで紹介する。 検定試験ではイチから導出していると時間が無くなるので覚えてしまうことが推奨されているが、ただの暗記は忘れてしまったときに何もできなくなる、検定のためだけの意味のない学習となってしまう。 本ブログでは積率母関数の導出、期待値・分散の導入を解説し、着実な実力をつけ検定試験で忘れてしまっても導出できるような力を養っていくことを目的としている。 導出できる力があれば、実務で統計モデルを組む際にも役立つと考えられる。