統計学
各種検定までは何となく思い出せたけど、統計モデルの作成以降で
理論的につまづく。統計モデルって結局のところ、こんな感じ?
①事象を示す変数を設定し、複数の変数間にある関係性をモデル(関数)として表現する
②実際に"観測される"関係性は発生確率に応じてゆらぎがあるため、
このゆらぎが発生する確率を確率分布に従っていると仮定。
※どんな確率分布を仮定するかはモデリングする人に依存する。
ただし、統計モデルについてはある程度定型化されているので、
確率分布の仮定については気にしない人もいそう・・・
③作成したモデルに実測値を当てはめて仮定した確率分布のゆらぎの中で
発生しやすいのか、しにくいのかを確認して妥当であるか判断
(各検定のp値⇒帰無仮説の棄却 ※表現が微妙になってしまっている)
正直、確率分布が利用できるパターンと、各種分析手法の立脚している理論を
理解しないと正確な結果を読み解くのは無理だろうなぁ~。何となくの解析は
Pythonとかで結果だしゃできるだろうけど、何でそうなるの?って感じになりそう。
とりあえずは理論の勉強進めるとともに実データ利用してやってみることですね。
eStatとかはAPIだしてるからPythonでAPIつついていい感じにデータ取得・クレンジングまで持っていければ分析に利用するデータにはできそうだけど果てしなくめんどくさそうではある。経済学と交えての分析ができるかやってみますか!