disk full? どれくらいの容量なんだろう?

h_okumura boosted
h_okumura boosted

先日の「問:29戦29勝した。iid(独立・勝率一定)と仮定して,次も勝つ確率を求めよ」の問題、暇つぶしに解いてて。
ベルヌーイ試行の話だよね、事前分布はベータ分布で無条件事前分布を仮定して、事後確率が最大になるような勝率を推定して、って計算して、非常に当たり前の結果が出て、そりゃそうだよなと思ったりなど。

問:29戦29勝した。iid(独立・勝率一定)と仮定して,次も勝つ確率を求めよ

Scoring Rules for Forecast Verification journals.ametsoc.org/doi/pdf/1 K-L divergenceが使えるようなことが書いてあるが・・・

ある地域では長期的に雨の降る確率0.5なので,手抜き気象予報士Aは毎日「雨の降る確率は50%です」と予報した。まじめな予報士Bは「今日は0%です」「今日は100%です」とメリハリを付けた。実際の2日間の天気は(晴,雨)であった。
予報列A: (0.5,0.5)
予報列B: (0,1)
実際: (0,1)
二人の予報の精度を求めるのにKLダイバージェンスは使えるか。

h_okumura boosted

食べちゃうぞー!
$$
(\int ・\omega・)\int
$$

h_okumura boosted

本日(6/1)、見本2点が届きました。2点とも6月12日に発売する予定です。

---------------------------------------------
『Rによる自動データ収集―Webスクレイピングとテキストマイニングの実践ガイド―』
Simon Munzert 他著/石田 基広・工藤 和奏・熊谷 雄介・高柳 慎一・牧山 幸史訳
bit.ly/2rczzMo
---------------------------------------------
『地球大気の科学』
(現代地球科学入門シリーズ 全16巻 【3】巻)
大谷 栄治・長谷川 昭・花輪 公雄編集/田中 博著
bit.ly/2rcSW81
--------------------------------------------
その他の6月刊行予定はこちらです。
bit.ly/2rd42dj

h_okumura boosted

黒木さんの情報量の定義は私と(世間一般と)同じなんだけれど,エントロピーの定義が逆なのか。よくわからん

例によってひとのかいたものをちゃんと見ないでつぶやいているだけなので大幅に誤解している可能性があるが,例えば個々の状態が等しい確率 $p$ ($<1$) で実現するならば,統計力学でいう状態数は $1/p$ ($>1$) なので,エントロピーは $\log (1/p) = -\log p = - \sum_1^{1/p} p \log p$

呼び方ということなら,Shannonはマイナスの付いたほうをエントロピーと呼んだのだけれど,そういう意味なんでしょうか

$H = -\sum p_i \log p_i$ がエントロピー(最小の平均符号長),これを $-\sum q_i \log p_i$ とすると,$p_i$ のつもりで符号化したものが実は $q_i$ の頻度で表れたときの平均符号長(これはエントロピーより大きい),両者の差がK-Lダイバージェンス。

リロードしたらチョークと黒板消しが!

Show older
Mathtodon

A Mastodon instance named Mathtodon, where you can post toots with beautiful mathematical formulae in TeX/LaTeX style.