2010-04-23

DMLA勉強会

今回は,なかなか良い論文が見つからなかったので, 前回の論文紹介会中に出てきた,ME(最大エントロピー法)について説明しているテクニカルレポートの紹介. 今日は少し,ライトな感じで.

とはいえ,適宜説明していただいて,ものすごくよく理解できて,良かった. 特にエントロピーに関して本質的な理解がよくやくできたのは嬉しかった. 毎回,勉強会のときには資料を配り,勉強会中に頂いたコメントを元に資料を修正しいる. この修正作業というのが,とても良い復習になるのだ. その資料をUPしたので,参考にどうぞ.

ここずっと毎週金曜日,論文紹介しているのだけれど, 紹介すればするほど,色んなことが見えてきている気がする. 特に,勉強会で頂くコメントがホント為になる. 今は教えていただくばかりだけど,いつかは有益なコメントができるようになりたいなぁ〜.

なんとなく,研究というものが見えてきて,ここ最近,充実感を感じている. まだまだ,これからだけど,去年の冬頃に感じていたある種の"絶望感"からは, おかげさまで,ようやく抜けられた気がする. 色々アドバイスを頂いた皆様のおかげで,感謝の念に堪えない.

まだまだ,これからの道筋を模索中なのだが, これからももっと頑張って行きたい.

来週はもっと面白い話が紹介したいな.

カレー部

今年度初のカレー部. 茄子のカレー. 今回は,僕は,ナッツをフードプロセッサにかけるだけで, あとは食べる係になったけど(笑),とても美味しかった.

カレー部

参加者も15人ほど結構多くて,楽しかった. 今度は作るのにも参加したいな〜.

本日のツッコミ
Jota (2010-04-24 [Sat] 20:20)

エントロピーの定義式をいきなり見せられても分からんよね。

shirayu (2010-04-24 [Sat] 20:52)

ほんとやねー.
とりあえず今まで,訳も分からず丸暗記で来てたけど,
情報量-log(p(x))は,事象xを符号化する際,何ビットにすればよいかを表すもので,
エントロピーは各事象の情報量の期待値で,どれくらい事象の分布が"ぐちゃぐちゃ"かを表すものなんやねー.