Kosugitti's BLOG

アンドロイドは正規分布の夢を見るか

この画面は、簡易表示です

2017

俺的今年の10大ニュース

  1. まだひみつ
  2. 息子と海外で遊ぶ
  3. 犬4匹本を上梓
  4. 数年ぶりに論文が出た
  5. Switch買った。ゼルダにハマる。
  6. MacBook買った。快適コレ。
  7. 友人宅で粗相。ほんますんません。
  8. 車こする。泣きたい出費。
  9. 行動計量学会春セミの講師になる
  10. 10万円貯まる。この俺が貯金できるとは!


書評のようなもの。「サピエンス全史」

サピエンス全史,読みました。これは面白かったー!

歴史の本とは思えない切り口。著者の仕事が「マクロ歴史学」らしいんだけど,なるほどそういうジャンルもあるのかと思いました。なんせ研究対象がホモサピだからなあ。

人類にとって大事な歴史的変化は何か,と考えると,認知革命,農業革命,科学革命などであり,ローマ帝国が滅びたとかフランス革命があったとかいう革命は「ホモサピがなんかやっとるで」ぐらいのレベルでしかない。この冷めた感じが,読んでいて痛快。人間が歴史を紡いできたんじゃなくて,「小麦が自分のDNAを広めるために人間を利用してるんだ」とか「ミームが広がるために人間がいるんだ」ぐらいの感じ。人間を突き放しているような視点,価値観を超越して客観的に記述している視点が,心理学的・特に社会心理学的な観点を学ぶ上でも重要なポイント。

特に面白!と思ったのが19章の「文明は人間を幸福にしたのか」。彼が言うには,

  • 人間の幸福が快楽を求めることにあるのであれば,ドーパミン,セトロニン,オキシトシンを求めるのが正解
  • 人間の幸福が自己実現にあるのであれば,いかに「自分はちゃんとやってる」と思い込めるかが勝負

もうこの辺はこれで答えが出ちゃってるよ,と言う。

ただしこれらの幸福は限定付き。化学的な正解を求めるのは長続きするもんじゃないし,思い込みは思い込みでしかなく時自分を意図的に騙すのは難しい。であれば,合理的な正解は何かというと,仏教的なゴールにたどり着くと言うのね。つまり,煩悩からいかに解脱できるかになるだろう,という感じ。

これって要するに,知情意に対応しているように思うのね。知識で行くなら煩悩からの解脱になるし,情緒的なゴールが欲しいのなら化学になるし,意図・意思・人間性のゴールは思い込みになる。少なくともこういう三つの方向性があって,人が議論してるときは,参加者がどのゴールを求めようとしているのかを自覚したり見極めたりする必要があるなあ,と。議論して勝って気持ちいい!と言う人もいれば,己の思い込みの世界を壊して欲しくない人もいる。別に欲もなく知識を追い求めてる人もいるだろうし。

私のいるアカデミアの世界では,最後の種類の幸福を求める人でありたいと思うし,そう言う人が多い世界であって欲しい。一方で,世間一般的には第一,第二のゴールを求める人の方が多いんだろうなあ,とも思う。

いずれにせよ,人間はどこに行くのか,幸せとは何か,と言うのを一度すごく冷静に見つめるために,心理学の観点や態度を身につけるために,ぜひ学生諸君には読んでもらいたいなあ。



最強のM-1漫才師は誰だ

はじめに

この記事はStan Advent Calendar2017,12月11日のエントリー記事です。

Stanというかベイズ統計を勉強するには,犬4匹本もいいんですが,コワい本もまたいいですね。

コワい本の中に,7人の科学者というお題がありまして。7人がある実験でスコアをとったのだけど,どうも最初の二人は未熟者で変なスコアを出している。残りの5人の熟練者から考えるとスコアは10.00点ぐらいになるはずなんだけど・・・という話があります。これをモデリングするにあたって,真の値は一つなんだけど,評定者ごとに「測定誤差」を持っている,というモデルを立ててます。すなわち,科学者$$k$$によって得られた計測値を$$X_{k}$$とすると,$$X_{k} \sim N(\mu,\sigma_k)$$というわけです。

これを応用して,「評定者のくせを考慮したスコア」というのを算出することを考えました。 データはそう,M-1グランプリです。

データの出典はこちらです。 そして今年の分はビデオを見ながら手入力しました。

結論;ブラマヨが一番すごいんじゃないか

この結論に至る手続きを,以下解説いたします。

手続き

データを取り込みます。審査員は毎回変わりますから,欠損値が多いデータセットです。 元のファイルも置いておきますね。UTF-8のcsvファイルをこちらからダウンロードしてください。

データは次のようにして,縦長に整形しました。

モデルは先ほどと同様で,漫才師(演者)$$k$$の真のお笑いの実力$$\theta_k$$を持っていたとして,審査員(評定者)$$j$$がつけた得点$$X_{jk}$$は$$X_{jk}\sim N(\theta_k,\sigma_j)$$としています。

これで推定した結果をグラフにします。まずは各演者の「漫才力$$\theta_k$$」のプロット。 点がEAP推定値,横幅は50%と95%のHDIです。

かわいそうなDonDokoDon。っていうか皆さん覚えてます?ぐっさんと平畠のコンビなんですが。

ただ,このモデルの中に含まれていることは,「評定者のスコアは100点満点で絶対的な感覚を持って採点している」ということ。だんだんスコアがインフレしているかも・・・というのは仮定していません。初期のメンバーはスコアが低くなりがちですが,ひょっとしたら審査員もみんな慣れてきて,スコアが上がってきたとかってことがあるかもです。

次に審査員の$$\sigma_j$$の結果。これは歪んでいるのでMED推定値にしています。 

立川談志師匠はまあいいとして,意外と大吉先生は評価の幅が大きい。一番小さいのは哲夫(笑い飯)ですが。審査員歴が一番長い松本人志は5点弱のブレのようですね。

Who are king of kings ?

事後分布から

さて,これらのスコアを元に,もし歴代のM-1選手たちが一堂に会し,実力一発勝負をしたらどうなるでしょうか? MCMCサンプルはバーンイン期間を除いて10000点とりましたので,$$\theta_k$$の同時確率空間における順序で一位を取った回数をグラフにしました。それがこちら。

強いのはブラマヨ。ね。

事後予測分布から

違う角度から検討します。実力の通りではなく,評定者との関係というのもあるでしょうから,事後予測分布を使った予測をして見ます。

全てのプレイヤーが,全ての評定者に評価されたと考え,事後予測分布の平均スコアをもとに予測される得点順に並べたのがこちら!

1位はブラックマヨネーズ!

2位はパンクブーブーとミキが同率!

3位はアンタッチャブル,オードリー,サンドウィッチマン,かまいたち,とろサーモン,トレンディエンジェルが並ぶ!

という結果になりますた。 ちなみに,2017年の結果を入れなければ,ミキは入ってこないし(初挑戦だから当然),ジャルジャルは3位に入れてたんですよw

もちろん,順番の問題もあるでしょう。また複数回ファイナリストになった人の実力はひとつ(成長や変化がない)というモデルだという限界はあります。

なにより,これはあくまでも確率です。実現値は常に一つ。可能性は色々あるんだけど,結果は結果。そこに生まれる物語や感動について,ベイジアンは言葉を持たず,ただ感動に浸り,漫才という芸術に感じ入るしかないものだと思います。

Enjoy Bayes and OWARAI!

 

 

追伸 博多大吉先生の評価についてのコメント,ラジオクラウドで聴けます。期間限定かも。是非〜 > 博多大吉のM-1審査員をやって・・・ https://radiocloud.jp/archive/tama954/?content_id=24438



二階差分の状態空間モデル,それより俺はいつからデブキャラになったんだ

この記事はStan Advent Calendar 2017の12月8日の記事です。

Stanの盛り上がりに一役も二役も買った,「StanとRでベイズ統計モデリング」の,読書会があちこちで行われておりますが,去る11月18日に関西学院大学で行われたOsaka.stanも読書会。この本の11,12章でした。この最後の二つの章は,ちょっと複雑で難しいモデリングでもあって,上手に解説していただいたおかげで自分でもできるかも,という気になりますね。

さて,12章の状態空間モデル,これについては私も去年のアドカレ今年のアドカレでもやってるんですが,まあ手習い程度で複雑なモデリングはしてないのです。で,読書会でスピーカーの @masashikomori 先生が「まあ一階の状態空間による予測って,フエルトも減るとも言わずにわからねーっていう信用区間を示しますから,あんまり意味がないですよね。二階差分ぐらいしないとね」というわけです。ま,たしかにそうだと。式を見てもそんなに難しくないわけです。だからやってみようかな,と思ってこのエントリーもしてみました。

二階差分は「差分の差分」なので,「傾きを滑らかにする」ようにモデリングするから,方向性(上昇,下降)をもった予測ができるよ,と。三階になると加速度になるので現実的な空間モデルではよくわかんないとのこと。たしかにそうです。式としてはややこしく見えるんだけど,
$$ u^t – u^{t-1} = u^{t-1} – u^{t-2} + e $$
から
$$u^t = u^{t-1} + u^{t-1} – u^{t-2} + e$$
$$ u^t = 2u^{t-1} – u^{t-2} + e$$

となるだけで,簡単にできるのです。

さて,私は毎朝体重と体脂肪を測定するという趣味を持っていますから,そのデータを今回も使います。データそのものはかなり長くあるんだけど,これの今年度部分を使いたいと思います。2017年1月1日からの体重変化をモデリング!
(今回使ったデータも含めて公開中です。おヒマな方はどうぞ。)

コードはこちら。
観測が欠損値や予測の箇所は,データに9999というありえない数字を入れて,if文で分岐させるようにしています。

これで予測したのが次の図。

帯の濃い色は50%信用区間,薄い部分は95%信用区間。
なるほど,予測線が下を向いてます。これでできてるし,体重は下降傾向。よしよし。

 ・・・ちょっと待てよ。
薄々気づいてはいたんだけど,最近体重がちょっと増え気味じゃないかなぁ。ベスト体重は66kgですよ。そして結婚してからこっち,それを超えて76kgで安定しているのは知っていますよ。それにしても80kgの大台に乗るのはよろしくないなあ。これ,どこかで「デブモード(Dev Mode?)」に入ってしまったのではないか。これを考えるモデルはないだろうか。
ということで,色々考えて見ました。

1. デブモードモデル
読書会11章で読んだ知識を活用します。俺には「普通モード」と「デブモード」の二種類があって,デブモードのときは普通モードよりも体重が高い水準で推移するとします。普通モードになるか,デブモードになるかは確率$$\pi$$のベルヌーイ分布(0/1)になるとします。そんなモデルがこちら。