甘利俊一著「情報理論」の「雑談」

先日買ってきた甘利俊一氏の「情報理論

を読んでいますが、各章節の最後に「雑談」というセクションが設けてあります。まだ最初の雑談しか読んでいませんが、なかなか面白くて、かつ、骨があって、消化するのにこちらの能動的な働きかけを要求する性質のものです。最初の「第1章 情報の数量的認識 第1節 情報とエントロピー」の末尾の雑談にはこんな話が載っています。

相互情報量のところでは、いろいろと楽しい問題を作ることができる。私は以前に次のような問題を試験に出したことがあった。

「○×をつける問題が試験に出たが、当たる確率は五分五分でどちらをつけてよいかさっぱりわからない。隣にすわるは秀才で鳴るA君である。彼はわからないときはよく○につける傾向があり、彼が○をつけたときは、その正解率は70%、彼が×をつけたときはその正解率は90%である。ここでこっそりカンニングをして、A君の答えを見ることにしたいのだが、それによって得られる情報量を求めよ。」

このとき、B君が手をあげた。
「先生、質問があります。」
「なんだ。」
「私は理論のほうは苦手で、実験が得意です。それで、この問題を実験によって解いてはいけないでしょうか。」

なかなかのウィットです。
ところで、この問題の解答は残念ながらこの本には載っていません。そこで、私の答案をここにアップしておきます。あっているかどうか、よく分かりませんが・・・

私の解答

正解の事象をA、A君の回答をBで表す。そして正解が○であることをA_1で、×であることをA_0で表す。A君の回答が○であることをB_1で、×であることをB_0で表す。
まず「当たる確率は五分五分」なので、事象の確率をp(\cdot)で表すと 、

  • p(A_1)=\frac{1}{2}p(A_0)=\frac{1}{2}

A君が○をつけたときの正解率が70%なので、

  • p_{B1}(A_1)=0.7p_{B1}(A_0)=0.3

A君が×をつけたときの正解率が90%なので

  • p_{B0}(A_1)=0.1p_{B0}(A_0)=0.9


まず、A君の答案を見ない場合のAエントロピーH(A)

  • H(A)=-\frac{1}{2}\log\left(\frac{1}{2}\right) -\frac{1}{2}\log\left(\frac{1}{2}\right)=1


次にA君の答案を見たあとのAエントロピーH_B(A)

  • H_B(A)=p(B_1)\left[-p_{B1}(A_1)\log\left(p_{B1}(A_1)\right)-p_{B1}(A_0)\log\left(p_{B1}(A_0)\right)\right]
    • +p(B_0)\left[-p_{B0}(A_1)\log\left(p_{B0}(A_1)\right)-p_{B0}(A_0)\log\left(p_{B0}(A_0)\right)\right]
    • =p(B_1)\left[-0.7\log(0.7)-0.3\log (0.3)\right]+p(B_0)\left[-0.1\log (0.1)-0.9\log(0.9)\right]
    • =0.881p(B_1)+0.469p(B_0)

よってH_B(A)を求めるためにはp(B_1)p(B_0)を求めなければならない。

  • p(A_1)=p(B_1)p_{B1}(A_1)+p(B_0)p_{B0}(A_1)
  • p(A_0)=p(B_1)p_{B1}(A_0)+p(B_0)p_{B0}(A_0)

だから

  • \frac{1}{2}=0.7p(B_1)+0.1p(B_0)
  • \frac{1}{2}=0.3p(B_1)+0.9p(B_0)

これらを解くと

  • p(B_1)=\frac{2}{3}p(B_0)=\frac{1}{3}

これらを上のH_B(A)の式に代入すると

  • H_B(A)=0.744

よってA君の答えを見ることによって得られる情報量は

  • H(A)-H_B(A)=1-0.744=0.256(ビット)

A君が秀才と呼ばれている割には(?)カンニングで得られる情報量は少ない。