■■□
Googleのアルファ碁(AlphaGo)という人工知能が、囲碁世界最強クラスのイ・セドル9段に勝ったそうだ。(これを書いている時点でアルファ碁の3勝1敗)
囲碁のルールを知らないので勝負の中身はまったくわからないけど、ヤバイと思ったのは、アルファ碁の手が解説者が首をひねるくらい意味不明なのに、結果として勝ったらしいことだ。
自分の理解としては、アルファ碁には定石とかアルゴリズムの概念はなくて、とにかくものすごい回数の実戦(3000万回)を通じて学習し「ここに石を置いたらよさそうだ」ということだけがわかっている、て感じなんだけど、合っているか自信はない。
合っているとすると、アルファ碁は自分がどうして勝てたか説明できなそう。「3000万回の経験からするとそこに置くのが妥当デス」くらいしか言えなそう。納得できる「理由」てのはすごく人間的な概念なのかもしれない。人間的で不完全な。でも「理由」は少ない情報で再現性を持たせる合理的な手段なのかもしれない。「○○だから」「あーなるほど」ですませられる。人工知能は学習した膨大なデータをまるごと渡すしかない(たぶん)。
ところで、アルファ碁の考えが人間に理解できなくてもきちんと正解を導き出せたのは、正解があるからだ。
もっとちゃんと言うと、アルファ碁の出した答えが正しいと人間に理解できるのは、囲碁という勝ち負けがはっきりしたゲームの結果だからだ。アルファ碁が勝ったんだからアルファ碁の計算は正しい。と人間は理解できる。
となると、結果がはっきりしないもの、勝ち負けのように明確な答えがないものについて人工知能が出した答えは、それが正しいと人間に判断できるのか、そこがよくわからない。
なにか証明する手段があるのか。それとも、何度かテストしてみてどうやら合ってそうだからとゴーを出すのか。それとも、複数の別の学習した人工知能同士で多数決でもとるのか。それってエヴァのマギシステムとかマイノリティ・リポートのやつそのまんまだ。
とっくにSFの世界に足つっこんでたってことなのだろうか。