黄昏通信社跡地処分推進室

黄昏通信社の跡地処分を推進しています

『人工知能は人間を超えるか ディープラーニングの先にあるもの』 松尾豊著 KADOKAWA/中経出版(角川EPUB選書),2015/3

人工知能の概観本。ソフトカバーでページ数や記述量自体はさほど多くなく、前提となる知識も必要なく読める。こういうのなんていうんでしょうか。カテゴリとしては「新書」でいいんじゃないかと思うんだけど、新書ってどうしても新書版の書物ってイメージはあって。


さておき、著者によると現在は三度目の人工知能ブームだという。一度目が人工知能と言う概念が生まれた 1960 年代。二度目が 1980 年代。そして今回が三回目。実際いまは右を見ても左を見ても AI AI という状態で――というと流石に言い過ぎだけど、普通にニュースとかで AI って言葉がばんばん使われている。これは確かにブームと言ってよろしかろう。


一度目のブームの時は、そうは言ってもまだできることは限られていた。コンピュータの演算能力もメモリも今とは比べ物にならないほど乏しかったし、みんななにをどうしていいかわからなかった。それでも「人工無能」なんてものができて、驚くべきことにそれはそれなりに知能っぽく見えた(これはむしろ人間の認知の側のバイアスだろうと著者は書いている)。
二度目のブームの時は、いろいろなコンピュータ言語ができたり、それなりの演算能力やメモリがコンピュータに備わってきていた。しかし今思えばまだまだ不足だった。
著者によると、ブームが去るたびに人工知能界隈には「冬の時期」が訪れるらしい。世間の風当たりが冷たくなり、研究費がぜんぜんつかなくなる。著者がまだかけだしの研究者の頃、ある研究費に応募したときに審査員に面と向かって「あなたがた人工知能研究者は嘘ばかりついている」と吐き捨てるように言われたことが著者は未だに忘れられないという。うわー、やだね、こういうの。競争的資金の闇の部分を見た感じだ*1。まあ無限に予算があるわけじゃないのも確かなんだけども、あなたのお金ってわけでもないでしょうに。


それで、今回が三度目のブームだ。またコンピュータの能力は上がった。ずっと指数関数的に上がり続けていたのだから 20 年も経てばたいへんなものである。もうひとつ前回までと決定的に違うところがひとつある、と著者は述べる。インターネットだ。インターネットと、そこを流れる膨大な情報だ。なにしろ莫大なデータをいろいろな形で手に入れられるようになったことは大きい、のだという。莫大な情報とそれを処理できる計算能力があって、ブレイクスルーがもたらされた。


さて、人工知能人工知能として機能するためには、入力される有象無象の情報を認識しなければならない。たとえば猫の画像データを放り込んだら「これは猫である」という出力が返ってくるという装置を作ることは実は現時点ではめちゃめちゃ難しい。人間にはいともたやすい作業なのに。これを機械にやらせようと思うと、一番単純には、猫の姿が画像にどのように表れ得るかを定義して、それと入力された画像データを比較して、みたいな話になってくるが、「猫の姿が画像にどのように表れ得るかを定義」なんてできるはずがない。
そうじゃなくて、装置そのものに猫のなんたるかを学ばせなければならない。それが「機械学習」。
機械学習にはざっくり言うと教師あり学習教師なし学習があって、教師あり学習はこの例の場合だと大量の画像データを読みこませてそれぞれのデータに「猫」もしくは「非猫」というタグをつけておく、という方法になる。教師なし学習は、ただ大量に画像データを読みこませてその中から装置自身に猫の特徴を学ばせるというやり方だ。


機械学習においてその「特徴」を抽出するときに使われるのが「ニューラルネットワーク」。これは人間の脳神経回路を模してデザインされた数学的モデルで、これ自体は古くからあるらしい。数学的にいうと「任意の関数が近似できる」という特性があって、なにかできるんじゃないかとは考えられていた方法だけれど、大量の計算を要するため日の目が当たらなかったやり方らしい。
ニューラルネットワークに学習をさせるためには、出力されるデータと「正解」をつき合わせて、不正解の場合は内部のパラメータを変更してもう一回試す、という過程が必要になる(ここで大量の計算が要る)。というわけで「正解」が必要になるのだけど、今の機械学習ではその「正解」に元の入力したデータを使っている。これを自己符号化器という。*2
つまり、大量のデータをつっこんで、特徴を抽出させる。その抽出した特徴をもとに今度はデータを出力させる。それを元のデータと突き合わせる。誤差を減らすように特徴抽出のやり方を変えて、また出力する。こうして正しい特徴抽出を学んでいく。
いやー、このやり方はすごいと思った。なにしろ正解が要らなくてただいっぱいデータを喰わせればいいというのだ。
……というのは、厳密に言うとうそで、実際にはこの方法だと「なんだかわからない特徴」がいろいろ抽出されることになる。ので、その特徴のうち猫の特徴であるものを「猫」という概念とひもづけることは人間が手を加えなければならない。でもこれは「猫の姿が画像にどのように表れ得るかを定義」することに比べればずっと現実的だ。もうひとつ、データはただ喰わせているだけじゃだめで、適度にノイズを載せたデータをたくさん喰わせることでより精度が上がるらしい。このあたりの方法論というのもブレイクスルーのためには必要だったそうだ。計算力とデータ量は必要条件だったけど、それだけでは十分条件ではなかったということ。


あ、話が前後してしまったけど、「ディープラーニング」では、このニューラルネットワークを複数層重ねて学習を行う。つまり、抽出した特徴を次の層にデータとして放り込んで、さらに特徴を抽出させる。それをまた次の層に放り込んで……という多層のネットワークを作って学習させる。こうすることによって精度が上がるということだ。強いて人間の概念に翻訳すれば「特徴の特徴」とか「特徴の特徴の特徴」とかを抽出することになって、直感的にはなんの意味があるんだろうと思うけれどそれが実際にパフォーマンスにつながる。


もしかすると、人間の認識ってのもこんなようなものだったりするのだろうか。もしそうだとすると、人間は理解ってものを理解してないことになる。でも、意識ってのはしょせんサブシステムの泡の上に浮かぶ浮島のようなもの――であれば、意識ができることよりも脳ができることの方が複雑なのはむしろ当たり前だ。まあでももちろん、人間の脳はまた全然違う方法を使っているかもしれない。それも同じようにありうることだとも思う。


閑話休題。本書では、この「認識」という部分で大きな前進が起きたから、人工知能そのものも大きな進歩が期待されると書いている。ただそのあたりの話は駆け足で、とってつけたような印象も受けた。もともとが役所向けのレクから始まった本、というようなことがまえがきに書かれていたので、おそらくその時の説明用の内容が残っているのだと思う。まあ蛇足とまではいわないけど本編部分に比べれば……という感じだった。


あと印象に残ったのは、コンピューターによる将棋やチェスのプログラムに言及したパートで、

囲碁は、将棋よりもさらに盤面の組み合わせが膨大になるので、人工知能が人間に追いつくにはまだしばらく時間がかかりそうだ。

と書かれていたこと。AlphaGo がイ・セドルを打ち破ったのはこの本が出てからわずか一年後だった(おそらく「しばらく」は数年ぐらいのスパンは想定していただろう)。かくもわかりやすくこの分野での進歩は速度を増している。そのことに空恐ろしさを覚えないでもないが、どちらかといえば期待の方が大きい。この先の世の中で、AI はどのように発展して、活躍してゆくだろうか。





上の文には入れられなかったけど印象に残ったこともうひとつ。
コンピュータに世界を知らしめようとして、あらゆる「一般常識」をコンピュータに入力して、それをベースに推論システムをつくりあげようというプロジェクトが 1984 年に始まったそうだ。その名も cyc プロジェクト。読んだ瞬間に「シーシュポス」という単語が頭に浮かび、つまり無謀としか思えなかったが、なんと 30 年以上の時を経て今でも続いているらしい。日の目を見る日が来るのだろうか。

*1:というわけだから国立大学への運営費交付金をふやそう(棒読み)

*2:統計の世界ではこれは主成分分析というそうです。統計はまったく学んだことなくて、ちょっと一度どこかで本腰入れて勉強した方がいいのかも……。