- 作者: アジェイアグラワル,ジョシュアガンズ,アヴィゴールドファーブ,小坂恵理
- 出版社/メーカー: 早川書房
- 発売日: 2019/02/06
- メディア: 単行本(ソフトカバー)
- この商品を含むブログを見る
予測自体にも危うさはまだまだある。サブプライムローンの破綻を金融業界が予測できなかったのは、適切なモデルが作られていなかったからだ。それは回帰法がエンジニアの独断に頼っていたからで、別々の地域の不動産価格は連動しないとしていた設定がそもそも誤りだった……みたいな話が出ているのだけど、あれ、でもそれって過去の事例ではそれで問題なかったからそういう設定になってたんじゃないの? と率直に思ってしまう。そうだとしたらエンジニアの所為とかじゃなくて予測自体の限界なんじゃないんだろうか。
あることのコストが下がるとそれに直接関わる周辺のものごとの価値が上がる、というのは面白い視点で、だから AI によって人間の仕事が奪われたとしてもそれに関連する仕事は逆に価値が上がるはずだからあんまり心配するな、という。わからないでもないのだけど多分楽観的すぎて、これまでの相場ってのはなかなか変わらないんじゃないかな。価値が上がるはず、という状況と実際に対価が上がることの間には若干のギャップがあって、そこがイコールだととらえるのはいささかピュアすぎる。
こんな予測ができたらこんなことができるぜ、という思考実験としては面白いけれど、あまりにも理想的な予測が前提になりすぎていて、ちょっと浮き足立っている感じはあった。おそらくどれほど精度が高い予測ができるかについては分野によってめちゃくちゃむらがあるはず。そういうことを地道に見極めていくことこそが、今の時点で AI についてとるべき態度なのではないだろうか。
- メモ。
- 人間の得意な予測と苦手な予測があるという話。これは疑いの余地がない。ひとことで言えば人間は目立つ情報を重視しすぎるという。『マネーボール』(セイバーメトリクス)はそこを見事に逆手にとった事例だった。とはいえもう十五年以上前。
- これは本筋とあまり関係ないのだけど、かつて行われたニューヨークの消防士試験には読解力のテストがあり、ざっくり言えば黒人とヒスパニックの成績が悪かった。後年、このテストは消防士の適性とは関係ないので差別であると認定された――という事例が紹介されていた。なるほど、たとえばこの結果の傾向をあらかじめ知っていれば、正当なテストのふりをして黒人とヒスパニックを排除することができてしまう。理屈はわかるのだが、これを突き詰めると適性に関係ないことは一切問うてはいけないことになってしまいそうでちょっともにょる。