周回遅れの日本のAI報道

2018-09-05 07:16

地道に少しずつあがっている成果となんの関係もなく、「なんでもAIで解決」の状況が続いてる日本である。

そうした無条件万歳記事も、「そんなことはないだろう」という冷笑する記事も平たくいえば周回遅れである。すでに実践し、その結果を冷静に分析する本が出版されているらしい。

ニューヨーク州立大学オールバニ校の政治学者ヴァージニア・ユーバンクスは、今年1月に出版された『Automating Inequality』(自動化された不平等)で、アルゴリズムを使った意思決定システムの失敗例をいくつか紹介している。なかでも胸が痛むのは、ペンシルヴェニア州アレゲニー郡の自治体が導入した、児童虐待に関する相談電話のモニタリングにデータを活用する事例だ。

(中略)

虐待のひとつにネグレクト(育児放棄)があるが、ネグレクトの危険性を示す兆候は貧困層の児童に見られる特徴と重なる部分が多い。例えば、極度の貧困で紙おむつを買えないからといって、それは育児の放棄には当たらない。しかし、アルゴリズムに判断を任せれば、そういった状況が虐待の恐れがあると見なされ、子供が公共の保護施設に入れられることが起こり得るのだ。

引用元:AIは未来を予測しない。いまを映す「鏡」である:伊藤穰一|WIRED.jp

お金がないからおむつが買えない。子供を愛して世話をする意欲は満々なのに。しかしAIにかかるとそれは「育児放棄」であり、親から子供を引き離すべき、と判断されるというわけだ。

ここ数年「AI」と呼ばれているものは、大量の学習データを利用したパターン認識システムである。つまり引用先の文章で伊藤氏が言っている通りそれは「現状の鏡」でしかない。それは確かに役立つ。正解集合が時間的に安定している場合に限ってだが。そうしたパターン認識がうまく動くためには滅多に言及されない暗黙の前提が必要となる。つまり

「学習データと現在とで”正解”の定義が変化しないこと」

が絶対に必要なのだ。そして過去幾多の人が喝破した通り「世界は変化し続ける」

更に言えば、前掲の例で示された通り「それは本当に問題の解決になっているのか」は人間が常に考えなければならない。こうしたパターンが抽出された、は誠に結構だがそれが何を意味しているか考えなければならない。

便利で強力なツールであることは確かなのだから、いい加減「うまくいかない例。失敗例」の報道がもっとあってもいいと思うのだけどね。