【記事】上司から「AIで何とかしろ」といわれたら

「ロボットは東大に入れるか」プロジェクトディレクター 新井紀子

若手データサイエンティストが集まる会で、人工知能(AI)をテーマに講演をする機会があった。講演後の雑談で「会社の上層部から『なんでもいいからビッグデータを集めて、AIでなんとかしろ』と言われて困っている。そんなのは幻想だ、と言ってもらえないか」と頼まれた。

ai20160920-01.jpg

あらい・のりこ 一橋大学法学部卒、米イリノイ大学大学院数学科修了。理学博士。2006年より国立情報学研究所教授。「ロボットは東大に入れるか」プロジェクトディレクターを兼務。

 

元記事はこちら。

あまりに気の毒なので、この場を借りて、ご依頼にこたえようと思う。

まずはAIの精度をどのように測るべきかについて考えてみよう。たとえば、画像認識。写真に何が写っているかをAIがどれくらい正しく認識できたかを測定するにはどうしたらよいか。

1枚の写真には、解釈の仕様によっては無数の対象が写っている。空、草原のような背景、青や白のような色、ハコベやシロツメクサのように草原を構成する植物の種類など。これではどのような出力が許容される正解なのかが判定できない。

そこで、あらかじめ千個の対象(例えばダックスフントやおむつ、ビキニ、ペットボトルなど)を定め、何が写真の中央付近に一番大きく写っているかを当てるタスクで便宜的に画像認識精度を測ることにする。

このようにタスクを限定することで、どのようにデータを収集し機械に学習させるべきかのめどが立つ。すると、膨大なデータの学習の結果、AIが人間の精度を上回ることはしばしばある。

だが、画像認識問題を分類問題で間に合わせようとすると、意外な問題が生じる。AIは初めて見たものにどう反応するかが、わからないのだ。

新商品のポテトチップスの袋を初めて見たとき、人間ならば「ああ、菓子袋か」と思うだろう。しかし、AIがどう判断するかはわからない。AIと人間では画像を認識する際の仕組みがまったく違うからだ。これが自動運転車を実現する上で大きなリスクとなる。

自動運転車を実現する上で、もうひとつ重要なAIの技術が強化学習だ。運転には連続的な判断が求められる。望ましい結果(障害物に接触しない、なるべく短時間でゴールに到達するなど)を達成できたときに報酬を、できなかったときにペナルティーを与えることを繰り返す。これで最適な判断を学習させる。

つまり、AIを設計したり、精度について論じたりする前に、AIに何を入力し、何を出力させるべきかをまずは定義しなければならない。自動運転では、入力が何かを定義することは難しいが、出力は基本的にハンドル操作とアクセルとブレーキの制御だけなので定義しやすい。

入出力のほかに、もうひとつ定義しなければならないのが、出力と正解との乖離(かいり)、つまり「どれくらい正解に近いか、遠いか」を測る距離である。AIは正解からの距離を0にすることや、報酬が最大化することを目指して学習せざるを得ないのだ。

これらの3つの定義が決まり、データが収集できる見込みが立てば、AIを設計できる。だが、人間の知的活動の多くは、何が入力で何が出力なのかを数学的に定義すること自体が難しい。

「価値の高い材料を開発する」「窓口に来た客の問題解決をうまく支援する」というような活動は、何が入力で何が出力で何が正解なのかは判然としない。どれだけ正解から遠いのかも数学的に測れそうにない。やみくもにデータを収集しても骨折り損のくたびれもうけになる可能性が高い。

それでも「AIが人間の能力を上回るシンギュラリティーが来るのではないか」と思う方がいるかもしれません。悪いことは言いません。AIについて思索するのは高尚な趣味になさって、社内のAI活用については、理論に通じているデータサイエンティストに任せることをお勧めします。

[日経産業新聞2016年9月8日付]


Comments

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です