【記事】【日経】人工知能の光と影(下)「人間の脳を超越」あり得ず

人工知能の光と影(下)「人間の脳を超越」あり得ず 
機械知より生命知に強み 西垣通・東京経済大学教授

 囲碁の名人を米グーグルの人工知能(AI)「アルファ碁」が破ったことで、AIに対する世間の期待は高まる一方だ。人間はチェスや将棋ではもう歯が立たない。組み合わせ数が膨大な囲碁は最後の牙城だったが、ついにこれも攻め落とされてしまった。

Ai20160907 01

元記事はこちら。

 それだけではない。AIが大学入試問題を解く能力も年々上がっている。近々、外国語の翻訳もスマートフォンが自動的にしてくれるらしい。「コンピューターが人間より頭が良くなるのは、もう時間の問題だ」という確信に満ちた声も聞こえてくる。

 だが、そうなると困ることもある。ホワイトカラーの仕事が奪われるかもしれない。やがて国内労働人口の約半分の仕事がAIに代替されるという調査報告も昨年発表された。未来のAI社会は一体、幸福なのか、不幸なのか……。

 言っておこう。こうした期待や心配は大きな誤解に基づいている。囲碁や将棋のAIソフトはすべて人間がつくったものだ。つまり普通の人間でもコンピューターの力を借りれば天才を負かせるというだけの話だ。百科事典を丸ごと記憶しているコンピューターが入試用の暗記問題を解いたところで驚くことはない。

 とうの昔から、機械の能力は部分的には人間をしのいでいる。だが自動車とマラソンをして負けたからといって、騒ぐ人がいるだろうか。「頭が良い」とは本当はどういうことなのか、きちんと考えてみなければならない。

 ただし、世間の大騒ぎにはそれなりの理由がある。2010年代後半に入って、AIが新たな産業革命を起こし、近未来社会を変えるという議論が専門家の間で急速に盛り上がってきた。

 グーグル、米マイクロソフト、米IBMなどの企業は既に巨大な研究プロジェクトに着手している。日本でも今年4月に政府主導で人工知能技術戦略会議がつくられ、産官学一体となってAI研究を進めるという。そこでは膨大な経済効果が見込まれている。とはいえ成果を上げるためには欧米の後追いより、まず機械と人間の知に対する深い考察が不可欠ではないか。

 現在のAIブームは第3次だ(表参照)。第1次は1950年代、第2次は80年代で、ともに期待外れに終わった。とりわけ日本が80年代に開発した第5世代コンピューターは、500億円以上の予算をつぎ込んだあげく失敗したプロジェクトとして知られる。その反省から始めないと、同じ轍(てつ)を踏むだろう。

 コンピューターは論理機械だ。正確な論理操作をすれば、答えが誤ることはない。だからこそ優れた「人工の知能」に値するというのが第1次AIブームの時の発想だった。だが純粋な論理操作だけで解決できる問題は、簡単なゲームやパズルくらいしかない。

 この挫折から、多くの「知識」をメモリーに蓄積しておき、それらを組み合わせて推論するという発想が出てきた。これが第2次AIブームだ。例えば医学知識をデータベースに貯蔵し、患者の検査データと組み合わせて病名を診断しようというわけだ。医者のような人間のエキスパートの代わりをAIが務めるので「エキスパートシステム」という名がついた。

 この第2次AIブームはなぜ衰退したのか。知識の活用で応用範囲は広がったが、答えの精度が落ちる恐れが出てきたからだ。人間の知識は正確無比とは限らない。検査データと病名を結ぶ医学知識にも曖昧さはあり、だから誤診が生まれるのである。人間のエキスパートは何とか直観を働かせるが、AIには無理であり、そこに挫折を招く根本的問題があった。

 日本の第5世代コンピューターの失敗の原因は、この難問から目をそむけ、ただ推論操作の高速化だけに取り組んだ点にあったのである。

 第3次AIブームを起こしたのは「深層学習」という技術だ。画像や音声などのパターン認識は昔からコンピューターの苦手な分野だったが、深層学習はここに画期的なブレークスルー(技術突破)をもたらした。従来のパターン認識では通常、人間が外部から、パターンの特徴を機械に与える。だが深層学習を用いるAIは、自分で特徴を抽出してしまうのだ。

 有名な「グーグルの猫認識」は、動画投稿サイト「ユーチューブ」の1千万の動画から自動的に猫の画像を取り出してみせた。さらに深層学習のプログラムは、脳神経に似た構造を持っている。こうして「人間の脳に近い機能を持つAIが誕生し、自分で概念を把握できる」という思い込みが生まれてしまったのだ。

 専門家でもこうした思い込みを述べる者がいるが、これは完全な誤りだ。深層学習は優れた技術だが、あくまでパターン認識において有用であるにすぎない。実際に行っているのはビッグデータの統計処理であり、人間の脳における社会的・言語的な概念の処理と直接関係づけるのは困難だ。例えば自由とか国家といった概念を、統計処理のみから導き出すことなど不可能だろう。さらに統計処理はデータ群の全体的特性を抽出することはできるが、個別のケースでは間違える場合もある。

 この点は重要だ。AIは論理的正確さが売り物だが、深層学習では誤りの可能性を排除できない。具体的にいうと、AIが猫か犬か分からない奇妙な動物の画像を「認識」してしまう場合もある。深層学習の応用の現場では、AIが行った分類を、人間の概念分類に合致させるチューニング(調整)作業にかなりの手間がかかる。

スポンサーリンク

シェアする

  • このエントリーをはてなブックマークに追加

フォローする

スポンサーリンク
%d人のブロガーが「いいね」をつけました。