Chako

2017年12月14日2 分

「説明できるAI」(2)なぜ猫なのか?

先日の「説明できるAI」の第二弾です。

機械はどうやって「猫」を判断するか

上の図は現在のAIが「ブラックボックス的」であり、そして「説明できるAI」プロジェクトでは何をしたいのか、をDARPA(米国国防省の技術革新プログラム)が示した図で、Explainable AIの説明によく見かけられます。

歴史をたどると機械学習以前の普通のプログラムでは、コンピュータに「猫」を判断させるにはプログラマーの人手で色々な情報を入れていた。つまりとんがった耳がある、足が4本ある、ひげがある、顔の形がこんな感じ、などかなり膨大な特徴を人手デンソーで入力しなければならなかったわけです。

それが機械学習、特にDeep Learningの発展により、膨大な量の「猫の画像」をインプットすることにより機械が勝手に「猫だ」と判断するようになったわけ。これは便利で人手の省力化にはなるのだが、ここで出てきた問題は、データを入れると中の分析はまさにブラックボックスで、機械がどういう理由で「猫」と判断しているのかはわからない。

私: この画像は何ですか?

ロボット: 猫だ

私: どうして猫だと思ったの?

ロボット: ...

これが今の状態。それを、下記のようにもっていきたい、というのがXAIの目指す物のようです。

私: どうして猫だと思ったの?

ロボット: 毛皮・ひげ・爪があって、しかも耳の形にこれこれこういう特徴があるから「猫だ」と判断しました。

まあつまり、以前はプログラマーが人手で機械に教えていた内容を、逆に自然に学習した機械がアウトプットできる、ということなんですね。

国防省主催のプロジェクト

前回のブログにも書いたDARPA主催によるExplainable AI(XAI)プロジェクトですが、こちらが募集広告のページです。

まあ要するに、上記の目的を実現したいけどどういう方法がいいのか現時点ではわからないから色々なやり方を公募して、暫くやってみていい方法を見つけたい、と言うことのようです。

次回はこの募集で、今年(2017年)夏あたりから選ばれたプロジェクトががぼちぼち発表されているようなので、公開されているものから見てみたいと思います。

ご意見・ご感想はchako (at) candoadvisors.com までお寄せ下さい。すぐにお返事いたします。

    0