IBM、AIの意思決定を可視化するツールキット オープン・ソース化

2018年9月25日 11:27

印刷

AIの意思決定の可視化(図:IBMの発表資料より)

AIの意思決定の可視化(図:IBMの発表資料より)[写真拡大]

 IBMは20日、企業のAIに新たな透明性をもたらすテクノロジーを発表した。

【こちらも】グローバル企業の競争、最重要課題は「クラウド」「ビッグデータ」「AI分析」

 画像認識、自動運転、創薬はもとより、囲碁・将棋にも亘り、人工知能(AI)の優位性が認識される一方、AIの深層学習(ディープラーニング)はブラックボックスである。

 深層学習の登場以前は、人間の脳を模したニューラルネットワークの研究が主流であったが、十分な成果が出せずに冬の時代が続く。その冬の時代の2006年、トロント大学のジェフリー・ヒントンが多層にネットワークを畳み込む深層学習を提唱。そして2012年、物体の認識率を競うILSVRCベンチマークにて、従来の手法よりも10%も高い認識率83%を達成した。この画期的なAI手法とそれを可能にするGPUなどの半導体が、AIの新たな時代の幕開けとなる。

 83%の認識率は人間の能力を遥かに超える値らしい。注意深い人間でも70%程度らしく、それを瞬時には見分けることができない。ところが、この深層学習の厄介なことは、何故AIがそのような判断をしたのかが、ブラックボックス、つまり説明できないことだ。実際に、深層学習の生みの親であるジェフリー・ヒントン自身でさえ、ILSVRCでの論文発表で、高い認識率を得た理由やその原理に関する質問に、答えていない。

 企業には、事故などの原因に関する説明責任が伴う。AIがそう判断したでは、済まない事故も考えられる。IBMのAI 2018レポートでは、経営幹部5,000人のAIの有効性と危惧を述べている。企業の82%、そして好調な企業では93%が、収益の確保を主眼にAIの採用を検討する一方、60%はAIの判断における責任問題を危惧しているという。

 今回の発表では、AIが意思決定を行う際に自動的にバイアスを検出し、AIがどのように意思決定したかを説明することが可能という。ソフトウェア・サービスの名称は「AI Fairness 360ツールキット」であり、AIの信頼性と透明性を増す。

●「AI Fairness 360ツールキット」の特長

 IBMのクラウド上で稼働するこのサービスは、IBMのAIであるWatsonのみならず、Tensorflow、SparkML、AWS SageMaker、AzureMLなどの深層学習フレームワークとモデルに対応。つまり、多くの企業が採用している一般的なAIに対応するという。

 可視化の詳細な言及はないものの、「意思決定が行われるタイミングで意思決定の説明とAIモデル内のバイアスを検出」とあることから、ニューラルネットの因果関係のトレースや特異な決定因子を監視することで、潜在的な不具合を見つけるようだ。

●AIの可視化(IBM、「AI Fairness 360ツールキット」)のテクノロジー

 オープン・ソース・コミュニティーに「AI Fairness 360ツールキット」を提供し、AIモデル内のバイアス確認と軽減に役立てる構想だ。世界中のオープン・ソース・コミュニティーとの協働で、AIの可視化をIBMの強みとするのであろう。

 AI 2018レポートでは、経営幹部5,000人の回答で、63%はAIを確実に管理するための人材が社内にいないとの報告もある。このAI管理領域へのサービス拡大を目論む構想であろうか。(記事:小池豊・記事一覧を見る

関連キーワード

関連記事