Google、機械学習で結論に至った理由を分析するツール「Explainable AI」発表

2019年11月27日 17:43

 Anonymous Coward曰く、

 昨今の機械学習技術においては、入力に対しなぜそのような出力が得られたのかを分析することが難しい。この問題に対処するための研究も進められているが、その成果の1つとしてGoogleが「Explainable AI」(説明可能なAI)というツールを公開した(CNET Japan)。

 Explainable AIは、解釈可能かつ包括的な機械学習モデルを開発し、信頼してデプロイするためのツールおよびフレームワーク集。特徴量を理解したり、デールの振る舞いを視覚的に調査することを助けるという。

 データ中の特徴量が結果にどのような影響を与えたかを定量的に提示でき、これによってアルゴリズムがなぜそのような結果を出力したのかを理解しやすくできるという。例えば、誰かに対する融資の承認可否を決定するモデルの場合、Explainable AIは口座残高や信用度が最も重要なデータであることを示してくれるのだという。

 なお、説明可能なAIについてはそれに意味があるのかと疑問を呈する声もあった(Computerworld)。

関連記事

最新記事