Google、機械学習で結論に至った理由を分析するツール「Explainable AI」発表

2019年11月27日 17:43

小

中

大

印刷

記事提供元:スラド

 Anonymous Coward曰く、

 昨今の機械学習技術においては、入力に対しなぜそのような出力が得られたのかを分析することが難しい。この問題に対処するための研究も進められているが、その成果の1つとしてGoogleが「Explainable AI」(説明可能なAI)というツールを公開した(CNET Japan)。

 Explainable AIは、解釈可能かつ包括的な機械学習モデルを開発し、信頼してデプロイするためのツールおよびフレームワーク集。特徴量を理解したり、デールの振る舞いを視覚的に調査することを助けるという。

 データ中の特徴量が結果にどのような影響を与えたかを定量的に提示でき、これによってアルゴリズムがなぜそのような結果を出力したのかを理解しやすくできるという。例えば、誰かに対する融資の承認可否を決定するモデルの場合、Explainable AIは口座残高や信用度が最も重要なデータであることを示してくれるのだという。

 なお、説明可能なAIについてはそれに意味があるのかと疑問を呈する声もあった(Computerworld)。

 スラドのコメントを読む | ITセクション | Google | ソフトウェア | 人工知能

 関連ストーリー:
Apple Cardの利用限度額が男女で異なるとの問題、利用限度額の算出アルゴリズムに性別データは使われていないことが明かされる 2019年11月26日
AIを使って農家の人相からその農家が育てた野菜の糖度を推定するシステム、特許申請却下 2019年08月13日
AIが構成したテレビショッピング番組で入電件数が3割増えた 2019年06月12日
GoogleのAI倫理委員会が人選で揉めた結果、発足1週間で解散へ 2019年04月18日

※この記事はスラドから提供を受けて配信しています。

関連キーワードGoogle

関連記事

広告