AIの抱える問題点 「判断の理由が分からない」ことの「不透明性」

2019年9月15日 17:24

小

中

大

印刷

 AIが普及し始めている。「役に立たないAIばかりだ」と嘆く声も大きいのだが、その中の大半は、AIに対する理解が進んでいないことへの反発であろう。

【こちらも】AIは差別を助長する!? 人工知能に刷り込まれた認知バイアス

 AIは大いに利用していかねばならない新技術だが、「判断の過程が表面に出ない」ことが大きな問題であると認識できるだろうか?「結論だけ示され、理由が分からない」といったことが多く起きている。人事採用のAIシステムでも、「採用、不採用」と結論が出ても、その理由が示されないことが多い。理由を説明することは、社会的に考えて必要であろう。

 これはAIの特性によるところであり、大量のデータの分類整理により傾向を発見し、新規に起きたことの正否を判断するという、極めて「保守的」なのがAIによるデータの使い方だ。「まだAIは半人前」と言えなくもないのだが、現状では「正解」とみなす傾向が強い。

 「データに左右されやすい」との特徴にも関係するのだが、過去の大量のデータに基づいて、その法則性の中でしか判定できないことは現状の限界である。

 例えば、人事採用システムにおいて、AIによる判定で「不採用」となったとき、AIは「不採用の理由」を示すことが出来ない。それは、今回判断された人が、過去に判断された人のデータに比較して見ると、「2、3年後に退社してしまう傾向が高い」などと判断されてしまうからだ。AIが示したその結論に人間が解釈を加えようとすると、何かしっくりこない論理展開となってしまう。

 AIの判断は、今のところ「過去のデータによると・・・」となるのであり、将来に期待する判断はない。いわゆる「ポスレジのバカ(潜在市場は示せない)」と同じことだ。

 だから、過去のデータは過去から抜け出せるはずはない。過去を超えた、新しい人材を見つけることが出来ないのだ。これは、AIが「データに左右される特性」であるからだ。これに「制御不可能性」という特性を挙げると、AIが抱える「3大問題点」となってしまう。

 過去のデータから未来の可能性を見つけるAIについての論理を、早く考え付かねばならない。人間性の大事な部分には「先見の明」というものがあり、それをAIにも当然要求されるからだ。

 人類は、不確実なものを確実としたいがためAI導入を図るのだが、実際の判断には「人間が介入する」ことが、しばらくは必要であろう。(記事:kenzoogata・記事一覧を見る

関連キーワード人工知能(AI)

広告