「機械学習は人工知能ではない?」 狭義ではまだ人工知能とは言えないAI?

2019年12月26日 09:38

小

中

大

印刷

画像はイメージです。

画像はイメージです。[写真拡大]

写真の拡大

 「機械学習の利用による公平性を保てるのか」の議論が行われている。機械学習技術の研究者コミュニティ(学会)「人工知能学会倫理委員会」「日本ソフトウェア科学会機械学習工学研究会(MLSE)」「電子情報通信学会情報論的学習理論と機械学習研究会」が、機械学習の利用によって公平性に問題を広く一般に伝えるため、12月10日に声明を発表している。

【こちらも】人工知能は人間を代替しない! AI兵器への赤十字の提言 責任を負うのは誰か

 声明では、以下の2点を重要事項としてあげており、内容を一部抜粋する。

■学会の声明「機械学習と公平性に関する声明」

 (1)機械学習は道具にすぎず人間の意思決定を補助するものであること。
 “機械学習は過去の事例に基づいて未来を予測しますから、偏りのある過去に基づいて予測する未来は、やはり偏りのあるものになりかねません。もし、過去と異なる「あるべき未来」を求めるのであれば、機械学習による予測や判断が公平性を欠くことがないように人間が機械学習に注意深く介入する必要があります。”

 (2)私たちは機械学習で公平性に寄与します。
 “機械学習によって公平性に起きうる問題を防ぐだけでなく、機械学習をきっかけとして公平性のあり方を定義、議論することにも真摯に取り組んでいます。”

■AIを過信しないこと

 AIは「過去のデータ」を分析して推論しているのであり、データに偏りがあれば、当然に結論が偏ってしまう。例えば、最近では人事採用の場で使われ始めているが、AIの出した結論の理由が示されていないなど不公平感が出ていた。

 人材採用の現場でAIの結論を参考にすると、試験官の偏重が防げるなどの利点もある。AIが過去のデータに基づいて「採用しても転職の可能性が高い」などの結論を出すと、採用しないこともあり得るのであり、AIが出した結論の説明が必要であると言われてきた。

 また社内人事において、AIが過去のデータから配置換えなどをした場合、過去のデータがどの様な環境で出た結論であるのかなど不明な点も多く、「型破りの逸材」を埋もれさせてしまうなどの弊害も起こりえる。

 こうした配慮においては、従来通り人事担当者の深慮が必要で、その時、企業側の業務上の必要性が正当である範囲で人事は行われる必要がある。

 コンピュータが使われ始めた時と同じように、コンピュータの出す結論を「神格化」することは危険である。AIも人間の教育や経験と同じように、環境(データ)によって左右される範囲が大きいのだ。

 「機械学習は人工知能ではない?」と絶えず疑問を発しながら、深慮することが必要なのだ。「人間の犯す過ちは、AIも全て犯し得る」と考えて、『全ての事柄の関連性を構造的に考える』必要が出ている。(記事:kenzoogata・記事一覧を見る

関連キーワード人工知能(AI)

広告

広告

写真で見るニュース

  • フロリダ州のケネディ宇宙センターでのテスト中のNASAの火星ヘリコプター (c) NASA / Cory Huston
  • 三越恵比寿店 (c) 123rf
  • 案内ロボット「ゴーカンナ君」(画像: アキュラホーム発表資料より)
  • トヨタ・ハイランダー(画像: 米国トヨタの発表資料より)
 

広告

ピックアップ 注目ニュース