米国防総省の有識者会議、AI倫理5原則を採択

2019年11月3日 21:15

印刷

記事提供元:スラド

エリック・シュミット氏が座長を務める米国防総省(DoD)の有識者会議Defense Innovation Board(DIB)が10月31日、DoDにおけるAIの倫理的利用に関するAI倫理原則を採択したそうだ(DIBのAI原則プロジェクトページ、 AI原則 PDF: Primary Document / Supporting DocumentVentureBeatの記事)。

AI倫理原則は以下の5つ。Responsible: 人間が適切な判断を行い、DoD AIシステムの開発・展開・利用・利用結果について責任を持つ 
 Equitable: 戦闘用・非戦闘用AIシステムの開発・展開にあたり、誤って人に危害を加えるような意図しないバイアスを避けられるようにする 
 Traceable: 透明性があり監査可能な方法論やデータソース、設計手法、ドキュメンテーションを含め、技術的専門家がAIシステムを適切に理解する 
 Reliable: DoDのAIシステムは定義された利用領域内において、ライフサイクルを通じて安全性や堅牢性を維持できるようにする 
 Governable: DoDのAIシステムは意図した機能を実現するだけでなく、意図しない危害を回避し、意図しない動作を始めた場合に手動・自動による停止を可能にする DIBではこれら5原則を実行可能なものにするためのポリシー策定やAI管理委員会の設立、AI利用に関する訓練の強化、AI研究への投資などを勧告している。

 スラドのコメントを読む | ITセクション | 軍事 | 人工知能 | IT | アメリカ合衆国

 関連ストーリー:
政府、AI運用に関する7原則を制定へ 2018年11月27日
中国・北京理工大学、18歳以下の優秀な学生27人を選抜しAI兵器開発専門の軍事研究プロジェクトに参加させる 2018年11月15日
Googleが軍事プロジェクトへの協力に対する社内ガイドラインを制定へ 2018年06月06日

※この記事はスラドから提供を受けて配信しています。

関連キーワード

関連記事