社会の一員としてのAIのあり方は?ヨーロッパがAI倫理ガイドラインを策定

2019年1月22日 12:30

印刷

 AIの進歩は目覚しく、技術の発達に伴い社会のさまざまな分野への浸透が進んでいる。今後もこの流れは加速していくことが予測されるが、その一方で人とAIの関係については、いまだはっきりしたルールが作られていない。

【こちらも】AIの開発と活用 マイクロソフトが6つの倫理的要件を発表

 今回、欧州委員会のAIに関する高度専門グループにより、「信頼できるAI」に向けての倫理ガイドライン案が発表された。人にとって役に立つAIのあり方を考える上で、基礎となる事柄をまとめたものだ。人とAIの信頼関係構築に必要な要素として「AI倫理」を規定し、信頼できるAIを実現するための基準を策定する取り組みの第一歩となる。

●AI倫理の構成

 ガイドラインはAI倫理を考えるに当たって、基本的人権を守ることを第一に掲げ、これを元にAI倫理原則を構成し、更にそれを実現することをAIの価値としている。この倫理原則において開発者、提供者、ユーザー及び規制者の全てが目指すべき規準としてあげるのが、「人間中心」の「信頼できるAI」である。

 AI倫理原則として導入されているのは下記の5原則となっている。それぞれについて、簡単な説明をつけておく。

(1) 善行の原則
 AIは個人及び集団の幸福に資するものでなければならない。

(2) 不悪の原則
 AIは人間を傷つけてはならない。

(3) 自主性の原則
 AIは人間の自由な意思決定を妨げてはならない。

(4) 正義の原則
 AIの開発、使用、規制は公正でなければならない。

(5) 説明可能の原則
 AIの技術及び事業モデルにおいて透明性が確保されなければならない。

 AI倫理が確立されないことにより発生する重大な懸念として、本人の知らないところで個人が特定される、話をしている相手が人か機械かどちからわからない、個人に対する一般統計的な評価・採点がなされる、自律型殺人兵器の登場、などがあげられている。

●信頼できるAIを実現するために

 上記の倫理規定に基づいて「信頼できるAI」を実現するために、AIおよびその運用にあたって求められる事項として10項目が挙げられている。

(1) 責任能力
 AIの活動により生じた結果に対する責任の所在。

(2) データ管理統制
 AIにより使用された個々のデータの管理に関する責任。

(3) デザイン・フォー・オール
 全ての市民が使用できること(特に障害者を排斥しないこと)。

(4) AI自主性の管理
 AIの活動に対する人間による監視。

(5) 差別しないこと
 AIによる意図的、非意図的な差別の禁止>

(6) 人間の自主性の尊重
 AIは多様な価値観を保護し、個人の意思決定と自主性を尊重すること。

(7) プライバシーの尊重
 AIはプライバシーと個人データの保護を保証すること。

(8) ロバスト性
 AIは誤作動や外部からの攻撃に対して十分な信頼性を有すること。

(9) 安全性
 AIは人や環境を傷つけずに目的を達成すること。

(10) 透明性
 AIは自身が行った判断を説明できること。

 これらを実現し「信頼できるAI」を社会に配置するためには、AIの開発に関する技術の方向性や検証方法の策定だけではなく、AIに関する規制や標準、倫理教育が重要である。関連する法整備も必要になるだろう。

 AIの登場が人間社会にとって有益なものであるためには、AIはどのような判断をし、どのように人と関わるべきなのか。それを実現する技術の方向や社会の変化はどのように進められるべきなのか。今後の世界を変えるであろう人工知能と人間のありかたについて、世界中で討議されるべき重要なテーマとして取り上げる必要がある。(記事:詠一郎・記事一覧を見る

関連キーワード

関連記事