【AIが引き起こす差別や偏見】民主主義の大原則は「裁判官の独立」

2020年2月25日 07:06

印刷

 「AIも間違いを犯す」、当然なことだ。なぜなら「AIもデータで学習する」のであり、学習環境に偏向があれば、人間と同じく偏向してしまう。

【こちらも】AIは差別を助長する!? 人工知能に刷り込まれた認知バイアス

 特にAIの場合で恐ろしいのが、そのままにしておけば同じように間違いを犯し続けることだ。AIを基礎資料として使い続けていると、それが固定化してしまう恐れがある。例えば「人事採用」などの場合だ。それよりも恐ろしいのは、「法務AI」のように判例を学習して判断すると、判例が更新できない恐れがあるだろう。

 しかし人間社会では、社会の認識が変わってくれば「裁判官の判断」も違ってくる。そのため、同じような事件でも過去の判例を踏襲せずに、一歩踏み込んで違った判断を示す判例も生まれる。

 こうしたことまでAIに学ばせるには、社会情勢全般を一般常識として認識しておく必要が出る。そうしないと、「AIによる判断では時代遅れ」などと言ったことも起こり得るだろう。それを現在のAIで避けるには、「データを長期にわたって量的に増やす」ことしか出来ない。

■グーグルの画像認識開発:「黒人をゴリラ」

 グーグル画像認識AIの開発ストーリーは有名だが、それはインターネット上のものを学習データとしていた。その中に、画像に付けられたラベルで黒人の写真に「ゴリラ」と表示されたデータがあったため、黒人の写真を「ゴリラ」と認識して問題となってしまった。

 根本的に黒人のデータが少ないことがあり、AIが偏見を持った「ゴリラ」のラベルを真に受けたのだった。人間の社会ではこうした偏見があり、それをそのままAIが学習してしまったという例だ。

 すると現在、世界にある多くのデータは「白人社会」のもので、黒人や黄色人種のデータとは必ずしも一致しないため、白人に有利な結論を導き出してしまう恐れがある。こうしたAIの学習の持つ危険性は、これから開発の進むすべてのデータに言えることだ。

 例えば、白人の医学データがすべて日本人に当てはめることが出来るのかは疑問だ。また法務AIは、それぞれの国の法律を基とするので、国別の偏向はそのままとなろう。

■法務データ、裁判判例:「裁判官の独立」

 法務は比較的AIが導入しやすい分野とされており、過去の判例を学ぶことはAIにとって容易いと思われる。しかし、その過去の判例を替える革新的判断が出来るかと言えば、はなはだしく「難しいであろう」と言わざるを得ない。

 人種差別や、貧富の格差をどのように理解しているのかなど、難しい問題が関与してくる。豊富な一般常識からの判断が基礎とならねば、差別解消や革新的判断はなされないだろう。

 革新的判断というのは、やはり「人間の裁判官」の役割であろう。民主主義の大原則は「裁判官の独立」にあるからだ。(記事:kenzoogata・記事一覧を見る

関連キーワード

関連記事