面接用AIが人種差別をする可能性も 学習データなどが影響か

2018年4月26日 23:57

あるAnonymous Coward曰く、 Unileverやゴールドマン・サックスなどのグローバル企業では、求職者を選別するために人工知能(AI)を使用しているという。HirevueはそうしたAIを提供している企業の1つで、ミラーの裏に隠されたカメラの前で面接状況を記録し、姿勢や顔の表情、声の調子、言葉の選択などをAIが分析するという。プログラムは成績優秀な従業員から学習したデータを元に、求職者のデータをスコア化できるそうだ。しかし、これによって雇用者が意図しない「差別」が発生する可能性もあるという(DAILY BEASTThe GuardianSlashdot)。

 ほとんどのプログラマーは白人男性であるため、これらのAIの多くは白人男性の顔や男性の声のデータを使って学習している。この結果、黒人の顔や女性の声による面接の場合、AIが性差別的または人種差別的な傾向を引き起こす可能性があるという。

 求職者の選別ツールを提供する企業はほかにもあり、たとえばAIチャットボットやインタビューで求職者を振り分けるシステムを提供している企業もある。人気のAIの1つはMyaと呼ばれており、採用までの時間が70%短縮できることを売りにしている。こういったチャットボットが、人種や性別、そのほか差別に繋がるような情報を得るためのプロキシとして使われている可能性もあるようだ。

関連記事

最新記事