Google、児童ポルノ画像検出APIを公開 一定時間の検出率が大幅に増加

2018年9月7日 19:23

あるAnonymous Coward曰く、 Googleがインターネット上の児童性的虐待コンテンツ(CSAM、Child Sexual Abuse Material)を自動検出するツールを発表した。対策に取り組む団体に無料で提供するという(ITmedia)。

 このツールはディープニューラルネットワークを使用して画像を分析し、画像をCSAMである可能性が高い順にソートできるという。従来はCSAMであるとタグ付けされた画像と検出対象の画像をマッチングするという手法が使われていたが、この技術では人工知能技術を使うことで未知の画像に対しても検出が可能になる。

 Googleによるテストでは、「一定時間に検出・対処するCSAMが700%増加した」とされている。

関連記事

最新記事