Apple、波紋を呼んだ児童虐待画像の検出技術に関してFAQを公開

2021年8月12日 16:11

印刷

記事提供元:スラド

Appleが8月5日に発表した児童性的虐待コンテンツ(CSAM)機能は、各所からプライバシーの扱いにおいて議論を呼んでいる。具体的にはAppleや政府などの機関がこの機能を使用してユーザーのデータにアクセスするのではないかとする懸念だ。このためAppleは8日、この機能に関するFAQを公開した(FAQページ[PDF]MIT Tech ReviewITmediaCNET)。

曰くこのCSAM対策機能は、データベースに登録されている既知のCSAM画像と完全一致した場合のみ検出する仕組みであり、政府からの拡張要求には応じないとしている。CSAM画像検出以外の目的でシステムが使用されるのを防ぐための仕組みとして、画像リストは全米行方不明・搾取児童センター(NCMEC)やその他の児童安全組織によって提供されているものだけを使用すると主張する。

しかし、TheVergeの記事によれば、Appleは過去に各国の政府に譲歩してきた経緯がある。暗号化された電話を許可していないサウジアラビア、パキスタンなどの国ではFaceTimeのないiPhoneを販売しており、中国では政府からの要求でApp Storeから何千ものアプリを削除し、ユーザーデータを該当国内に移動する要求に関しても応えてきたと指摘している(TheVerge)。

この記事では、今回公開されたFAQでは、メッセージをスキャンしてCSAMを探す機能では、法執行機関と情報を共有しないとしているが、このツールの焦点が性的に露骨な画像のみであることをどうやって保証しているのかについては言及されておらず、ユーザー側の懸念にも回答し切れていないとしている。 

スラドのコメントを読む | アップルセクション | セキュリティ | OS | 携帯電話 | アップル | プライバシ

 関連ストーリー:
Apple、米国内のデバイスで児童性的虐待画像をスキャンするなど子供を守る取り組みを強化 2021年08月08日
中国政府、オンラインプラットフォームにソフト児童ポルノステッカーパックの配布を禁ずる 2021年07月23日
USA TODAYの特定記事を読んだ人物の情報提出を要求していたFBI、令状を取り下げ 2021年06月07日

※この記事はスラドから提供を受けて配信しています。

関連キーワード

関連記事