関連記事
SiriとAlexaにプログラム変更求める署名 セクハラ質問へ毅然とした態度を
記事提供元:スラド
SiriとAlexaがユーザーからのセクハラ質問に毅然とした態度をとるよう、AppleとAmazonにプログラム変更を求めるオンライン署名運動をCare2が実施している(VentureBeatの記事)。
ほとんどのパーソナルデジタルアシスタントはデフォルトで女性の声が使われており、ユーザーのセクハラ質問に遭うことも多いようだ。Quartzの記事ではSiriとAlexa、Cortana、Google Homeを使い、各種セクハラ質問に対する応答内容を調査しているが、セクハラ質問にデジタルアシスタントが毅然とした態度で応答することは少なく、受け流した応答をすることが多かったという。時には喜んでいるかのような応答も聞かれたとのこと。
Care2では実際の人物ではないデジタルアシスタントが傷つくわけではないとしつつ、応答内容はセクハラを受けた現実の女性が仕事を続けるために見せる態度と同じようなものであり、セクハラが許容されている現状を変えるためにはデジタルアシスタントも毅然とした態度で応答すべきだと考えているようだ。目標の署名件数は1万件。9日夜の時点で9千件を超えている。
スラドのコメントを読む | ITセクション | ソフトウェア | 人工知能 | デベロッパー | IT
関連ストーリー:
米バーガーキングの「Ok Google」広告、カンヌライオンズDirect部門でグランプリを獲得 2017年06月24日
音声アシスタントに恋する現代人 2017年05月02日
Amazon Echo、子供からの音楽再生リクエストに対し卑猥な単語を読み上げる 2017年01月10日
※この記事はスラドから提供を受けて配信しています。
スポンサードリンク

