Amazon Echo、子供の音楽再生リクエストに卑猥な単語を読み上げる

2017年1月10日 22:20

印刷

記事提供元:スラド

 Amazon.comは米国で、音声による操作アシスタント機能「Alexa」を搭載するスピーカー「Amazon Echo」を発売しているが(過去記事)、このこのAmazon Echoが子供からの音楽再生リクエストに対しポルノを再生しようとしたという話があったようだ(J-CASTニュースMirrorMashable)。

 報道によると、Amazon Echoの音声アシスタント機能を使い、男児が「Digger digger」という実在しない楽曲をリクエストしたところ、Amazon Echoはポルノ的な内容を含む音声を再生しようとした、とされている。ただ、Mirrorによると実際のところは「Porn Detected! (Porno Ringtone Hot Chick Amateur Girl Calling Sexy F*** C*** Sh** Sex C**k Pu**y Anal Dildo」というタイトルのAndroid向けの着信音が存在し、Amazon Echoがこれを読み上げた、という話ではないかと推測されている。

 Amazon Echoの音声アシスタント機能については、ほかにも子供が音声で高価な品を注文してしまった、といったトラブルが報告されている(Fox News)。

 スラドのコメントを読む | テクノロジー | 人工知能

 関連ストーリー:
米サウスカロライナ州、パソコンなどのデバイスにわいせつコンテンツブロック機能の搭載を義務付ける法案 2016年12月23日
Amazon、クラウド型自然言語処理サービスの開発者向けプレビューを開始 2015年08月05日
Amazonの多機能スピーカー「Echo」、米国で一般発売へ 2015年06月25日
「エロが好きならAndroidをどうぞ」、ジョブズがポルノ反対の立場を明確に述べる 2010年04月23日

※この記事はスラドから提供を受けて配信しています。

関連キーワード

関連記事