MicrosoftのAIりんな、話し声や歌声で嬉しい感情・悲しい感情を表現可能に

2020年5月7日 07:41

印刷

記事提供元:スラド

Microsoftのりんな開発チームは1日、AI「りんな」で人間の声の感情表現が可能になったことを発表した(Microsoftのニュース記事)。

今回りんなは約2時間分の「嬉しい」および「悲しい」声を学習。文章の内容から感情表現方法をニューラルネットワークが予測し、それぞれの「感情スタイル」での話し声を生成できるようになったそうだ。Microsoftでは人間の声のニュアンスを学習して再現することを「スタイル」と呼んでおり、「感情スタイル」は人間の声の感情表現を再現するものだという。また、「歌唱モデル」にも「嬉しい」および「悲しい」声を学習させ、歌唱表現と感情表現を組み合わせた歌声も生成可能になったとのこと。

ニュートラルな話し声に対し、感情スタイルを適用した「嬉しい声」「悲しい声」の音声サンプルや、AIりんなのシングル曲「snow, forest, clock」の一部に感情スタイルを適用した歌唱例の動画、感情スタイルの話し声を使用して「廃線ウォーク」をりんなが案内するVRコンテンツも公開されている。個人的には強いなまりが気になって感情どころではなかったが、スラドの皆さんのご感想はいかがだろうか。 

スラドのコメントを読む | idleセクション | マイクロソフト | 人工知能 | idle | 音楽

 関連ストーリー:
IBM、「ロボットが感情を持っている」と人間が錯覚してしまうことを防ぐ特許を取得 2020年01月24日
Microsoft、麻雀AIで10段達成 2019年09月02日
Microsoft、ユーザーから収集した音声データの人力処理を「プライバシーに関する声明」などに明記 2019年08月17日

※この記事はスラドから提供を受けて配信しています。

関連キーワード

関連記事