Google、「ディープフェイク動画」検出技術開発へ大規模なデータセット公開

2019年9月30日 22:02

小

中

大

印刷

記事提供元:スラド

 Anonymous Coward曰く、

 昨今では「ディープフェイク動画」などと呼ばれる、ディープラーニング技術などを用いて改ざんした動画が広まっているという(CNET Japan)。例としては、ポルノ動画の出演者の顔を有名人に差し替えるというものがあるが、声を他人のものに似せて詐欺を働くといった被害も出ているという。

 ディープフェイク動画を作成するための技術は2017年後半に登場して以来さまざまな手法が出回っているが、Googleがこうしたディープフェイク動画への対応策として大規模なデータセットを発表した。

 このデータセットは、動画における人の顔の偽造を検出する「FaceForensics Benchmark」向けのもので、このデータセットを作成するため、Googleは1年の間、俳優と協力して何百ものビデオを録画したという。このデータセットはFaceForensicsベンチマークの一部として、合成ビデオの検出方法の開発に使用するために研究コミュニティに無料で提供される(GoogleFastCompanySlashdot)。

 スラドのコメントを読む | ITセクション | 映画 | テクノロジー | Google | ソフトウェア | 人工知能

 関連ストーリー:
中国・新華社でAI合成アンカーがデビュー 2018年11月11日
映画の「濡れ場」を、「上半身と下半身のデジタル合成」でよりリアルにする試み 2013年05月27日
「アイコラやめて」キャンペーン 2002年08月11日

※この記事はスラドから提供を受けて配信しています。

関連キーワードGoogleポルノディープラーニング(深層学習)

関連記事

広告