東芝メモリ、演算エネルギー効率を4倍改善するAIプロセッサ開発 FPGAで確認

2018年11月7日 22:03

小

中

大

印刷

試作AIチップを使ったデモシステム(写真:2月の東芝の発表資料より)

試作AIチップを使ったデモシステム(写真:2月の東芝の発表資料より)[写真拡大]

写真の拡大

 東芝メモリは6日、ディープラーニングの高速化・省エネルギー化を実現するプロセッサ技術を開発したと発表した。

【こちらも】東芝、アナログAIチップを開発 日本のお家芸である超低消費電力に活路

 ディープラーニング(深層学習)は人工知能(AI)の最も有力な手法だ。自動運転、ロボット、医療、IoTなど様々な分野でAIを活用する動きがあるが、AIを牽引するのはディープラーニングであり、この潮流に乗ったのは米国のNVIDIAや日本のPreferred Networks等であり、その存在感は大きい。

 ディープラーニングは、大きく2つの用途別のプロセスに分かれる。物事を学習する学習プロセスと学習した結果で物事を認識する推論プロセスだ。この学習と推論の両方の大きな課題が高速化だ。学習プロセスの高速化は、新たなAI製品の開発期間の短縮に影響する。加えて、推論プロセスの高速化は、例えば、歩行者を認識してブレーキするなどのリアルタイム性を確保するための必要条件だ。

 他方、ディープラーニングの高速化のためには、専用プロセッサを活用するのが一般的であるが、加えて、その膨大のデータを記憶するメモリとのインタフェース時間の短縮が重要だ。

 先ず専用プロセッサの手段には、アルゴリズムを最適化してCPU(Central Processing Unit)やアクセラレータを使用する方法、ディープラーニングの主要要素の行列の積和演算を高速処理するGPU(Graphics Processing Unit)で処理する方法、確立されたソフトウェアのアルゴリズムをFPGA(Field Programmable Gate Array)でハードウェア化する方法、ASIC(Application Specific Integrated Circuit)などで専用のプロセッサを開発する方法がある。この4つの方法は用途ごとの組合せが可能だ。

 次に、外部メモリのアクセス時間は専用プロセッサに比べて数桁以上遅い。特に電源を切ってもデータを記憶できるフラッシュメモリは、東芝メモリのドル箱であるが、ディープラーニングでのシステムを構成する上でも必須の構成要素であり、そのインタフェースの構築は東芝メモリの新たなドル箱となる。

 東芝は2月9日、8ビットのアナログAIチップを開発。スマホやパソコンが演算精度を向上させるために64ビット以上のバスを使用してきたのに反し、行列演算の精度保つのに8ビットで十分だと主張した。今回の発表は、更に一歩踏み込んで積和演算で用いる定数を各層に数十~数千あるフィルタ毎に別々に最適化した。

 技術の詳細は、半導体回路の国際会議「A-SSCC 2018」で6日に発表した。

●東芝AIプロセッサの狙い
 残念ながら、今回の発表では2月発表の8ビットアナログAIチップの更なる高速化を狙う技術開発なのか、もしくは新たなAIプロセッサの発表なのかに関する記述はない。

 共通する項目は、ディープラーニングの積和演算をニューラルネットワークの各層ごとの定数を最適化したことだ。そして、画像処理で代表的なニューラルネットワークに適用しFPGA化し、ディープラーニングの演算エネルギー効率が約4倍に改善することを確認。ディープラーニングの高速化を阻む基本的な課題を低減した。

 重要なメッセージは、「ディープラーニングの処理を効率的に実行するハードウェアアーキテクチャの協調開発により、認識精度をほとんど劣化させずに演算量を削減」したことだ。具体的な記述はないものの、このハードウェアアーキテクチャの中に、フラッシュメモリが搭載されていることを期待したい。(記事:小池豊・記事一覧を見る

関連キーワード自動運転人工知能(AI)IoT(Internet of Things)東芝ディープラーニング(深層学習)半導体東芝メモリ

「精密機器・半導体・電子部品」の写真ニュース

企業・産業の最新ニュース

RSS

もっと見る

主要ニュース

RSS

もっと見る

広告

財経アクセスランキング

広告

SNSツール

RSS

facebook

zaikeishimbun

いいね!

twitter

@zaikei_company

フォロー

google+

Hatena

広告

ピックアップ 注目ニュース